Informatietheorie
Beste lezer,
“Informatie is de oplossing voor onzekerheid”. Bijna alles waar we in het digitale tijdperk over beschikken, berust op dit idee.
Toch zijn maar weinig mensen zich bewust van de grondlegger, of de grondslagen, van deze simpele, elegante theorie over informatie. Hoeveel mensen weten dat het informatietijdperk niet begon bij Bill Gates of Steve Jobs, maar in 1948 bij Claude Shannon? Deze briljante wiskundige, geneticus en cryptoanalist formuleerde wat later in de nasleep van de Tweede Wereldoorlog de informatietheorie zou worden, toen duidelijk werd dat de strijd niet louter was gevoerd met wapens en munitie.
Het fundamentele kenmerk van informatie is dat je onzekerheid wegneemt door iets door te geven. Hoe voor de hand liggend dit ook klinkt, het was een belangrijk punt, gezien de verschillende talen die mensen spreken en het feit dat een uiting voor de ene persoon zinvol kan zijn terwijl ze voor een ander onbegrijpelijk is. Shannon toonde aan dat coderingen en symbolen de sleutel waren tot het oplossen van de vraag of twee communicatoren een gemeenschappelijk begrip hadden van de onzekerheid die werd opgelost. Zijn conclusie was dat elke vorm van informatie kon worden gecodeerd als een reeks ja-of-nee-vragen.
Tegenwoordig kennen we deze antwoorden als digitale informatiebits die voor van alles staan, van de tekst van een e-mailbericht, digitale foto’s tot hd-beelden (Andrew Lih in “Dit verklaart alles”).