Teorie informace

Z WikiKnihovna
Přejít na: navigace, hledání

Autor: Barbora Mohelníková

Klíčová slova: informace, matematika, entropie

Synonyma: výklad zprávy

Související pojmy:

nadřazené - entropie, matematika, fyzika
podřazené - bit, byte

Historie

Teorie informace se poprvé objevila ve 40. letech 20. století. Jejími tvůrci byli matematici Claude Elwood Shannon a Norbert Wiener. Myšlenky teorie informace se objevuje v Shannonově díle Matematická teorie komunikace a v díle Wienera Kybernetika a společnost.
Protože Shannon a Wiener byli oba matematikové je v jejich pojetí informace měřitelnou veličinou. V jejich pojetí je teorie informace pouze matematicko-statistická, její význam, hodnota a smysl v ní není vůbec řešen.[1]

Teorie informace a entropie

Teorie informace zkoumá matematickou reprezentaci podmínek a parametrů ovlivňujících přenos a zpracování informací.
„Teorie informace je klíčovou disciplínou pro jakoukoli oblast informatiky. Popisuje, jakým způsobem můžeme pracovat s informacemi, jakým způsobem je možné je kódovat, jaká jsou omezení v přenosu dat. Jde tedy o fundamentální vědu, bez jejíchž – alespoň základních – znalostí se v oblasti teoretické informatiky nebo počítačových sítí můžeme jen velmi obtížně pohnout dále.“

Entropie je klíčovým pojmem teorie informace. Tento pojem byl zaveden v termodynamice. Entropie je střední hodnotou informace jednoho kódovaného znaku, její míra souvisí s řadou náhodných čísel, přičemž řada naprosto náhodných čísel by měla mít maximální míru entropie. Entropie brání více zkomprimovat nějakou informaci.Jinými slovy je entropie míra neuspořádanosti soustavy, růst vyjadřuje přechod od organizovaných, málo pravděpodobných stavů ke stavům chaotickým, vysoce pravděpodobným.[2]

Jednotky informace

Bit - základní jednotka informace, má hodnotu 0 nebo 1

Byte - 1 byte = 8 bitů, 256 možných kombinací 0 a 1 [3]

Claud Elwood Shannon

Claude Elwood Shannon se narodil v roce 1916 v Gaylordu, který se nachází ve státě Michigan. Od dětství byl jeho idolem Thomas Edison, což ho vedlo k velkému zájmu o mechanické a elektrické přístroje. Později tedy studoval elektrické inženýrství v Michiganu. Při studiu ho začala velmi zajímat matematika, takže kromě elektrického inženýrství vystudoval nakonec i matematiku. Podílel se na sestrojení analogového počítače. Díky němu vznikl obor informatika.[4]
Podle shannona se teorie informace zabývá vylepšováním přenosu zpráv pomocí komunikačních technologií. Podle něho je informace vlastnost, která odstraňuje apriorní (vrozenou) neznalost příjemce.[5]

Norbert Wiener

Norbert Wiener se narodil v roce 1894 v městě Columbia, které leží ve státě Missouri. Byl geniální, číst se naučil již ve třech letech, střední školu dokončil již v 11 letech a ve 14 letech získal bakalářský titul, v 18 letech získal doktorát z matematické logiky. Je tvůrcem vědního oboru kybernetika. [6] Zkoumal, jak se stroje dorozumívají mezi jejich jednotlivými částmi a také jak jsou řízeny jako celek.
Podle něho byla informace vhodným nosičem, který umožňuje realizaci vztahů mezi složkami systému a obsah toho, co měníme s vnějším prostředím při přizpůsobování se mu.[5]

Další pojetí teorie informace

Podle Stoniera existuje informace nezávisle na člověku a jeho vědomí. Existuje ve fyzikální podobě jako součást vnitřní struktury objektů. Stonier řekl:„…informace může existovat mimo lidskou bytost. Můžeme argumentovat tím, že kniha a v ní uložené informace nemají žádný užitek, pokud nejsou čtené člověkem. To je pravda, ale nepopírá to fakt, že informace je zde, tak jako předtím.“[7]
Projevem informace je podle něho organizovanost. Informaci dělí na kynetickou a strukturní. Uvádí pojem infon, který je hypotetická kvantová částice, která se skládá pouze z informace. Infon je nehmotný, bez energie a hybnosti.

Poznámky

  1. CEJPEK, Jiří. Informace, komunikace a myšlení. Praha: Karolinum, 1998. Str. 12
  2. VAŇKOVÁ, Jana. Teorie informace v gymnaziálním kurzu informatiky. Metodický portál: Články [online]. 14. 12. 2011, [cit. 2013-05-19]. Dostupný z WWW: <http://clanky.rvp.cz/clanek/c/g/14121/TEORIE-INFORMACE-V-GYMNAZIALNIM-KURZU-INFORMATIKY.html>. ISSN 1802-4785.
  3. BALÁŠ, Martin; MACHÁČEK, Martin. Základy informatiky a teorie informace [online prezentace]. Dostupný z WWW: http://www.ulozto.cz/xr1bzJm/zaklady-informatiky-a-teorie-informace-2-ppt
  4. KAPOUN, Jan.Průkopníci informačního věku (10.): Claude Shannon. CIO Speciál. 26.12.2010. Dostupné z: http://businessworld.cz/cio-bw-special/prukopnici-informacniho-veku-10-claude-shannon-6969
  5. 5,0 5,1 BACHRATÝ, Adam. Pravdivost informace. Brno: Masarykova univerzita, Filozofická fakulta, Ústav české literatury a knihovnictví, Kabinet informačních studií a knihovnictví, 2009. s.12 Vedoucí bakalářské práce PhDr. Michal Lorenz.
  6. KAPOUN, Jan.Průkopníci informačního věku (11.): Norbert Wiener. CIO Speciál. 13.2.2011. Dostupné z: http://businessworld.cz/cio-bw-special/prukopnici-informacniho-veku-11-norbert-wiener-7037
  7. STONIER, Tom. Informace a vnitřní struktura vesmíru: Průzkum v informační fyzice. 1. vyd. Praha: BEN - technická literatura, 2002. strana 16

Použitá literatura