Információ

Tartalomjegyzék:

Információ
Információ
Anonim

Belépés navigáció

  • Nevezés tartalma
  • Bibliográfia
  • Tudományos eszközök
  • Barátok PDF előnézete
  • Szerző és idéző információ
  • Vissza a tetejére

Információ

Elsőként publikálták 2012. október 26-án; érdemi felülvizsgálat 2018. december 14

Az információfilozófia az információ fogalmának filozófiai elemzésével foglalkozik mind történelmi, mind szisztematikus szempontból. Az empirikus tudáselmélet megjelenésével a korai modern filozófiában, a különféle matematikai információelméletek fejlesztésével a huszadik században és az információtechnológia emelkedésével az „információ” fogalma központi szerepet játszott a tudományokban és a társadalomban.. Ez az érdeklődés egy külön filozófiai ág kialakulásához vezetett, amely minden elemében elemzi az információkat (Adriaans & van Benthem 2008a, b; Lenski 2010; Floridi 2002, 2011). Az információ központi tudományos kategóriává vált mind a tudományban, mind a humán tudományban, és az információs gondolkodás a filozófiai tudományágak széles skáláját befolyásolja, a logikától függően (Dretske 1981;van Benthem és van Rooij 2003; van Benthem 2006, lásd a logika és információk bejegyzését, az episztemológiát (Simondon 1989) az etikához (Floridi 1999) és az esztétikát (Schmidhuber 1997a; Adriaans 2008) az ontológiához (Zuse 1969; Wheeler 1990; Schmidhuber 1997b; Wolfram 2002; Hutter 2010).).

Nincs egyetértés az információfilozófiai terület pontos természetéről. Számos szerző javasolt egy többé-kevésbé koherens információfilozófiát a filozófia új perspektívából való átgondolására tett kísérletként: pl. Kvantumfizika (Mugur-Schächter 2002), logika (Brenner 2008), szemantikai információ (Floridi 2011; Adams & de Moraes 2016, lásd az információ szemantikai fogalmainak bejegyzését, a kommunikációs és üzenetrendszereket (Capurro & Holgate 2011) és a meta-filozófiát (Wu 2010, 2016). Mások (Adriaans és van Benthem 2008a; Lenski 2010) inkább technikai tudományágnak tekintik, amelynek mély gyökerei a filozófia történetében vannak, és következményekkel járnak a különféle tudományágakra, például a módszertanra, az episztemológiára és az etikára. Bármi legyen is az értelmezés az információfilozófia természetéről,úgy tűnik, hogy magában foglal egy ambiciózus kutatási programot, amely számos alprojektből áll, kezdve a filozófia története újraértelmezését a modern információelméletek összefüggésében, az információ tudományos, humán és társadalombeli szerepének mélyreható elemzéséig. egy egész.

A közbeszédben az „információ” kifejezést elsősorban elvont tömegnévként használják, bármilyen adathordozóra tárolva, küldve, fogadva vagy manipulálva bármilyen mennyiségű adatot, kódot vagy szöveget. Az „információ” kifejezés és a hozzá kapcsolódó különböző fogalmak részletes története összetett, és nagy részben még meg kell írni (Seiffert 1968; Schnelle 1976; Capurro 1978, 2009; Capurro & Hjørland 2003). Az „információ” kifejezés pontos jelentése a különböző filozófiai hagyományokban változik, és a köznyelvi használata földrajzilag és különböző gyakorlati kontextusokonként változik. Noha az információ fogalmának elemzése a nyugati filozófia korai kezdete óta a téma, az információ mint filozófiai fogalom kifejezett elemzése nemrégiben történt,és a huszadik század második felére nyúlik vissza. Ebben a pillanatban egyértelmű, hogy az információ kulcsszerepet játszik a tudományokban és a humán tudományokban, valamint mindennapi életünkben. Minden, amit a világról tudunk, az az információn alapul, amelyet kapott vagy összegyűjtöttünk, és elvben minden tudomány foglalkozik az információval. Létezik az információhoz kapcsolódó fogalmak hálózata, amely különböző tudományágakban gyökerezik, mint például a fizika, a matematika, a logika, a biológia, a gazdaság és az episztemológia. Ezek a fogalmak két központi tulajdonság köré csoportosulnak:különböző tudományágak gyökerei, mint például a fizika, a matematika, a logika, a biológia, a gazdaság és az episztemológia. Ezek a fogalmak két központi tulajdonság köré csoportosulnak:különböző tudományágak gyökerei, mint például a fizika, a matematika, a logika, a biológia, a gazdaság és az episztemológia. Ezek a fogalmak két központi tulajdonság köré csoportosulnak:

Az információk széles körűek. A központi elem az additivitás fogalma: két független adatkészlet kombinációja azonos mennyiségű információval kétszer annyi információt tartalmaz, mint az különálló egyedi adatkészletek. A kiterjeszthetőség fogalma természetesen megjelenik a körülöttünk lévő világgal való interakciónk során, amikor tárgyakat és szerkezeteket számolunk és mérünk. Az absztraktbb matematikai elemek, mint például halmazok, csoportok és szekvenciák alapvető elképzeléseit a történelem korai szakaszában fejlesztették ki a szimbólumok manipulációjának szerkezeti szabályai alapján (Schmandt-Besserat 1992). A kiterjedtség logikai függvényében történő matematikai formalizálását a termodinamika kutatásának összefüggésében a tizenkilencedik (Boltzmann 1866) és a huszadik század elején (Gibbs 1906) végezték. Ha fejlettebb többdimenziós számrendszerekre kódolják (komplex számok,kvaternionok, oktonionok) az extenzivitás fogalma az additivitás finomabb fogalmait általánosítja, amelyek nem felelnek meg a mindennapi intuíciónknak. Ugyanakkor fontos szerepet játszanak a kvantumfizikán alapuló információelmélet legújabb fejleményeiben (Von Neumann 1932; Redei & Stöltzner 2001, lásd a kvantumbeillesztés bejegyzését és az információkat).

Az információ csökkenti a bizonytalanságot. A kapott információ mennyisége lineárisan növekszik azzal az összeggel, amellyel csökkenti a bizonytalanságunkat addig a pillanatig, amikor megkaptuk az összes lehetséges információt, és a bizonytalanság mértéke nulla. A bizonytalanság és az információ kapcsolatát valószínűleg először az empirikusok fogalmazták meg (Locke 1689; Hume 1748). Hume kifejezetten megjegyzi, hogy a lehetőségek nagyobb választéka közül választhat több információt. Ez a megfigyelés elérte a kanonikus matematikai megfogalmazást Hartley (1928) által javasolt függvényben, amely meghatározza az információ mennyiségét, amelyet akkor kapunk, amikor egy elemet kiválasztunk a véges halmazból. Az egyetlen matematikai függvény, amely egyesíti ezt a két intuíciót a kiterjeszthetőségről és a valószínűségről, az az, amely meghatározza az információt a valószínűség negatív logje szerint: (I (A) = - / log P (A)) (Shannon 1948;Shannon és Weaver 1949, Rényi 1961).

Ennek a formulanak az eleganciája azonban nem árul el minket a fogalmi problémáktól. A huszadik században különféle javaslatokat tettek az információ fogalmainak formalizálására:

  • Az információ kvalitatív elméletei

    1. Szemantikus információ: Bar-Hillel és Carnap kifejlesztette a szemantikai információ elméletét (1953). Floridi (2002, 2003, 2011) meghatározza a szemantikai információkat, mint a jól megfogalmazott, értelmes és valódi adatokat. Az információk formális entrópián alapuló meghatározásai (Fisher, Shannon, Quantum, Kolmogorov) általánosabb szinten működnek, és nem szükségszerűen mérik az információkat értelmes, valósághű adatkészletekben, bár védhetik azt a nézetet, hogy a mérhetőségnek az adatoknak jól kell lennie. megalakult (a vitát lásd a 6.6 szakaszban a logikai és szemantikai információkról). A szemantikus információ közel áll a mindennapi naiv információhoz, mint olyan információhoz, amelyet valódi állítások közvetítenek a világról.
    2. Információ mint ügynök állapota: Hintikka (1962, 1973) kezdeményezte az olyan fogalmak, mint a tudás és a hit hivatalos logikai kezelését. Dretske (1981) és van Benthem és van Rooij (2003) ezeket a fogalmakat az információelmélet kontextusában vizsgálta, vö. van Rooij (2003) kérdésekről és válaszokról, vagy Parikh és Ramanujam (2003) az általános üzenetküldésről. Úgy tűnik, hogy Dunn is szem előtt tartja ezt a gondolatot, amikor úgy határozza meg az információt, hogy „mi marad a tudásból, ha elveszítik a hitet, az igazolást és az igazságot” (Dunn 2001: 423; 2008). Vigo javaslatot tett egy struktúrára érzékeny információelméletre, amely az ügynökök általi koncepciógyűjtés bonyolultságán alapul (Vigo 2011, 2012).
  • Az információ mennyiségi elméletei

    1. Nyquist funkciója: Nyquist (1924) valószínűleg elsőként fejezte ki az „intelligencia” mennyiségét, amelyet át lehet adni a távirányító rendszerek bizonyos vonali sebessége mellett, a log függvény szerint: (W = k / log m), ahol W az átviteli sebesség, K egy állandó, és m a különféle feszültségszintek, amelyek közül választhat.
    2. Fisher-információ: az az információmennyiség, amelyet egy megfigyelhető X véletlen változó hordoz egy ismeretlen paraméter (theta) körül, amelytől függ az X valószínűsége (Fisher 1925).
    3. A Hartley funkció: (Hartley 1928, Rényi 1961, Vigo 2012). Az az információmennyiség, amelyet akkor kapunk, amikor egy elemet egy véges S halmazból választunk ki egységes eloszlás mellett, a halmaz kardinalitásának logaritmusa.
    4. Shannon-információk: Az X diszkrét véletlen változó H entrópiája az X értékéhez kapcsolódó bizonytalanság nagyságának mértéke (Shannon 1948; Shannon & Weaver 1949).
    5. Kolmogorov bonyolultsága: Az információ egy bináris karakterláncban az x referencia univerzális Turing-gépen x-t létrehozó legrövidebb program hossza (Turing 1937; Solomonoff 1960, 1964a, b, 1997; Kolmogorov 1965; Chaitin 1969, 1987).
    6. Entrópia mérések a fizikában: Noha ezek nem minden esetben szigorúan az információk mérőszáma, a fizikában definiált entrópia különböző fogalmai szorosan összekapcsolódnak az információ megfelelő fogalmaival. Említünk Boltzmann-entrópiát (Boltzmann, 1866), amely szorosan kapcsolódik a Hartley-funkcióhoz (Hartley 1928), a Gibbs-entrópiát (Gibbs 1906), amely formálisan egyenértékű a Shannon-entrópiával, és különféle általánosításokat, például a Tsallis Entropy (Tsallis 1988) és a Rényi Entropy (Rényi 1961).
    7. Kvantuminformáció: A qubit a klasszikus bit általánosítása, és egy kvantumállapot jellemzi egy kétállapotú kvantummechanikai rendszerben, amely formálisan ekvivalens egy kétdimenziós vektortérrel a komplex számok felett (Von Neumann 1932; Redei) & Stöltzner 2001).

A közelmúltig általában kételkedtek ezen elméletek egyesítésének lehetőségében (Adriaans & van Benthem, 2008a), ám két évtizedes kutatás után az egyesítés kilátásai jobbnak tűnnek.

Az információ egységes koncepciójának körvonalai a következő vonalakon merülnek fel:

  • Az információfilozófia a filozófia alfegyelem, szorosan kapcsolódik a logika és a matematika filozófiájához. A szemantikai információ filozófiája (Floridi 2011, D'Alfonso 2012, Adams & de Moraes, 2016) ismét az információfilozófia alfegyelemje (lásd az információs térképet az információ szemantikai fogalmainak bejegyzésében). Ebből a szempontból az információfilozófia érdekli a téma legszélesebb körű vizsgálatát: adatok, jól formált adatok, környezeti adatok stb. A szemantikai információ filozófiája hozzáadja a jelentés és az igazság dimenzióit. Az információ kvantitatív elméletei a szemantikai információ filozófiájának keretein belül értelmezhetők (mélyebb megbeszélést lásd a 6.5 szakaszban).
  • Az eltérő narratívákhoz (számolás, üzenetek fogadása, információgyűjtés, számítás) ugyanazon alapvető matematikai keretben gyökereznek az információ különböző mennyiségi fogalmai. Az információs filozófia számos problémája a matematika filozófiájával kapcsolatos kapcsolódó problémák körül áll. Tanulmányozták a különféle formális modellek közötti átváltásokat és redukciókat (Cover & Thomas 2006; Grünwald & Vitányi 2008; Bais és Farmer 2008). A látszólag kialakult helyzet nem különbözik az energia fogalmától: különféle formális al-elméletek léteznek az energiáról (kinetikai, potenciál, elektromos, kémiai, nukleáris), amelyek között jól definiált átalakulások vannak. Ezen kívül az „energia” kifejezést lazán használják a köznyelvi beszédben.
  • Az ügynök alapú információfogalmak természetesen akkor merülnek fel, amikor az érdeklődésünket az egyszerű méréstől és a szimbólummanipulációtól az ismeretekkel, hitekkel, szándékokkal és a választás szabadságával rendelkező ügynökök összetettebb paradigmájáig terjesztjük. Ezek kapcsolódnak az információ más fogalmainak telepítéséhez.

Az koherens elmélet kialakulása az információ mennyiségi mérésére a huszadik században szorosan kapcsolódik a számítástechnika elméletének fejlődéséhez. Ebben az összefüggésben központi szerepet töltenek be az egyetemesség, a Turing-ekvivalencia és az invariancia fogalma : mivel a Turing-rendszer fogalma meghatározza az univerzális programozható számítógép fogalmát, úgy tűnik, hogy a számítás minden univerzális modellje azonos erővel rendelkezik. Ez azt jelenti, hogy a számítás univerzális modelljeire (rekurzív funkciók, Turing Machine, Lambda Calculus stb.) Meghatározható információk lehetséges méretei aszimptotikusan változatlanok. Ez áttekintést ad az információ egységes elméletéről, amely az elkövetkező években a kutatási programban dominálhat.

  • 1. Információk nyelvbeszéd formájában
  • 2. A kifejezés története és az információ fogalma

    • 2.1 Klasszikus filozófia
    • 2.2 Középkori filozófia
    • 2.3 Modern filozófia
    • 2.4 Az „információ” kifejezés jelentésének történelmi fejlődése
  • 3. A modern információelméletek építőelemei

    • 3.1 Nyelvek
    • 3.2. Optimális kódok
    • 3.3 Számok
    • 3.4 Fizika
  • 4. Az információfilozófia fejlődése

    • 4.1 Popper: Információ, mint a hamisíthatóság foka
    • 4.2 Shannon: A valószínűségi feltételekben meghatározott információk
    • 4.3 Solomonoff, Kolmogorov, Chaitin: Információ, mint egy program hossza
  • 5. Szisztematikus megfontolások

    • 5.1 Az információfilozófia mint a matematika filozófiájának kiterjesztése

      • 5.1.1 Az információ mint természeti jelenség
      • 5.1.2 Szimbólumok kezelése és kiterjeszthetősége: halmazok, csoportok és karakterláncok
      • 5.1.3 Beállítások és számok
      • 5.1.4 Információ mérése számokban
      • 5.1.5 Információ és valószínűségek mérése számsorokban
      • 5.1.6 Az egyesülési kilátások
      • 5.1.7 Információfeldolgozás és információáramlás
      • 5.1.8 Információ, prímumok és tényezők
      • 5.1.9 A számtani hiányosság
    • 5.2 Információ és szimbolikus számítás

      • 5.2.1 Turing gépek
      • 5.2.2 Univerzitás és invariancia
    • 5.3 Kvantuminformáció és azon túl
  • 6. Anomáliák, paradoxonok és problémák

    • 6.1 A szisztematikus keresés paradoxona
    • 6.2 Hatékony keresés a véges készletekben
    • 6.3 A P és az NP probléma, leíró komplexitás és időbeli komplexitás
    • 6.4 Modell kiválasztása és az adatok tömörítése
    • 6.5. Determinizmus és termodinamika
    • 6.6 Logikai és szemantikai információk
    • 6.7 Jelentés és számítás
  • 7. Következtetés
  • Bibliográfia
  • Tudományos eszközök
  • Egyéb internetes források
  • Kapcsolódó bejegyzések

1. Információk nyelvbeszéd formájában

A pontosság hiánya és az „információ” kifejezés egyetemes hasznossága kéz a kézben jár. Társadalmunkban, amelyben egyre növekvő bonyolultságú eszközökkel és felszerelésekkel (távcsövek, ciklotronok) fedezzük fel a valóságot, és fejlettebb médiákon (újságok, rádió, televízió, SMS, internet) keresztül kommunikáljunk, hasznos egy absztrakt tömeges főnév a „cucc” számára, amelyet az eszközök hoznak létre, és amely „átfolyik” ezeken a médiumokon keresztül. A történelmileg ez az általános jelentés meglehetősen későn jelent meg, és úgy tűnik, hogy kapcsolódik a tömegtájékoztatási és hírszerző ügynökségek megjelenésének (Devlin & Rosenberg 2008; Adriaans & van Benthem 2008b).

A jelen köznyelvi beszédben az információ kifejezést különféle lazán definiált és gyakran ellentmondásos módon használják. A legtöbb ember például a következő következtetéseket prima facie érvényesnek tartja:

Ha kapok információt, amely p, akkor tudom, hogy p.

Ugyanazoknak az embereknek valószínűleg nem lenne problémája az állítással, miszerint a „titkosszolgálatok időnként hamis információkat terjesztnek”, vagy a mondattal: „A baleset tanúinak által nyújtott információk homályosak és ellentmondásosak”. Az első állítás azt sugallja, hogy az információ szükségszerűen igaz, míg a többi állítás lehetővé teszi annak lehetőségét, hogy az információ hamis, ellentmondásos és homályos. A mindennapi kommunikációban ezek az ellentmondások nem tűnnek nagy problémát okozónak, és általában a pragmatikus összefüggésekből következik, hogy milyen típusú információt jelölnek meg. Ezek a példák elegendőek ahhoz, hogy azt állítsák, hogy az angol nyelv beszélõi intuíciónkra való utalások kevés segítséget nyújtanak az információ szigorú filozófiai elméletének kidolgozásában. Úgy tűnik, hogy a mindennapi kommunikációban nincs gyakorlati nyomás az információ fogalmának pontosabb meghatározásához való közelítéshez.

2. A kifejezés története és az információ fogalma

A huszadik század második feléig szinte egyetlen modern filozófus sem tartotta az információt fontos filozófiai koncepciónak. A kifejezésnek nincs lemma az Edwards (1967) ismert enciklopédia formájában, és Windelband (1903) nem említi. Ebben az összefüggésben az „Információs Filozófia” iránti érdeklődés egy közelmúltbeli fejlemény. Ugyanakkor, az elképzelések története szempontjából utólag látva, az „információ” fogalmának megfontolása volt a meghatározó téma a filozófia történetében. A történelem rekonstrukciója releváns az információk tanulmányozása szempontjából.

Bármely „ötlettörténet” megközelítés problémája az alapul szolgáló feltételezés validálása, miszerint a vizsgált koncepció valóban folytonosságot mutat a filozófia történetében. Az információ történelmi elemzése esetén feltehetõ a kérdés, hogy az „információ” fogalmának, amelyet Augustine tárgyalt, van-e valamilyen összefüggése a Shannon-információkkal, kivéve a kifejezések hasonlóságát. Ugyanakkor feltehetõ a kérdés, vajon Locke „történelmi, egyértelmû módszere” jelentõsen hozzájárul-e a modern információfogalom kialakulásához, bár Locke írásaiban technikai értelemben alig használja az „információ” kifejezést. Mint az alább látható, van egy olyan ötletek konglomerációja, amely magában foglalja az információ fogalmát, amely az ókorból a legutóbbi időkig fejlődött ki, de az információ fogalmának történetét tovább kell tanulmányozni.

A tudás korai filozófiai elemzésének fontos visszatérő témája a viaszdarab manipulációjának paradigma: akár egyszerűen deformálva, akár egy jelzőgyűrűt benyomva rajta, vagy karaktereket írva rajta. Az a tény, hogy a viasz különböző formájú és másodlagos tulajdonságokkal rendelkezik (hőmérséklet, illat, tapintás), míg a térfogat (kiterjesztés) változatlan marad, gazdag analógiák forrássá teszi, természetes a görög, a római és a középkori kultúrában, ahol a viaszt egyaránt használják szobrászathoz, íráshoz (viasztabletták) és metszetesek festéséhez. Ezt a témát olyan sokféle író írja le, mint Democritus, Platón, Arisztotelész, Theophrastus, Cicero, Augustine, Avicenna, Duns Scotus, Aquinas, Descartes és Locke.

2.1 Klasszikus filozófia

A klasszikus filozófiában az „információ” olyan tudáselmélettel és ontológiával kapcsolatos technikai fogalom volt, amely Platón (427–347 BCE) alaki elméletéből származik, és amelyet számos párbeszédében fejlesztettek ki (Phaedo, Phaedrus, Symposium, Timaeus, Republic).. A fizikai világ különféle tökéletlen lóit lovaknak lehetne azonosítani, mert részt vettek az „érzékenység” statikus atemporal és térbeli gondolatában az ötletek vagy formák világában. Amikor a későbbi szerzők, például Cicero (106–43) és Augustine (354–430 CE) megvitatták a latin latin fogalmakat, az informare és informatio kifejezéseket fordításként használták olyan műszaki görög kifejezésekre, mint az eidos (lényeg), ötlet (ötlet), typos (típus), morphe (forma) és prolepsis (reprezentáció). A „forma” gyökér még mindig felismerhető az in-form-tion szóban (Capurro és Hjørland 2003). Platón alaki elmélete kísérletet tett különböző filozófiai problémák megoldásának megfogalmazására: a formaelmélet közvetíti a statikus (Parmenides, kb. 450 éve) és a dinamikus (Herakleitos, kb. 535–475) valóság ontológiai felfogását. modellt kínál az emberi tudás elméletének tanulmányozására. Theophrastus (Kr. E. 371–287) szerint a viasztabletta analógiája visszavezethető a Democritos-ra (kb. 460–380 / 370 Kr. E.) (De Sensibus 50). A Theaetetusban (191c, d) Plato összehasonlítja az emlékezetünk működését egy viasztablettával, amelyben észleléseinket és gondolatainkat úgy nyomtatjuk be, mint egy jelzőtábla gyűrű, amely viaszban lenyomva tartja. Vegye figyelembe, hogy a szimbólumok viaszban történő nyomtatásának metafora alapvetően térbeli (kiterjedt), és nem könnyű összeegyeztethető a Platón által támogatott ötletek térbeli értelmezésével.

Akkor kap képet arról, hogy a „forma” fogalma milyen szerepet játszik a klasszikus módszertanban, ha figyelembe vesszük Arisztotelész (384–322 BCE) doktrínáját a négy okból. Az arisztoteliánus módszertanban egy objektum megértése azt jelentette, hogy megértjük annak négy különböző aspektusát:

Anyag:: melynek jelenléte eredményeként valami alakul ki - pl. Egy szobor bronzja és egy pohara ezüstje, és az osztályok, amelyek ezeket tartalmazzák

Hivatalos ok:: a forma vagy mintázat; vagyis az alapvető képlet és az azt tartalmazó osztályok, például a 2: 1 arány és a szám általában az oktáv oka és a képlet részei.

Hatékony ok:: a változás vagy pihenés első kezdete; Pl. az az ember, aki tervezi, oka, az apa az oka a gyermeknek, és általában az, ami termel, az oka annak, ami megtermelt, és ami megváltozik, ami megváltozik.

Végső ok: ugyanaz, mint a „vége”; azaz a végső ok; Pl. mivel a séta „vége” az egészség. Miért jár egy ember? Azt mondjuk, „egészségesnek lenni”, és ezt mondva úgy gondoljuk, hogy megtettük az okot. (Arisztotelész, Metafizika 1013a)

Ne feledje, hogy Arisztotelész, aki elutasítja Platón elméletét a formák mint atemporal aszpatikus entitások részéről, továbbra is a „formát” használja technikai koncepcióként. Ez a rész azt állítja, hogy az objektum formájának vagy szerkezetének, azaz az információknak a megismerése szükséges feltétel annak megértéséhez. Ebben az értelemben az információ a klasszikus episztemológia kritikus eleme.

Az a tény, hogy a 2: 1 arányt példaként említik, szintén szemlélteti a formák fogalma és az ötlet közötti szoros kapcsolatot, amely szerint a világot matematikai alapelvek irányították. Platón azt hitte, hogy egy régebbi pitagorasi (Pythagoras 572 – körülbelül 500 BC) hagyomány befolyása alatt áll, hogy „mindent, ami a világban megjelenik és történik” számokkal lehet mérni (Politicus 285a). Arisztotelész több alkalommal megemlíti azt a tényt, hogy Platón az ötleteket a számokkal társította (Vogel 1968: 139). Noha az információkkal kapcsolatos formális matematikai elméletek csak a huszadik században merültek fel, és vigyázni kell arra, hogy a szám görög fogalmát semmilyen modern értelemben nem értelmezzük, az a gondolat, hogy az információ alapvetően matematikai fogalom volt, a klasszikus filozófián nyúlik vissza:az entitás formáját szerkezetként vagy mintázatként fogalmazták meg, amelyet numerikusan lehet leírni. Egy ilyen formanak ontológiai és episztemológiai aspektusa is van: megmagyarázza a tárgy lényegét és érthetőségét. Az információ fogalmát tehát a filozófiai gondolkodás kezdete óta már összekapcsolták az episztemológia, az ontológia és a matematika fogalmával.

Két alapvető probléma, amelyet a klasszikus ötletek vagy formák elmélete nem magyaráz meg: 1) a tárgy ismerete (azaz ha lót látok, milyen módon aktiválódik a fejemben egy ló gondolata) és 2) a gondolkodás mint az ötletek manipulációjának folyamata. Arisztotelész ezeket a kérdéseket a De Anime-ban kezeli, felidézve a jelzőgyűrű-benyomás-a-viaszban analógiát:

A „értelemben” azt értjük, aminek van hatalma a dolgok nélkül elfogadni a dolgok ésszerű formáit. Ezt úgy kell elképzelni, hogy úgy történik, ahogyan egy viaszdarab vas- vagy arany nélküli jelzőgyűrű hatására hat; azt mondjuk, hogy a benyomást a bronz vagy az arany jelképezi, de az adott fémes szerkezete nincs különbség: hasonlóképpen az értelemben befolyásolja az is, hogy mi színes, ízléses vagy hangzó, de közömbös, hogy az egyes esetekben mi a anyag; egyedül az számít, milyen minőségű, azaz hogy milyen arányban vannak összetevői kombinálva. (De Anime, II. Könyv, 12. fejezet)

Még nem oldottuk meg a közös elemmel kapcsolatos interakció nehézségeit, amikor azt mondtuk, hogy az elme bizonyos értelemben potenciálisan bármi megfontolható, bár valójában semmi, amíg nem gondolja? Amit gondol, ennek benne kell lennie, ugyanúgy, mint a karakterekről azt mondhatják, hogy egy íróasztalon vannak, amelyen még senki sem áll írva: pontosan ez történik az elmével. (De Anime, III. Könyv, 4. fejezet)

Ezek a részek gazdag befolyásoló ötletekkel gazdagodnak, és utólagosan programozhatók az információfilozófia szempontjából: az információs folyamat úgy értelmezhető, mint a karakterek benyomása a viasztablettára (tabula rasa), a gondolkodás a manipuláció szempontjából elemezhető. szimbólumok.

2.2 Középkori filozófia

A középkorban az informatio fogalmának gondolkodását az egymást követő gondolkodók veszik át. Az arisztotelészi befolyás szemlélteti Augustine részét a De Trinitate XI. Könyvben. Itt elemzi a látást, mint a Szentháromság megértésének analógiáját. Három szempont van: a testi világ a külvilágban, az információ a látás értelme alapján, és az ebből eredő forma az elmében. Az információ folyamatához Augustine egy jelző gyűrű képét használja, amely benyomást kelt a viaszban (De Trinitate, XI Cap 2 par 3). Capurro (2009) megjegyzi, hogy ez az elemzés a modern információelméletben az „üzenet küldésének” technikai koncepciójának korai verziójaként értelmezhető, ám az ötlet régebbi, és a görög gondolkodás általános témája (Plato Theaetetus 191c, d; Aristotelész De Anime, II. Könyv, 12. fejezet, III. Könyv, 4. fejezet;Theophrastus De Sensibus 50).

A tabula rasa fogalmat később továbbfejlesztették Avicenna tudásának elméletében (kb. 980–1037):

Az emberi intellektus születésekor inkább egy tabula rasa, mint egy tiszta potenciál, amely az oktatás révén aktualizálódik és megismerkedik. A tudást a világ tárgyainak empirikus ismerete révén érik el, amelyekből az univerzális fogalmak szerepelnek. (Sajjad 2006 [Egyéb internetes források [a továbbiakban: OIR]))

Az emberi elme tabula rasa fejlődésének gondolata az Ibn Tufail arab andalúz filozófus Hayy ibn Yaqdhan regénye (1105–1185 CE, Nyugaton „Abubacer” vagy „Ebn Tophail” néven ismert). Ez a regény egy elhagyott szigeten elkülönített gyermek fejlődését írja le. A későbbi latin fordítás Philosophus Autodidactus cím alatt (1761) befolyásolta az empirikus John Locke-t tabula rasa doktrína megfogalmazásában.

A teológia és a filozófia közötti állandó kreatív feszültségen kívül a középkori gondolkodás - az Arisztotelész metafizikájának újból felfedezése után a tizenkettedik században, az arab tudósok ihlette - jellemezhető, főként arisztotelészi klasszikus elmélet kifinomult és finom értelmezése és fejlesztéseként. Az információ fogalmának mérlegelését Avicenna hatására olyan gondolkodók veszik át, mint például Aquinas (1225–1274 CE) és Duns Scotus (1265 / 66–1308 CE). Amikor Aquinas azt a kérdést tárgyalja, hogy az angyalok kölcsönhatásba léphetnek-e az anyaggal, utal az arisztoteliánus hylomorfizmus doktrínájára (azaz arra az elméletre, hogy az anyag anyagból (hylo (fa), anyag) és formából (morphè) áll. Itt Aquinas fordítja ezt az anyag képződésére (informatio materiae) (Summa Theologiae, 1a 110 2; Capurro 2009). Duns Scotus technikai értelemben az információra hivatkozik, amikor Augustine látáselméletét tárgyalja a De Trinitate-ban, a XI Cap 2 par 3-ban (Duns Scotus, 1639, „Képzeljük el”, Ordinatio, I, d.3, 3. o.).

Az a feszültség, amely a klasszikus filozófiában már létezett a platonikus idealizmus (universalia ante res) és az arisztoteliás realizmus (universalia in rebus) között, visszatér az univerzálisok problémájaként: léteznek-e olyan univerzális tulajdonságok, mint az „emberiség” vagy a ló gondolata az egyénen kívül entitásokat, amelyek őket közvetítik? Az univerzálisok elutasításának összefüggésében Ockham (kb. 1287–1347) bemutatja közismert borotváját: az entitásokat nem szabad szaporodni szükségszerűen. Írásaik során Aquinas és Scotus technikai értelemben latin, informatio és informare kifejezéseket használnak, bár ezt a terminológiát Ockham nem használja.

2.3 Modern filozófia

Az információ fogalmának története a modern filozófiában bonyolult. Valószínűleg a tizennegyedik században kezdődött az „információ” kifejezés kialakulása a fejlődő európai nyelvekben az „oktatás” és a „kutatás” általános jelentése szerint. A Godefroy (1881) francia történelmi szótára az „információ” korai jelentéseként adja meg a cselekvést, az utasításokat, a szövegeket, a tudományt és a tehetségeket. A kifejezést kifejezetten a jogi vizsgálatokhoz is használták (Dictionnaire du Moyen Français (1330–1500) 2015). A köznyelvi használat miatt az „információ” kifejezés fokozatosan elveszíti asszociációját a „forma” fogalmával, és formális értelemben kevésbé jelenik meg a filozófiai szövegekben.

A középkor végén a társadalom és a tudomány alapvetően megváltozik (Hazard 1935; Ong 1958; Dijksterhuis 1986). Egy hosszú, összetett folyamatban a négy ok arisztotelészi módszertanát úgy alakítottuk át, hogy kiszolgálja a kísérleti tudomány igényeit:

  1. Az anyagi ok az anyag modern fogalmához fejlődött.
  2. A formális okot az űrben geometriai alakként értelmezték újra.
  3. A Hatékony Okot újraértelmezték, mint az anyag testek közötti közvetlen mechanikai kölcsönhatást.
  4. A végső okot mint tudományt elutasították. Emiatt Newton kortársainak nehézségeik voltak az elméletében a gravitációs erő fogalmával kapcsolatban. A gravitáció, mint a távoli fellépés a végső okok visszavezetésének tűnt.

Ebben a változó helyzetben a viasz-benyomás analógiáját újraértelmezik. Az információ modern fogalmának mint az egyszerű gondolatok halmazának vagy sorozatának felépítésének proto-változatát az empirikusok fejlesztették ki, de mivel az „információ” kifejezés technikai jelentése elveszik, ezt a tudáselméletet soha nem azonosítják új „információelmélet”.

Ennek a módszertani elmozdulásnak az a következménye, hogy tudományos szempontból csak azokat a jelenségeket lehet megvizsgálni, amelyek az anyagi testek közötti mechanikus kölcsönhatásokkal magyarázhatók. Ez modern értelemben magában foglalja: az intenzív tulajdonságok redukálhatóságát mérhető kiterjedt tulajdonságokra. A Galileo számára ez a betekintés programozott:

Az ízek, szagok és hangok izgatására úgy gondolom, hogy a külső testekben nem szükséges semmi, kivéve a formákat, számokat és a lassú vagy gyors mozgásokat. (Galileo 1623 [1960: 276])

Ezek a felismerések később vezettek az elsődleges tulajdonságok (tér, alak, sebesség) és a másodlagos tulajdonságok (hő, íz, szín stb.) Közötti különbség doktrínájához. Az információfilozófia szempontjából különösen fontosak a Galileo megfigyelései a „hő” másodlagos minőségéről, mivel ezek megalapozzák a termodinamika tanulmányozását a XIX. Században:

Miután megmutattam, hogy sok olyan érzésnek, amelyről feltételezik, hogy a külső tárgyakban rejlő tulajdonságok vannak, nincs bennünk valódi létezés, kivéve a bennünket, és kívülünk csupán pusztán nevek vannak, most azt mondom, hogy hajlamosak vagyok azt hinni, hogy ez a karakter hő. Azok az anyagok, amelyek hőt termelnek bennünk és melegséget ébresztnek bennünket, amelyeket „tűz” általános néven ismertek, akkor sok olyan perc részecske lenne, amelyek bizonyos alakúak és bizonyos sebességgel mozognak. (Galileo 1623 [1960: 277])

Ebben az átalakulásban kulcsfontosságú gondolkodó René Descartes (1596–1650 CE). Meditációiban, miután „bizonyítottam”, hogy az anyag (res extensa) és az elme (res cogitans) különféle anyagok (azaz a független létezés formái), kérdés lesz az ezen anyagok közötti kölcsönhatás kérdése. A viasz képlékenysége Descartes számára egyértelmû érv a res extenzák res cogitánokra gyakorolt hatása ellen (Meditációk II, 15). Az a tény, hogy egy viaszdarab hevítéskor könnyen elveszíti formáját és más tulajdonságait, azt jelenti, hogy az érzékek nem alkalmasak a tárgyak azonosítására a világon. A valódi tudás tehát csak „az elme ellenőrzésével” érhető el. Itt a viasz metafora, amelyet az érzékszervi benyomás magyarázata céljából több mint 1500 éve használnak, azzal érvel, hogy az érzéken keresztül tudást tudunk elérni. Mivel a res extensa lényege a kiterjesztés, a gondolkodás alapvetően nem érthető térbeli folyamatként. Descartes továbbra is használja a „forma” és az „ötlet” kifejezéseket az eredeti tudományos, nem geometriai (atemporális, térbeli) értelemben. Példa erre Isten létezésének rövid hivatalos bizonyítéka, a Mersenne-nek adott második válaszban a Meditáció de Prima FilozófiábanPélda erre Isten létezésének rövid hivatalos bizonyítéka, a Mersenne-nek adott második válaszban a Meditáció de Prima FilozófiábanPélda erre Isten létezésének rövid hivatalos bizonyítéka, a Mersenne-nek adott második válaszban a Meditáció de Prima Filozófiában

Az ötlet kifejezéssel bármilyen gondolat formájára utalok, amelynek azonnali észlelése felhívja a figyelmet a gondolatra.

(Idea nominális intelligens cujuslibet cogitationis formam illam, per cujus közvetlen észlelés ipsius ejusdem cogitationis tudatos összeg)

„Ötleteknek” hívom őket, mondja Descartes

csak annyiban, ha megváltoztatják az elmét, amikor tájékoztatják az agy ezen részét.

(sed tantum quatenus mentem ipsam in illam cerebri partem conversam informator). (Descartes, 1641, Ad Secundas kifogások, indokok, egzisztenciák és anime megkülönböztető probandok, több geometriai diszpozitáció.)

Mivel a res extens és a res cogitans különféle anyagok, a gondolkodás cselekedete soha nem emulálható az űrben: a gépeknek nem lehet az egyetemes oka. Descartes két külön motivációt ad:

Ezek közül az egyik az, hogy soha nem használhatnának szavakat vagy más jeleket, amelyek úgy vannak elrendezve, hogy nekünk kompetensek legyenek, hogy másoknak kijelentjük gondolataikat: (…) A második teszt az, hogy bár ezek a gépek sok dolgot végrehajthatnak a azonos vagy talán nagyobb tökéletességgel, mint bármelyikünknél, kétségtelenül bizonyos másokban is kudarcot vallnak, amelyekből kiderül, hogy nem tudásból, hanem kizárólag a szervük diszpozíciójából cselekszenek: ugyanakkor az ok egyetemes eszköz ami minden alkalommal egyaránt elérhető, ezeknek a szerveknek éppen ellenkezőleg, minden egyes fellépéshez külön elrendezésre van szükség; erkölcsileg lehetetlennek kell lennie, hogy bármilyen gépen létezzen olyan szervek sokfélesége, amely elegendő ahhoz, hogy az élet minden eseményében képes legyen működni, úgy, ahogyan okaink lehetővé teszik számunkra.(Discourse de la méthode, 1647)

Ez a rész releváns, mivel közvetlenül vitatja a mesterséges intelligencia lehetőségét, és akár úgy is értelmezhető, hogy az egyetemes Turing-gép ellen szól: az ész, mint egyetemes eszköz, soha nem emulálható az űrben. Ez a koncepció ellentétben áll az információ modern fogalmával, amely mérhető mennyiségként alapvetően térbeli, azaz kiterjedt (de bizonyos értelemben eltér a Descartes-től).

Descartes nem ismerteti a forma és az ötlet fogalmainak új értelmezését, de megteremti a helyet az ötlet természetének vitájához, amely két ellentétes helyzet körül alakul:

Racionalizmus: a derékszögű felfogás, miszerint az ötletek veleszületettek, tehát a priori. A racionalizmusnak ez a formája az ötletek és formák fogalmának értelmezését vonja maga után, térbeli, de összetett struktúrákként, azaz a „ló” (azaz fej, test és lábak) gondolatát. Jól összeegyeztethető a megismerő személy létrehozott lény (ens creatu) értelmezésével is. Isten az embert saját imázsának alapján teremtette meg, és így megfelelő ötletekkel látta el az emberi elmét az alkotásának megértéséhez. Ebben az elméletnövekedésben a tudás priori korlátozott. Új ötletek ex nihilo alkotása lehetetlen. Ezt a nézetet nehéz összeegyeztetni a kísérleti tudomány fogalmával.

Empirizmus: A fogalmakat utólagosan az elmékben az érzékszervi benyomásokkal kapcsolatos ötletek alapján építik fel. Ez a tantárgy az ötlet fogalmának új értelmezését vonja maga után:

bármi is a megértés tárgya, amikor egy ember gondolkodik … bármit is jelent fantázia, fogalom, faj vagy bármi más, amire az elme képes gondolkodni. (Locke 1689, bk I., 1. fejezet, 8. bekezdés)

Itt az ötleteket az emberi ismeretek és reflexiók elemi építőelemeinek tekintik. Ez jól illeszkedik a kísérleti tudomány igényeihez. A hátránya, hogy az elme soha nem tud megfogalmazni apodeiktikus igazságokat az okról és a következményekről, valamint a megfigyelt entitások lényegéről, beleértve saját identitását. Az emberi tudás alapvetően valószínűségessé válik (Locke 1689: I. bk, 4. fejezet, 25. bekezdés).

Locke újraértelmezi az elképzelés mint „szerkezeti helyőrző” fogalmát a tudatban lévő bármely entitás számára, és elengedhetetlen lépés az információ modern koncepciójának megjelenésében. Mivel ezek az ötletek nem vesznek részt az apodeiktikus tudás igazolásában, eltűnik az ötletek atemporal és aszpatikus jellegének hangsúlyozásának szükségessége. Az érzelmi tapasztalaton alapuló elemi ötletek gyűjteménye alapján felépített koncepciók megnyitják a kaput a tudás mint ügynök kiterjedt tulajdonságainak rekonstruálásához: több ötlet valószínűbb tudást jelent.

A tizenhetedik század második felében a valószínűség formális elméletét olyan kutatók fejlesztették ki, mint Pascal (1623–1662), Fermat (1601 vagy 1606–1665) és Christiaan Huygens (1629–1695). A De ratiociniis in Huudogen ludo aleae című munkát angolul fordította John Arbuthnot (1692). Ezeknek a szerzőknek a világ lényegében mechanikus és tehát determinisztikus volt, a valószínűség az emberi tudás egy olyan színvonala, amelyet annak tökéletlensége okozott:

Lehetetlen, hogy egy ilyen határozott erővel és irányú Die leesjen az ilyen határozott oldalra, csak nem ismerem azt az erőt és irányt, amely miatt az ilyen határozott oldalra esik, és ezért én nevezze véletlennek, amely csak a művészet vágya;… (John Arbuthnot a véletlen törvényekről (1692), előszó)

Ez a szöveg valószínűleg befolyásolta Hume-t, aki először feleségül vette a formális valószínűség elméletet a tudás elméletével:

Bár a világon nincs olyan, mint a véletlen; bármely esemény valódi okának tudatlansága ugyanolyan mértékben befolyásolja a megértést, és hasonló hitet vagy véleményt alkot. (…) Ha egy festék négy oldalán egy számmal vagy foltok számával, a másik két oldalán pedig egy másik számmal vagy folttal van megjelölve, akkor valószínűbb, hogy az előbbi felbukkan, mint az utóbbi; ugyanakkor, ha ezer oldala azonos módon meg van jelölve, és csak az egyik oldala különbözik egymástól, a valószínűség sokkal nagyobb lesz, és az eseményről alkotott hitünk vagy elvárásaink szilárdabb és biztonságosabb. A gondolat vagy az érvelés ez a folyamata triviálisnak és nyilvánvalónak tűnhet; de azoknak, akik ezt szűkebben veszik figyelembe, ez valószínűleg engedheti meg magának a kíváncsi spekulációt. (Hume 1748: VI. Szakasz, „A valószínűségről” 1)

Itt a jövőre, mint a hit fokára vonatkozó ismereteket valószínűséggel mérjük, amelyet viszont a konfigurációk számával magyarázhatunk, amelyek egy világ determinisztikus rendszerének lehetnek. A modern információelmélet alapvető elemei a helyén vannak. Az ismeretek ezen új koncepciójával az empirikusok megteremtették az alapot a termodinamika későbbi fejlődéséhez, mint a hő másodlagos minőségének a test elsődleges tulajdonságaira való csökkentéseként.

Ugyanakkor az „információ” kifejezés úgy tűnik, hogy nagyrészt elvesztette technikai jelentőségét az empirikusok írásaiban, így ezt az új fejleményt nem nevezik az „információ” fogalmának új értelmezésének. Locke néha azt a kifejezést használja, hogy érzékeink „tájékoztatnak” minket a világról, és alkalmanként az „információ” szót használja.

Milyen információ, milyen tudás hordozza ezt a javaslatot, azaz. „A ólom egy fém” egy ember számára, aki ismeri azt az összetett elképzelést, amelyre a név vezet? (Locke 1689: IV. Bk, 8. fejezet, 4. bekezdés)

Úgy tűnik, hogy Hume ugyanolyan hétköznapi módon használja az információkat, amikor megfigyeli:

Két tárgy, bár tökéletesen hasonlít egymásra, és ugyanabban a helyen jelenik meg különböző időpontokban, numerikusan is eltérő lehet: És mivel az erő, amely által az egyik tárgy egy másikot állít elő, soha nem fedezhető fel pusztán ötleteikből, nyilvánvaló ok és A hatás olyan kapcsolatok, amelyekről a tapasztalatból nyerünk információt, nem pedig absztrakt érvelésből vagy reflexióból. (Hume 1739: III. Rész, 1. szakasz)

Az empirikus módszertan nem problémamentes. A legnagyobb probléma az, hogy minden tudás valószínűségi és utólagos. Immanuel Kant (1724–1804) volt az egyik első, aki rámutatott, hogy az emberi elme megragadja a tér, az idő és az okozati összefüggések metakoncepcióit, amelyeket önmagában soha nem lehet megérteni az „ötletek” puszta kombinációjának eredményeként. Ráadásul ezek az intuíciók lehetővé teszik a tudományos betekintés megfogalmazását bizonyossággal: azaz az a tény, hogy egy háromszög szögeinek összege az euklideszi térben 180 fok. Ez a kérdés nem magyarázható az empirikus keretek között. Ha a tudást ötletek kombinációjával hozzák létre, akkor az emberi elmeben léteznie kell az ötleteknek a priori szintézisére. Kant szerint ez azt jelenti, hogy az emberi elme képes felmérni saját képességét a tudományos ítéletek megfogalmazására. Kritik der reinen Vernunft-ben (1781) Kant transzcendentális filozófiáját fejlesztette ki az emberi tudás szükséges feltételeinek vizsgálataként. Bár Kant transzcendentális programja közvetlenül nem járult hozzá az információ fogalmának kialakulásához, befolyásolta a kutatást a matematika és a tudomány e témában releváns tudás alapjaiban a tizenkilencedik és huszadik században: például Frege, Husserl, Russell munkája., Brouwer, L. Wittgenstein, Gödel, Carnap, Popper és Quine.befolyásolta a kutatást a matematika és a tudomány alapjaira a tizenkilencedik és huszadik században: pl. Frege, Husserl, Russell, Brouwer, L. Wittgenstein, Gödel, Carnap, Popper és Quine munkája.befolyásolta a kutatást a matematika és a tudomány alapjaira a tizenkilencedik és huszadik században: pl. Frege, Husserl, Russell, Brouwer, L. Wittgenstein, Gödel, Carnap, Popper és Quine munkája.

2.4 Az „információ” kifejezés jelentésének történelmi fejlődése

Az „információ” fogalma szorosan összefügg a nyugati filozófia epistemológiájának és ontológiájának központi problémáival. Miután a klasszikus és a középkori szövegekben technikai kifejezésként kezdetét vették, az „információ” fogalma szinte eltűnt a modern filozófia filozófiai diskurzusából, de népszerűvé vált a köznyelvi beszédben. Fokozatosan a kifejezés elvont tömeges főnév státuszt szerzett, azaz a klasszikus folyamatorientált jelentésre merőleges jelentés. Ebben a formában a XX. Században több kutató (Fisher 1925; Shannon 1948) választotta ki, akik hivatalos módszereket vezettek be az „információ” mérésére. Ez viszont az információ fogalmához fűződő filozófiai érdeklődés újjáéledését eredményezi. Ez a bonyolult történelem úgy tűnik, hogy az egyik fő oka annak, hogy nehéz-e megfogalmazni egy olyan információ egységes fogalmát, amely kielégíti minden intuíciónkat. Az „információ” szó legalább három különböző jelentése releváns:

„Információ”, mint a tájékoztatás folyamata

Ez a legrégebbi jelentés, amelyet olyan szerzők írásaiban talál, mint Cicero (Kr. E. 106–43) és Augustine (354–430), és elveszik a modern diskurzusban, bár az információknak a folyamatokhoz való társulása (azaz számítás, áramlás vagy üzenet küldése) továbbra is fennáll. A klasszikus filozófiában azt lehet mondani, hogy amikor felismerem a ló mint ilyen, akkor a ló „formája” ül fel a fejemben. Ez a folyamat az én „információm” a ló természetéről. A tanítási cselekményt is lehetne utalni egy tanuló „információjára”. Ugyanebben az értelemben azt lehet mondani, hogy a szobrász egy szobor márványdarabjának „tájékoztatásával” készít szobrokat. A szobrász feladata a szobor „információja” (Capurro & Hjørland 2003). Ez a folyamatorientált jelentés elég hosszú ideig fennmaradt a nyugat-európai diskurzusban:Robinson Crusoe még a tizennyolcadik században is hivatkozhatott szolgája oktatására, mint „információjára” (Defoe 1719: 261). Ebben az értelemben Berkeley is használja: „Szeretem az információkat minden olyan témáról, amelyem az én úton jár, és különösen azokról, amelyek a legfontosabbak” (Alciphron Dialogue 1, 5. szakasz, 6/10 bekezdés, lásd Berkeley 1732).

„Információ” mint ügynök állapota

azaz a tájékoztatás folyamatának eredményeként. Ha valaki megtanítja a tanulóknak a Pitagorasz tételét, akkor a folyamat befejezése után azt mondhatják, hogy a hallgató „rendelkezik információkkal a Pitagorasz tételéről”. Ebben az értelemben az „információ” kifejezés az ige (informare (gt) informatio) ugyanazon gyanús formájának eredménye, mint sok más filozófiai kifejezés (anyag, tudat, tárgy, tárgy). Ez a fajta kifejezésképzés hírhedt az általa generált fogalmi nehézségek miatt. Lehetséges-e levezetni azt a tényt, hogy „tudatában vagyok” annak a ténynek, hogy tudatos vagyok? Lehetséges-e levezetni azt a tényt, hogy „rendelkezem” információval az a tény, hogy tájékoztatták? Úgy tűnik, hogy az átalakulás erre a modern igazolt jelentésre fokozatosan zajlik, és úgy tűnik, hogy Nyugat-Európában legalább a tizenötödik század közepétől általános. A reneszánszban a tudós „információ emberének” nevezhető, nagyjából ugyanúgy, ahogyan azt mondhatjuk, hogy valaki oktatást kapott (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). Jane Austen „Emma” című részében olvasható: „Mr. Azt hiszem, Martin nem a saját vállalkozásán túlmutató információs ember. Ő nem olvassa”(Austen 1815: 21).nagyjából ugyanúgy, ahogy most azt mondhatjuk, hogy valaki oktatást kapott (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). Jane Austen „Emma” című részében olvasható: „Mr. Azt hiszem, Martin nem a saját vállalkozásán túlmutató információs ember. Ő nem olvassa”(Austen 1815: 21).nagyjából ugyanúgy, ahogy most azt mondhatjuk, hogy valaki oktatást kapott (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). Jane Austen „Emma” című részében olvasható: „Mr. Azt hiszem, Martin nem a saját vállalkozásán túlmutató információs ember. Ő nem olvassa”(Austen 1815: 21).

„Információ” mint információszolgáltatás

azaz mint egy objektum képessége az ügynök tájékoztatására. Amikor a Pythagoras-tétel nekem tanítása cselekszik engem erről a tételről, természetesen feltételezni, hogy egy szöveg, amelyben a tételt magyarázzuk, valójában „tartalmazza” ezt az információt. A szöveg képes tájékoztatni engem, amikor elolvastam. Ugyanebben az értelemben, amikor információkat kapott egy tanártól, képesek vagyok továbbítani ezeket az információkat egy másik hallgató számára. Így az információ valami tárolhatóvá és mérhetővé válik. Az információ, mint elvont tömegnév fogalmának ez az utolsó fogalma széles körben elfogadottá vált a modern társadalomban, és a XIX. Században találta meg végleges formáját, lehetővé téve Sherlock Homes számára, hogy a következő megfigyelést tegye:„… Lestrade barátja olyan információt tartott a kezében, amelynek értékét ő maga nem ismerte” („A nemes agglegény kalandja”, Conan Doyle 1892). Az a kapcsolat a technikai filozófiai fogalmakkal, mint például a „forma” és az „informálás”, eltűnt az általános tudatosságból, bár az információ és a folyamatok, például a tárolás, összegyűjtés, számítás és oktatás között továbbra is fennáll a kapcsolat.

3. A modern információelméletek építőelemei

Az utólagos szemléltetés során számos fogalom, amely az optimális kódrendszerekkel, az ideális nyelvekkel, valamint a számítás és a feldolgozás nyelvének asszociációjával jár a filozófiai reflexióban, a hetedik század óta.

3.1 Nyelvek

Az egyetemes „filozófiai” nyelvre vonatkozó egyik legkifinomultabb javaslatot John Wilkins püspök készítette: „Esszé egy igazi karakter és filozófiai nyelv felé” (1668). Wilkins projekt egy olyan szimbólumok bonyolult rendszeréből állt, amelyek állítólag a valóságban egyértelmű fogalmakhoz kapcsolódtak. Az ilyen javaslatok miatt a filozófusok érzékenyek voltak a nyelv és a gondolat mély kapcsolataira. Az empirista módszertan lehetővé tette a nyelv fejlődését, mint a hagyományos jelek rendszerét, az emberi elme eszméi közötti asszociációk szempontjából. A szimbólumok alapjául szolgáló problémaként ismert kérdés (hogyan válnak az önkényes jelek inter-szubjektív jelentőségükhöz) a XVIII. Század egyik legsúlyosabban megvitatott kérdése a nyelvek származási problémájának összefüggésében. Különböző gondolkodók, mint Vico, Condillac, Rousseau, Diderot, Herder és Haman, közreműködtek. A központi kérdés az volt, hogy a nyelvet a priori (Isten által) adott-e, vagy építették-e, tehát maga az ember találmánya. Jellemző volt a Párizsi Királyi Tudományos Akadémia által 1769-ben kiadott verseny:

En supposant les hommes exitonnés à leurs facultés naturelles, kérjük, töltse le a feladványt? Et par quels moyens parviendront-ils d'eux-mêmes a találmány?

Feltételezve, hogy az emberek elhagyják a természetes képességeiket, képesek-e felfedezni a nyelvet, és miként fogják eljutni a találmányhoz? [1]

A vita több mint egy évszázadon keresztül végződött következtetés nélkül, és 1866-ban a párizsi nyelvi társaság (Société de Linguistique de Paris) kiürítette a kérdést arénájából. [2]

Filozófiai szempontból relevánsabb Leibniz (1646–1716) munkája az úgynevezett characteristica universalisról: egy univerzális logikai számítás fogalmáról, amely tökéletes eszköz a tudományos érveléshez. Leibniz filozófiájának központi előfeltevése, hogy a tudomány ilyen tökéletes nyelve elvileg lehetséges a világ tökéletes természete miatt, mint Isten teremtménye (arány essendi = ration cognoscendi, a lét eredete a tudás eredete). Ezt az elvet Wolff (1679–1754) visszautasította, aki heurisztikusabb orientációjú jellemzõ kombinációt javasolt (van Peursen 1987). Ezeknek az ötleteknek olyan gondolkodókra kellett várniuk, mint Boole (1854, A gondolkodás törvényének vizsgálata), Frege (1879, Begriffsschrift),Peirce (aki 1886-ban már javasolta, hogy az elektromos áramkörök felhasználhatók logikai műveletek feldolgozására), valamint Whitehead és Russell (1910–1913, Principia Mathematica), hogy eredményesebb kezelést találjanak.

3.2. Optimális kódok

A könyvnyomtatás feltalálása óta ismert volt az a tény, hogy a betűk gyakorisága egy nyelven változik. A nyomtatóknak sokkal több „e” és „t” -re volt szükségük, mint „x” vagy „q”, az angol szöveg beírásához. Ezt a tudást a tizenhetedik század óta széles körben használják a rejtjelek dekódolásához (Kahn 1967; Singh 1999). 1844-ben Samuel Morse asszisztense, Alfred Vail meghatározta a New Jersey-i Morristown helyi újságban használt betűk gyakoriságát, és optimalizálta őket. Így az optimális kódok elméletének lényege már jóval azelőtt kialakult, hogy Shannon kifejlesztette matematikai alapját (Shannon 1948; Shannon & Weaver 1949). Történelmileg fontos, ám filozófiai szempontból kevésbé releváns Charles Babbage erőfeszítései számítástechnikai gépek építésére (Difference Engine 1821,és az Analytical Engine 1834–1871) és Ada Lovelace (1815–1852) kísérlete megtervezni azt, amelyet az Analytical Engine első programozási nyelvének tekint.

3.3 Számok

A számok ábrázolásának legegyszerűbb módja egy egységes rendszer. Itt egy szám ábrázolásának hossza megegyezik magának a számnak a méretével, azaz a „tíz” számot „\\\\\\\\\\\” ábrázolja. A klasszikus római számrendszer továbbfejlesztés, mivel különféle szimbólumokat tartalmaz különféle nagyságrenddel (egy = I, tíz = X, száz = C, ezer = M). Ennek a rendszernek hatalmas hátrányai vannak, mivel elvileg végtelen számú szimbólumra van szükség a természetes számok kódolásához, és emiatt ugyanazok a matematikai műveletek (összeadás, szorzás stb.) Különböző formákon és nagyságrendben változnak. Körülbelül 500 CE körül a nullát találták ki Indiában. Nulla helyőrzőként a végtelen számot kódolhatjuk véges szimbólumkészlettel (egy = I, tíz = 10, száz = 100, ezer = 1000 stb.). Modern szemszögből végtelen számú pozíciórendszer lehetséges, mindaddig, amíg helyőrzőként 0 és véges számú más szimbólum van. Normál tizedes számrendszerünk tíz számjegyű, „0, 1, 2, 3, 4, 5, 6, 7, 8, 9”, és a kétszázötvenötöt számot „255” -ként jelöli. Bináris számrendszerben csak a „0” és az „1” szimbólumok vannak. Itt kétszázötvenöt képviselnek „11111111” -ként. Ha egy hexadecimális rendszerben 16 szimbólum van (0, 1, 2, 3, 4, 5, 6, 7, 8, 9, a, b, c, d, e, f), ugyanazt a számot lehet írni „ff” -ként.. Vegye figyelembe, hogy ezen ábrázolások hossza jelentősen eltér. Ennek a reprezentációnak a segítségével a matematikai műveleteket a szóban forgó számok nagyságrendjétől függetlenül szabványosíthatjuk, azaz a matematikai függvények egységes algoritmikus kezelésének lehetőségét (összeadás,kivonás, szorzás és osztás stb.) kapcsolódik egy ilyen pozíciórendszerhez.

A pozíciós számrendszer koncepcióját al-Khwarizmi perzsa matematikus hozta Európába (kb. 780–850 körül). A számokkal kapcsolatos fő munkáját (kb. 820 CE) latin nyelvre fordították Liber Algebrae és Almucabola formájában a tizenkettedik században, amely többek között az „algebra” kifejezést adott nekünk. Az „algoritmus” szó Algoritmi-ből származik, neve neve latin formájából. A pozicionális számrendszerek egyszerűsítették a kereskedelmi és tudományos számításokat.

1544-ben Michael Stifel bevezette a szám kitevőjének fogalmát az Arithmetica integra programban (1544). Így a 8 írható (2 ^ 3) és a 25 mint (5 ^ 2). Az exponens fogalma azonnal felveti a logaritmus fogalmát, mint annak inverz funkcióját: (log_b b ^ a) = a). Stifel összehasonlította a számtani sorrendet:

[-3, -2, -1, 0, 1, 2, 3)

amelyben az 1 kifejezésnek 1 különbsége van a geometriai sorrenddel:

) frac {1} {8}, / frac {1} {4}, / frac {1} {2}, 1, 2, 4, 8)

amelyben a kifejezések aránya 2. A kitevő jelölés lehetővé tette számára, hogy a második táblázat értékeit így írja át:

[2 ^ {- 3}, 2 ^ {- 2}, 2 ^ {- 1}, 2 ^ 0, 2 ^ 1, 2 ^ 2, 2 ^ 3)

amely ötvözi a két táblát. Ez vitathatatlanul az első logaritmikus táblázat. A logaritmus pontosabb és gyakorlati elméletét John Napier (1550–1617) fejtette ki fő munkájában (Napier 1614). Megalapította a logaritmus kifejezést (logók + számtani: számarány). Amint az a számtani és a geometriai progresszió egyezéséből kitűnik, a logaritmusok összegekre csökkentik a termékeket:

) log_b (xy) = / log_b (x) + / log_b (y))

Ezenkívül csökkentik a megosztást a különbségekre is:

) log_b (x / y) = / log_b (x) - / log_b (y))

és a termékekkel kapcsolatos hatáskörök:

) log_b (x ^ p) = p / log_b (x))

Miután Briggs (1624) közzétette a logaritmikus táblázatokat, az összetett számítások megkönnyítésére szolgáló új módszer gyorsan népszerűvé vált.

3.4 Fizika

Galileo (1623) már javasolta, hogy a jelenség, például a hő és a nyomás elemzését az elemi részecskék mozgásának tanulmányozására lehet redukálni. Az empirikus módszertanon belül ezt úgy lehet elképzelni, hogy hogyan lehet egy tárgy vagy gáz másodlagos hőjének szenzoros tapasztalatait a részecskék mozgására redukálni. Bernoulli (Hydrodynamica, 1738-ban jelent meg) volt az első, aki kifejlesztette a gázok kinetikai elméletét, amelyben a makroszkopikusan megfigyelhető jelenségeket olyan részecskék rendszerének mikrosztatikus állapotában írják le, amelyek betartják a newtoni mechanika törvényeit, de szellemi erőfeszítés volt ez a javaslat. megfelelő matematikai kezeléssel. Clausius (1850) meggyőző lépést tett, amikor bemutatta a részecske két ütközés közötti átlagos szabad útjának fogalmát. Ez megnyitotta az utat Maxwell statisztikai kezelésének, aki 1857-ben megfogalmazta eloszlását, amely volt a fizika első statisztikai törvénye. A végleges képletet, amely összekapcsolta az összes fogalmat (és amelyet sírkőbe gravíroztak, bár a tényleges képlet Plancknek köszönhető), Boltzmann fejlesztette ki:

[S = k / log W)

Leírja a rendszer S entrópiáját a lehetséges W mikrosztatikus állatok számának logaritmusa alapján, összhangban a rendszer megfigyelhető makroszkopikus állapotaival, ahol k a közismert Boltzmann-állandó. Ennek a képletnek a modern tudományban játszott értékét egyszerűségében aligha lehet túlbecsülni. Az „(log W)” kifejezés az információelmélet szempontjából különféleképpen értelmezhető:

  • Mint az entrópia mennyisége a rendszerben.
  • Mivel az összes lehetséges mikrosztatikus állapot megszámolásához szükséges szám hossza a makroszkopikus megfigyelésekkel összhangban van.
  • Mint egy optimális index hossza, meg kell határoznunk a rendszer aktuális ismeretlen mikrosztatját, azaz az információhiány mérőszámát jelenti.
  • A rendszer bármely tipikus specifikus mikrosztatikus állapotának valószínűségének mérésére szolgál, összhangban a makroszkopikus megfigyelésekkel.

Összekapcsolja tehát a logaritmus additív természetét az entrópia, valószínűség, jellemzőség és információ kiterjedt tulajdonságaival, és alapvető lépés a matematika alkalmazásában a természet elemzéséhez. Később Gibbs (1906) finomította a képletet:

[S = - / sum_i p_i / ln p_i,)

ahol (p_i) annak valószínűsége, hogy a rendszer a (i ^ { textrm {th}}) mikrotávban van. Ezt a képletet Shannon (1948; Shannon és Weaver 1949) fogadta el az üzenetrendszer kommunikációs entrópiájának jellemzésére. Noha az entrópia matematikai kezelése és az információ között szoros kapcsolat van, ennek a ténynek a pontos értelmezése azóta vitát váltott ki (Harremoës & Topsøe 2008; Bais & Farmer 2008).

4. Az információfilozófia fejlődése

A modern információelméletek a huszadik század közepén alakultak ki egy olyan szellemi légkörben, amelyben a tudományok és az akadémiai filozófia részei között nagy a távolság. Néhány filozófus sajátos tudományellenes magatartást mutatott ki: Heidegger, „Die Wissenschaft denkt nicht. Másrészt a Wiener Kreis filozófusai nyilvánvalóan diszkriminálták a hagyományos filozófiát, mintha illúziós problémákkal foglalkoznának (Carnap 1928). A logikai pozitivizmus kutatási programja a filozófia szigorú rekonstrukciója volt, amely az empirizmus és a logika közelmúltbeli fejlődésének kombinációján alapult. Valószínűleg ennek az intellektuális légkörnek köszönhetően zajlottak az információelmélet korai fontos fejleményei a fő filozófiai reflexiótól elkülönítve. A mérföldkő Dretske munkája a nyolcvanas évek elején (Dretske 1981). A századforduló óta jelentősen megnőtt az érdeklődés az információfilozófia iránt, nagyrészt Luciano Floridi szemantikai információs munkájának hatására. A kvantumszámítás gyors elméleti fejlődése és a kapcsolódó kvantuminformáció fogalma is hatással volt a filozófiai reflexióra.

4.1 Popper: Információ, mint a hamisíthatóság foka

A Wiener Kreis logikai pozitivizmusának kutatási programja a huszadik század első felében újraélesztette az empirizmus régi projektjét. Célja a tudományos ismeretek rekonstruálása volt közvetlen megfigyelések és az ezekkel a megfigyelésekkel kapcsolatos állítások közötti logikai kapcsolat alapján. Kant az empirizmusra vonatkozó régi kritikáját Quine (1951) élénkítette. A logikus pozitivizmus keretein belül az indukció érvénytelen volt, és az okozati összefüggést objektív módon soha nem lehetett megállapítani. Logik der Forschung-ban (1934) Popper megfogalmazza közismert elhatárolási kritériumát, és ezt kifejezetten Hume indukciós problémájának megoldására helyezi (Popper 1934 [1977: 42]). Az általános törvényekként megfogalmazott tudományos elméleteket soha nem lehet véglegesen igazolni, de csak egy megfigyeléssel hamisíthatók. Ez azt jelenti, hogy egy elmélet „több” tudományos, ha gazdagabb, és több lehetőséget nyújt a hamisításra:

Így elmondható, hogy egy elmélet által közvetített empirikus információ mennyisége, vagy annak empirikus tartalma növekszik a hamisíthatóság fokával. (Popper 1934 [1977: 113], kiemelés eredetileg)

Ez az idézet, Popper kutatási programjának összefüggésében, azt mutatja, hogy a tudományos elméletben logikai állításokként felfogott empirikus információ mennyiségének mérésére irányuló törekvés filozófiai problémának tekinthető már több mint egy évtizeddel ezelőtt, mielőtt Shannon megfogalmazta információelméletét.. Popper tudatában van annak a ténynek, hogy egy elmélet empirikus tartalma kapcsolódik annak hamisíthatóságához, és ez viszont kapcsolatban áll az elméletben szereplő állítások valószínűségével. Az empirikusabb információkkal rendelkező elméletek kevésbé valószínűek. Popper megkülönbözteti a logikai valószínűséget a numerikus valószínűségektől („amelyet a játékok és a véletlen elméletében és a statisztikában használnak; Popper 1934 [1977: 119]). Az információ fogalmának későbbi fejlesztésére programozó részben meghatározza a logikai valószínűség fogalmát:

Az állítás logikai valószínűsége kiegészíti annak hamisíthatóságát: növekszik a hamisíthatóság fokának csökkenésével. Az 1 logikai valószínűség megfelel a hamisítás 0 fokának és fordítva. (Popper 1934 [1977: 119], kiemelés eredetileg)

A numerikus valószínűség úgy értelmezhető, hogy egy olyan szekvenciára vonatkozik (amelyet a logikai valószínűségi viszonyból választunk ki), amelyre a frekvenciabecslések alapján meghatározható egy mérési rendszer. (Popper 1934 [1977: 119], kiemelés eredetileg)

Poppernek soha nem sikerült megfogalmaznia egy jó formális elméletet az információ mennyiségének mérésére, bár késõbbi írásaiban azt állítja, hogy Shannon információelmélete hasznos lehet (Popper 1934 [1977], 404 [IX. Függelék, 1954-tõl]). Ezeket a kérdéseket később a tudomány filozófiájában fejlesztették ki. A konformációs tanulmányok indukciós elmélete és annak módja, amellyel a bizonyítékok „alátámasztják” egy bizonyos elméletet (Huber 2007 [OIR]). Bár Carnap munkája a tudományos filozófia és az információfilozófia fontos fejleményeit motiválta, úgy tűnik, hogy a két tudományág közötti kapcsolat elveszett. Kuipers (2007a) nem említi az információelméletet vagy az információfilozófia megalapozottabb munkáját, ám a két tudományág minden bizonnyal átfedésben van. (Lásd például:az úgynevezett fekete holló paradoxonjának megbeszélése Kuipers (2007b) és Rathmanner & Hutter (2011) által.)

4.2 Shannon: A valószínűségi feltételekben meghatározott információk

Két mérföldkő dokumentumban Shannon (1948; Shannon és Weaver 1949) az A üzenetrendszer kommunikációs entrópiáját jellemezte:

[H (P) = - / sum_ {i / in A} p_i / log_2 p_i)

Itt (p_i) az i üzenet valószínűsége A-ban. Pontosan ez a formula a Gibb fizika entrópiájának. Az base-2 logaritmusok használata biztosítja, hogy a kódhossz bitben (bináris számjegyekben) legyen mérve. Könnyen belátható, hogy egy rendszer kommunikációs entrópiája akkor maximális, ha az összes üzenet valószínűsége egyenlő, és így tipikusak.

Az egyes x üzenetekben szereplő információmennyiséget az alábbiak adják:

[I (x) = - / log p_x)

Ez a képlet, amelyet a Boltzmann-entrópia inverzének lehet értelmezni, számos alapvető információ-intuíciót fed le:

  • Az x üzenet bizonyos valószínűséggel (p_x) 0 és 1 között fordul elő.
  • Ha (p_x = 1), akkor (I (x) = 0). Ha biztosak vagyunk benne, hogy üzenetet kapunk, akkor szó szerint nem tartalmaz „hírt”. Minél kisebb az üzenet valószínűsége, annál több információ van benne. Úgy tűnik, hogy egy olyan üzenet, mint a „A nap holnap felkel”, kevesebb információt tartalmaz, mint a „Jézus volt a császár” üzenet, mivel sokkal kevésbé valószínű, hogy a második állítást bárki megvédi (bár az interneten megtalálható).
  • Ha két x és y üzenet nem kapcsolódik egymáshoz, akkor (I (x / textrm {és} y) = I (x) + I (y)). Az információk széles körűek. Két kombinált üzenetben az információ mennyisége megegyezik az egyes üzenetekben szereplő információ mennyiségével.

Az információ, mint a valószínűség negatív naplója, az egyetlen matematikai függvény, amely pontosan teljesíti ezeket a korlátozásokat (Cover & Thomas 2006). Shannon elméleti keretet kínál, amelyben a bináris karakterláncok szavakként értelmezhetők (programozó) nyelven, amely bizonyos mennyiségű információt tartalmaz (lásd 3.1 Nyelvek). A (- / log p_x) kifejezés pontosan megadja az x üzenet optimális kódjának hosszát, és mint ilyen formalizálja a régi intuíciót, miszerint a kódok hatékonyabbak, ha a gyakori betűk rövidebb ábrázolást kapnak (lásd: 3.2. Optimális kódok). A logaritmusok, mint a szorzás csökkentése az összeadással (lásd a 3.3. Számot), a rendszerek kiterjedt tulajdonságainak természetes ábrázolása, és a fizikusok már a XIX. Században használták őket (lásd 3.4 Fizika).

Az információ egyik aspektusa, amelyet Shannon meghatározása kifejezetten nem fed le, az állításokként értelmezett üzenetek tényleges tartalma. Tehát a „Jézus császár volt” és „A hold zöld sajtból készült” állítás ugyanolyan mennyiségű információt hordozhat, bár jelentése teljesen eltérő. Az információfilozófia terén tett erőfeszítések nagy része az információ szemantikusabb elméleteinek megfogalmazására irányult (Bar-Hillel és Carnap 1953; Floridi 2002, 2003, 2011). Bár Shannon javaslatait a filozófusok eleinte szinte teljesen figyelmen kívül hagyták, az elmúlt évtizedekben nyilvánvalóvá vált, hogy a filozófiai kérdésekre gyakorolt hatásuk nagy. Dretske (1981) az elsők között elemezte Shannon elméletének filozófiai következményeit,de a logikai különféle rendszerek és az információelmélet közötti pontos kapcsolat továbbra sem tisztázott (lásd a 6.6. Logikai és szemantikai információ pontot).

4.3 Solomonoff, Kolmogorov, Chaitin: Információ, mint egy program hossza

Carnap (1945, 1950) foglalkozott azzal a problémával, hogy egy állításkészletet egy megfigyelési csoporthoz kapcsol, és meghatározza a megfelelõ valószínûséget. Megkülönböztette a valószínűség két formáját: A valószínűség (_ 1) vagy a „megerősítés mértéke” (P_1 (h; e)) két mondat, a h hipotézis és az e mondat logikai összefüggése egy megfigyelési sorozatot mutatva. Az ilyen típusú állítások analitikusak vagy ellentmondásosak. A második forma, a valószínűség (_ 2) vagy a „relatív gyakoriság” a statisztikai koncepció. Tanulója, Solomonoff (1997) szavaival:

Carnap valószínűségi modellje egy hosszú szimbólum-sorozattal kezdődött, amely az egész univerzum leírása volt. Saját formális nyelvi elemzése révén képes volt a priori valószínűségeket hozzárendelni a szimbólumok olyan lehetséges sorozatához, amely az univerzumot képviselheti.

A valószínűségek hozzárendelésére szolgáló módszer, amelyet Carnap használt, nem volt univerzális, és erősen függött az alkalmazott kódrendszerektől. A Bayes-féle szabály alkalmazásával történő indukció általános elmélete csak akkor fejleszthető ki, ha egy szimbólum „bármilyen lehetséges karakterláncára” egyetemes valószínűséget tudunk hozzárendelni. Egy 1960-as tanulmányban Solomonoff (1960, 1964a, b) vette először a probléma megoldásának vázlatát. Megfogalmazta azt a fogalmat, amelyet manapság univerzális valószínűség-eloszlásnak hívnak: az összes lehetséges véges karakterlánc halmazát egy univerzális Turing-gép programjainak tekintik, és meghatározza a szimbólumok x karakterisztikájának valószínűségét a legrövidebb program hossza alapján p, amely kimenetet ad x-n.

Az algoritmikus információelmélet ezt a fogalmát valamivel később, egymástól függetlenül találta meg Kolmogorov (1965) és Chaitin (1969). Levin (1974) kifejlesztette az univerzális a priori valószínűség matematikai kifejezését egy univerzális (azaz maximális) alsó félig kompatibilis M félértékként, és kimutatta, hogy (M (x)) negatív logaritmusa egybeesik x Kolmogorov komplexitásával. additív logaritmikus kifejezésig. A bonyolultságmérő tényleges meghatározása:

Kolmogorov bonyolultsága Az x karakterlánc algoritmikus összetettsége a legkisebb p program hossza (cal {l} (p)), amely x-et hoz létre, amikor az U univerzális Turing-gépen fut, (U (p) -vel megjelölve). = x):

[K (x): = / min_p {l (p), U (p) = x })

Az algoritmikus információelmélet (más néven Kolmogorov komplexitáselmélet) egy gazdag kutatási területré fejlődött, széles körű alkalmazási területeken, amelyek közül sok filozófiai szempontból releváns (Li és Vitányi 1997):

  • Ez az indukció általános elméletét nyújtja nekünk. Bayes-szabály alkalmazása lehetővé teszi Ockham borotvájának korszerű újrafogalmazását a minimális leírás hossza (Rissanen 1978, 1989; Barron, Rissanen és Yu 1998; Grünwald 2007) és a minimális üzenet hossza (Wallace 2005) alapján. Vegye figyelembe, hogy Domingos (1998) vitatta ezen alapelvek általános érvényességét.
  • Ez lehetővé teszi számunkra, hogy megfogalmazzuk az egyes objektumok valószínűségét és információtartalmát. Még az egyes természetes számok is.
  • Megalapozza az adattömörítés elsajátításának elméletét (Adriaans 2007).
  • Meghatározza a karakterlánc véletlenszerűségét az összenyomhatatlanság szempontjából. Ez önmagában egy teljesen új kutatási területhez vezetett (Niess 2009; Downey & Hirschfeld 2010).
  • Ez lehetővé teszi számunkra, hogy egy elmélet prediktív értékének objektív előzetes mértékét fogalmazzuk meg véletlenszerűségi hiánya szempontjából: azaz a legjobb elmélet a legrövidebb elmélet, amely az adatokat véletlenszerűnek tekinti az elmélet függvényében. (Vereshchagin és Vitányi 2004).

Vannak lefelé mutatók is:

  • Az algoritmikus bonyolultság nem vitatható, bár sok gyakorlati esetben közelíthető, és a kereskedelmi tömörítési programok bizonyos esetekben megközelítik az elméleti optimumot (Cilibrasi és Vitányi 2005).
  • Az algoritmikus összetettség aszimptotikus mérőszám (azaz egy állandó értékig helyes értéket ad). Bizonyos esetekben ennek az állandónak a gyakorlati célokra történő felhasználása tiltja.
  • Bár a véletlenszerűségi hiány szempontjából a legrövidebb elmélet mindig a legjobb, az alt inkrementális tömörítése = "sep man icon" /> Hogyan idézhető ez a bejegyzés?

    sep ember ikonra
    sep ember ikonra

    A bejegyzés PDF-verziójának előnézete a SEP Barátok társaságában.

    inpho ikonra
    inpho ikonra

    Nézze meg ezt a belépési témát az Internet Filozófia Ontológiai Projektben (InPhO).

    phil papírok ikonra
    phil papírok ikonra

    Továbbfejlesztett bibliográfia erre a bejegyzésre a PhilPapersnél, az adatbázisához kapcsolódó hivatkozásokkal.

    Egyéb internetes források

    • Aaronson, Scott, 2006, Okok a hinni, Shtetl -re optimalizált blogbejegyzés, 2006. szeptember 4.
    • Adriaans, Pieter W., 2016, “Az információ és a számítás általános elmélete”, nem publikált kézirat, 2016. november, arXiv: 1611.07829.
    • Bekenstein, Jacob D., 1994, „Megértjük-e a fekete lyuk entrópiáját?”, Plenáris beszélgetés a Marford Grossman hetedik ülésén a Stanfordi Egyetemen., ArXiv: gr-qc / 9409015.
    • Churchill, Alex, 2012, Varázslat: a gyűjtés teljes.
    • Cook, Stephen, 2000, A P vs NP probléma, Agyagmatematikai Intézet; A millenniumi díj problémája.
    • Huber, Franz, 2007, Megerősítés és indukció, bejegyzés az internetes filozófiai enciklopédia-ba.
    • Sajjad, H. Rizvi, 2006, “Avicenna / Ibn Sina”, bejegyzés az Internet filozófiai enciklopédia lapjába.
    • Goodman, L. és Weisstein, EW, 2019, „A Riemann-hipotézis”, a MathWorld-tól - A Wolfram webes forrása.
    • Számíthatóság - mit jelentene az egyházi-turing-értekezés cáfolása ?, vita az Elméleti számítástechnika StackExchange-ról.
    • Prime Number Theorem, Encyclopedia Britannica, 2010. december 20.
    • Hardver véletlenszám-generátor, Wikipedia bejegyzés, 2018. november.

Ajánlott: