Számítógépes Szimulációk A Tudományban

Tartalomjegyzék:

Számítógépes Szimulációk A Tudományban
Számítógépes Szimulációk A Tudományban

Videó: Számítógépes Szimulációk A Tudományban

Videó: Számítógépes Szimulációk A Tudományban
Videó: FIFA World Cup 2014: Episode 3! (PES 2013) 2024, Március
Anonim

Belépés navigáció

  • Nevezés tartalma
  • Bibliográfia
  • Tudományos eszközök
  • Barátok PDF előnézete
  • Szerző és idéző információ
  • Vissza a tetejére

Számítógépes szimulációk a tudományban

Elsőként publikálták 2013. május 6-án; érdemi felülvizsgálat 2019. szeptember 26-ig

A számítógépes szimuláció úttörő szerepet játszott a meteorológia és a nukleáris fizika tudományos eszközében a közvetlenül a második világháborút követő időszakban, és azóta elengedhetetlenné vált a növekvő számú tudományágban. A számítógépes szimulációt széles körben alkalmazó tudományok listája kiterjed az asztrofizika, a részecskefizika, az anyagtudomány, a mérnöki munka, a folyadékmechanika, az éghajlattudomány, az evolúciós biológia, az ökológia, a közgazdaságtan, a döntéselmélet, az orvostudomány, a szociológia, az epidemiológia és még sokan mások számára. Még néhány tudományág létezik, mint például a káoszelmélet és a komplexitáselmélet, amelyek létezése a vizsgált számítási modellek fejlesztése mellett jelent meg.

Lassú indulás után a tudományfilozófusok nagyobb figyelmet fordítottak a számítógépes szimuláció tudományos szerepére. A számítógépes szimuláció filozófiai érdeklődésének számos területe felmerült: Milyen a számítógépes szimuláció episztemológiájának felépítése? Mi a kapcsolat a számítógépes szimuláció és a kísérlet között? Felveti a számítógépes szimuláció a tudomány filozófiájának olyan kérdéseit, amelyek általánosságban nem vonatkoznak a modellekkel kapcsolatos közelmúltbeli munkák? Mit tanít nekünk a számítógépes szimuláció a megjelenésről? A tudományos elméletek felépítéséről? A fikciók tudományos modellezésben játszott szerepéről (ha van ilyen)?

  • 1. Mi a számítógépes szimuláció?

    • 1.1 Szűk meghatározás
    • 1.2 Széles körű meghatározás
    • 1.3 Alternatív szempont
  • 2. A számítógépes szimulációk típusai

    • 2.1 Egyenalapú szimulációk
    • 2.2 Agent-alapú szimulációk
    • 2.3 Több skálájú szimulációk
    • 2.4 Monte Carlo szimulációk
  • 3. A szimuláció célja
  • 4. A számítógépes szimulációk episztemológiája

    • 4.1 Az EOCS új jellemzői
    • 4.2. EOCS és a kísérlet episztemológiája
    • 4.3 Ellenőrzés és érvényesítés
    • 4.4. EOCS és episztemikus jogosultság
    • 4.5 Az EOCS gyakorlati megközelítései
  • 5. Szimuláció és kísérlet
  • 6. Számítógépes szimuláció és a tudományos elméletek felépítése
  • 7. Felmerülés
  • 8. Fikciók
  • Bibliográfia
  • Tudományos eszközök
  • Egyéb internetes források
  • Kapcsolódó bejegyzések

1. Mi a számítógépes szimuláció?

A számítógépes szimuláció egyetlen meghatározása nem megfelelő. Mindenekelőtt a kifejezést szűk és tágabb értelemben használják. Másodszor, érdemes megérteni a kifejezést egynél több szempontból is.

1.1 Szűk meghatározás

A szűk értelemben vett számítógépes szimuláció olyan program, amelyet egy számítógépen futtatnak, és lépésről lépésre használják a matematikai modell hozzávetőleges viselkedésének feltárását. Általában ez egy valós rendszer modellje (bár a kérdéses rendszer lehet képzeletbeli vagy hipotetikus). Egy ilyen számítógépes program számítógépes szimulációs modell. A program egyik futtatása a számítógépen a rendszer számítógépes szimulációja. Az algoritmus bemenetként a rendszer állapotának meghatározását (az összes változó értékét) egy bizonyos idõszakban veszi. Ezután kiszámítja a rendszer állapotát t + 1 időpontban. A második állapotot jellemző értékek alapján kiszámítja a rendszer állapotát t + 2 időben stb. Számítógépen futtatva az algoritmus így numerikus képet állít elő a rendszer állapotának alakulásáról,amint azt a modellben fogalmazzák meg.

A modellváltozóinak ez a sorrendje nagy mennyiségű „adat” formájában menthető el, és a számítógépes képernyőn gyakran jelenik meg a megjelenítési módszerekkel. Gyakran, de természetesen nem mindig, a megjelenítés módszereit úgy tervezték, hogy utánozzák valamilyen tudományos eszköz outputját, úgy tűnik, hogy a szimuláció egy érdeklődő rendszert mér.

Időnként a számítógépes szimuláció lépésről lépésre történő módszereit alkalmazzák, mert az érdeklődésre számot tartó folyamatos (differenciális) egyenleteket tartalmaz (amelyek meghatározzák az idő folyamatos változási sebességét), amelyeket analitikus módon nem lehet megoldani - sem elvileg, akár csak a gyakorlatban. Ez alátámasztja a következő, Paul Humphreys által megadott meghatározás szellemét: „Bármely számítógépesen megvalósított módszer a matematikai modellek tulajdonságainak feltárására, ahol nem állnak rendelkezésre analitikai módszerek” (1991, 500). De még szűk meghatározásként is ezt gondosan kell elolvasni, és nem szabad arra utalni, hogy a szimulációkat csak akkor használják, ha a modellben analitikusan oldhatatlan egyenletek vannak. A számítógépes szimulációkat gyakran azért használják, mert maga az eredeti modell diszkrét egyenleteket tartalmaz - amelyek közvetlenül a szimulációra alkalmas algoritmusban megvalósíthatók -, vagy azért, mert az eredeti modell valami jobban leírható evolúciós szabályként, mint egyenletként.

Az előbbi esetben, amikor az egyenleteket „diszkretizálják” (a folyamatos változási sebességeket leíró egyenletek diszkrét egyenletekké válnak), hangsúlyozni kell, hogy bár általános gyakorlat az egyenletek „megoldására” szolgáló szimulációkról beszélni, a diszkretizálás a legjobb esetben csak valamit talál, amely megközelíti a folytonos egyenletek megoldását, bizonyos pontosságig. Végül, amikor a „számítógépes szimulációról” beszélünk a legszűkebb értelemben, akkor az algoritmus egy adott digitális számítógépen történő megvalósításáról kell beszélnünk, egy adott nyelven írva, egy adott fordító használatával stb. ezen adatok bármelyikének eltérései alapján eltérő eredményeket lehet elérni.

1.2 Széles körű meghatározás

Általánosabban véve a számítógépes szimulációt a rendszerek tanulmányozásának átfogó módszerére gondolhatjuk. A fogalom tágabb értelemben egy teljes folyamatra utal. Ez a folyamat magában foglalja a modell kiválasztását; a modell megvalósításának módját egy számítógépen futtatható formában; kiszámítja az algoritmus kimenetet; és a kapott adatok megjelenítését és tanulmányozását. A módszer magában foglalja ezt a teljes folyamatot, amelyet arra következtetnek, hogy megcélozzák a célrendszert, amelyet megpróbálnak modellezni, valamint az ezen következtetések szankcionálására használt eljárásokat. Ez többé-kevésbé a számítógépes szimulációs tanulmányok meghatározása Winsberg 2003-ban (111). „A sikeres szimulációs tanulmányok nemcsak a számok kiszámításával járnak. Különféle technikákat alkalmaznak arra, hogy következtetéseket vonjanak le ezekből a számokból. A szimulációk kreatív módon használják a számítási technikákat, amelyeket csak extra-matematikai és extraelméletileg lehet motiválni. Mint ilyen, a számítógépen elvégezhető egyszerű számításoktól eltérően a szimulációk eredményei nem automatikusan megbízhatóak. Sok erőfeszítés és szakértelem szükséges annak eldöntésére, hogy a szimulációs eredmények megbízhatóak és melyek nem.” Amikor a tudományos filozófusok számítógépes szimulációkról írnak, és állításokat tesznek arra vonatkozóan, hogy mi az episztemológiai vagy módszertani tulajdonságok a „számítógépes szimulációk”, általában a számítógépes szimuláció tanulmányának ebben a tág értelemben vett értelemben vett kifejezést értik. Sok erőfeszítés és szakértelem szükséges annak eldöntésére, hogy a szimulációs eredmények megbízhatóak és melyek nem.” Amikor a tudományos filozófusok számítógépes szimulációkról írnak, és állításokat tesznek arra vonatkozóan, hogy mi az episztemológiai vagy módszertani tulajdonságok a „számítógépes szimulációk”, általában a számítógépes szimuláció tanulmányának ebben a tág értelemben vett értelemben vett kifejezést értik. Sok erőfeszítés és szakértelem szükséges annak eldöntésére, hogy a szimulációs eredmények megbízhatóak és melyek nem.” Amikor a tudományos filozófusok számítógépes szimulációkról írnak, és állításokat tesznek arra vonatkozóan, hogy mi az episztemológiai vagy módszertani tulajdonságok a „számítógépes szimulációk”, általában a számítógépes szimuláció tanulmányának ebben a tág értelemben vett értelemben vett kifejezést értik.

1.3 Alternatív szempont

Mindkét fenti meghatározás a számítógépes szimulációt alapvetõen a számítógép használatával jelenti annak a modellnek a matematikai egyenleteinek megoldására vagy megközelítésére való megoldására, amelyek célja valamely rendszer - akár valós, akár hipotetikus - ábrázolása. Egy másik megközelítés a „szimuláció” meghatározásának megkísérelése a számítógépes szimuláció fogalmától függetlenül, majd a „számítógépes szimuláció” meghatározása összetételben: szimulációként, amelyet egy programozott digitális számítógép hajt végre. Ennél a megközelítésnél a szimuláció bármely olyan rendszer, amelyről úgy gondolják, vagy remélhetőleg olyan dinamikus viselkedést mutat, amely elég hasonló egy másik rendszerhez, úgy hogy az előbbit meg lehet tanulni az utóbbi megismerésére.

Például, ha valamely tárgyat tanulmányozunk, mert úgy gondoljuk, hogy elég dinamikusan hasonlít egy folyadékmedencéhez ahhoz, hogy megismerjük a folyadék medencéit annak tanulmányozásakor, akkor szimulálja a folyadék medencéit. Ez összhangban áll a szimuláció definíciójával, amelyet a Hartmann-ban találunk: ez valami, ami „utánozza az egyik folyamatot egy másik folyamattal. Ebben a meghatározásban a „folyamat” kifejezés kizárólag olyan tárgyra vagy rendszerre utal, amelynek állapota időben változik”(1996, 83). Hughes (1999) kifogásolta, hogy Hartmann meghatározása kizárja azokat a szimulációkat, amelyek a rendszer struktúráját, nem pedig a dinamikát utánozzák. Humphreys a következőképpen módosította a szimuláció meghatározását Hartmann és Hughes megjegyzéseivel összhangban:

Az S rendszer egy B objektum vagy folyamat alapvető szimulációját biztosítja, csak abban az esetben, ha S egy konkrét számítási eszköz, amely időbeli folyamat révén megoldásokat állít elő egy olyan számítási modellhez, amely helyesen ábrázolja a B-t, akár dinamikusan, akár statikusan. Ha ezen túlmenően az S által alkalmazott számítási modell helyesen ábrázolja az R valódi rendszer felépítését, akkor S az R rendszer alapszimulációját nyújtja B szempontjából (2004, 110. oldal).

(Vegye figyelembe, hogy Humphreys itt a számítógépes szimulációt határozza meg, nem általában a szimulációt, de a kompozíciós kifejezés meghatározásának szellemében végzi.) Meg kell jegyezni, hogy Humphreys definíciói szerint a szimuláció sikeres kifejezés, és ez sajnálatosnak tűnik.. Jobb meghatározás lenne az, amely, mint az utolsó szakaszban, tartalmaz egy olyan szót, mint a „hitt” vagy „remélt”, hogy foglalkozzon ezzel a kérdéssel.

A számítógépes szimuláció legtöbb filozófiai megbeszélésében a 1.2. Pontban meghatározott fogalom a hasznosabb. Kivétel az, amikor a vita kifejezetten célja a számítógépes szimuláció általánosabb megértése a szimuláció példájaként (lásd az 5. részt). A szimulációkra, amelyek nem számítógépes szimulációk, példa a San Francisco-öböl híres fizikai modellje (Huggins & Schultz 1973). Ez a San Francisco-öböl és a Sacramento-San Joaquin folyó deltarendszerének működő hidraulikus méretezési modellje, amelyet az 1950-es években épített fel a Mérnökök Testülete, hogy megvizsgálja a lehetséges mérnöki beavatkozásokat az öbölben. Egy másik jó példa, amelyet részletesen tárgyalnak (Dardashti et al., 2015, 2019), a Bose-Einstein kondenzátumokból készült akusztikus „hülye lyukak” használata a fekete lyukak viselkedésének tanulmányozására. Bill Unruh fizikus megjegyezte, hogy bizonyos folyadékokban a fekete lyukhoz hasonló valami akkor merül fel, ha a folyadék olyan régiói mozognak olyan gyorsan, hogy a hullámoknak a hang sebességénél gyorsabban kell mozogniuk (amit nem tudnak megtenni) annak érdekében, hogy menekülni tőlük (Unruh 1981). Az ilyen régiók gyakorlatilag szonikus eseményhorizontot képviselnének. Unruh egy ilyen fizikai beállítást „hülye lyuknak” („tompa”, mint a „néma” néven) hívta fel, és javasolta, hogy tanulmányozzák annak érdekében, hogy megtanuljanak olyan dolgokat, amelyeket nem tudunk a fekete lyukakról. Ez a javaslat egy ideje nem más, mint egy okos ötlet, de a fizikusok a közelmúltban rájöttek, hogy a Bose-Einstein kondenzátumok felhasználásával valódi hülye lyukakat építhetnek és tanulmányozhatnak a laboratóriumban. Világos, miért kellene egy ilyen elrendezést mint szimulációt gondolnunk: a hülye lyuk szimulálja a fekete lyukat. Ahelyett, hogy számítógépes programot találna a fekete lyukak szimulálására, a fizikusok olyan folyadékdinamikai rendszert találnak, amelyre úgy vélik, hogy jó modelljük van, és amelyre ez a modell alapvető matematikai hasonlóságot mutat az érdeklődő rendszerek modelljével. Megfigyelik a folyadékberendezés viselkedését a laboratóriumban, hogy következtetéseket vonjanak le a fekete lyukakról. A szimuláció meghatározásának ebben a részben a lényeg az, hogy megpróbáljuk megérteni, hogy a számítógépes szimuláció milyen értelemben és az ilyen típusú tevékenységek ugyanazon nemzetség fajai. Előfordulhat, hogy jobb helyzetben vagyunk, ha megértjük, hogy az 1.3 értelmében a szimuláció, amely számítógépen fut, az átfedésben van az 1.2 értelmében vett szimulációval. Visszatérünk erre az 5. szakaszban.a fizikusok olyan folyadékdinamikai rendszert találnak, amelyre úgy gondolják, hogy van jó modellje, és amelyre ez a modell alapvető matematikai hasonlóságokat mutat az érdeklődő rendszerek modelljéhez. Megfigyelik a folyadékberendezés viselkedését a laboratóriumban, hogy következtetéseket vonjanak le a fekete lyukakról. A szimuláció meghatározásának ebben a részben a lényeg az, hogy megpróbáljuk megérteni, hogy a számítógépes szimuláció milyen értelemben és az ilyen típusú tevékenységek ugyanazon nemzetség fajai. Előfordulhat, hogy jobb helyzetben vagyunk, ha megértjük, hogy az 1.3 értelmében a szimuláció, amely számítógépen fut, az átfedésben van az 1.2 értelmében vett szimulációval. Visszatérünk erre az 5. szakaszban.a fizikusok olyan folyadékdinamikai rendszert találnak, amelyre úgy gondolják, hogy van jó modellje, és amelyre ez a modell alapvető matematikai hasonlóságokat mutat az érdeklődő rendszerek modelljéhez. Megfigyelik a folyadékberendezés viselkedését a laboratóriumban, hogy következtetéseket vonjanak le a fekete lyukakról. A szimuláció meghatározásának ebben a részben a lényeg az, hogy megpróbáljuk megérteni, hogy a számítógépes szimuláció milyen értelemben és az ilyen típusú tevékenységek ugyanazon nemzetség fajai. Előfordulhat, hogy jobb helyzetben vagyunk, ha megértjük, hogy az 1.3 értelmében a szimuláció, amely számítógépen fut, az átfedésben van az 1.2 értelmében vett szimulációval. Visszatérünk erre az 5. szakaszban.

Barberousse et al. (2009) kritikája ennek az analógiának. Rámutatnak, hogy a számítógépes szimulációk nem úgy működnek, ahogy Unruh szimulációja működik. Nem az a helyzet, hogy a számítógép mint anyagi objektum és a célrendszer ugyanazokat a differenciálegyenleteket követi. Jó referencia azokról a szimulációkról, amelyek nem számítógépes szimulációk, a Trenholme 1994.

2. A számítógépes szimulációk típusai

A számítógépes szimulációk gyakran két típusát különböztetik meg: egyenlet-alapú szimulációk és ügynök-alapú (vagy egyéni) szimulációk. Mindkét típus számítógépes szimulációját három különféle típusú célra használják: előrejelzés (mind pointwise, mind globális / kvalitatív), megértés és felfedező vagy heurisztikus célok.

2.1 Egyenalapú szimulációk

Az egyenlet-alapú szimulációkat leggyakrabban a fizikai és más tudományokban alkalmazzák, ahol létezik olyan irányító elmélet, amely irányíthatja a matematikai modellek differenciálegyenletek alapján történő felépítését. Az „egyenlet alapú” kifejezést itt a fizikai elméletekkel társított globális egyenletek fajtáin alapuló szimulációkra utaljuk, szemben az „evolúciós szabályokkal” (amelyeket a következő szakasz tárgyal.) Az egyenlet alapú szimulációk akár részecskealapú, ahol n sok különálló test van, és a kölcsönhatásukat szabályozó differenciálegyenletek halmaza, vagy lehetnek terepalapúak, ahol van egy olyan egyenletkészlet, amely a folyamatos közeg vagy mező időbeli fejlődését szabályozza. Az egyik példája a galaxisok kialakulásának szimulációja,amelyben a különálló testek véges gyűjteménye közötti gravitációs kölcsönhatás időben és térben diszkretizálódik. Ez utóbbi példa a folyadék, például egy meteorológiai rendszer, például heves vihar szimulálása. Itt a rendszert folyamatos közegként - folyadékként - kezeljük, és a relatív változók térbeli eloszlását ábrázoló mezőt a térben diszkretizáljuk, majd diszkrét időközönként frissítjük.

2.2 Agent-alapú szimulációk

Az ágens-alapú szimulációk a társadalmi és viselkedéstudományban a leggyakoribbak, bár megtalálhatók azokban a tudományágakban is, mint például a mesterséges élet, az epidemiológia, az ökológia és minden olyan tudományág, amelyben sok ember hálózati interakcióját vizsgálják. Az agent-alapú szimulációk hasonlóak a részecske-alapú szimulációkhoz, mivel n-sok különálló egyén viselkedését reprezentálják. Az egyenlet-részecske-alapú szimulációktól eltérően azonban nincsenek olyan globális differenciálegyenletek, amelyek az egyének mozgását szabályozzák. Inkább az ügynöki alapú szimulációkban az egyének viselkedését a saját helyi szabályaik diktálják

Egy példa: a híres és úttörő ágens-alapú szimuláció volt Thomas Schelling (1971) „szegregáció” modellje. Az ügynökök szimulációjában olyan személyek voltak, akik „sakkoztak” egy sakktáblán. Az egyéneket két csoportra osztották a társadalomban (pl. Két különféle faj, fiúk és lányok, dohányosok és nemdohányzók stb.). A táblán minden egyes négyzet egy házat képviselt, házonként legfeljebb egy személyt. Az egyén boldog, ha a saját csoportjának szomszédai egy bizonyos százalékával rendelkezik. A boldog ügynökök ott maradnak, ahol a boldogtalan ügynökök szabad helyekre költöznek. Schelling megállapította, hogy a testület gyorsan erősen szegregált helységi mintává vált, ha az ügynökök „boldogság szabályait” meghatározták, így a szegregációt nagymértékben részesítették előnyben. Meglepő módon azonbanazt is megállapította, hogy az eredetileg integrált táblák a teljes szegregációhoz vezettek, még akkor is, ha az ügynökök boldogságszabályai csak enyhe előnyben részesítik a saját típusú szomszédaikat.

2.3 Több skálájú szimulációk

A 2.1. Szakaszban olyan egyenlet-alapú modelleket tárgyaltunk, amelyek részecske-módszereken és a terepi módszereken alapulnak. De néhány szimulációs modell különféle modellezési módszerek hibridei. Különösen a több skálán alkalmazható szimulációs modellek modellezési elemeket kapcsolnak össze a leírás különböző skáláiból. Ennek jó példája lenne egy olyan modell, amely szimulálja az ömlesztett anyag dinamikáját azáltal, hogy az anyagot stressz- és terhelésnek kitett mezőként kezeli, viszonylag durva leírási szinttel, de az anyag bizonyos területeire nagyítja, ahol fontos a kis méretű hatás. és modellezi azokat a kisebb régiókat, amelyek viszonylag finomabb modellezési módszereket alkalmaznak. Az ilyen módszerek támaszkodhatnak a molekuláris dinamikára vagy a kvantummechanikára,vagy mindkettő - mindegyik az anyag finomabb leírása, mint amit az anyag mezőként történő kezelése kínál. A több skálán alkalmazott szimulációs módszereket tovább lehet bontani soros több skálájú és párhuzamos több skálájú módszerekre. A hagyományosabb módszer a soros többszörös modellezés. Az ötlet egy régió kiválasztása, a leírás alsó szintjén történő szimuláció, az eredmények összefoglalása egy paraméterkészletbe, amelyet a magasabb szintű modell emészthet, és átadja azokat az algoritmusnak a magasabb szintre kiszámított részéhez.összegezze az eredményeket egy paraméterkészletbe, amelyet a magasabb szintű modell emészthet, és továbbadja azokat az algoritmus magasabb szintre kiszámító részéhez.összegezze az eredményeket egy paraméterkészletbe, amelyet a magasabb szintű modell emészthet, és továbbadja azokat az algoritmus magasabb szintre kiszámító részéhez.

A soros több skálán alkalmazott módszerek nem hatékonyak, ha a különböző skálák erősen kapcsolódnak egymáshoz. Ha a különböző skálák erősen kölcsönhatásba lépnek, hogy megfigyelt viselkedést hozzanak létre, akkor megkövetelni kell egy megközelítést, amely az egyes régiókat egyszerre szimulálja. Ezt nevezzük párhuzamos többlépcsős modellezésnek. A párhuzamos többrétegű modellezés képezi a szinte mindenütt jelen lévő szimulációs módszer alapját: az úgynevezett „alhálózati” modellezés. Az alhálózati modellezés fontos, kisebb léptékű fizikai folyamatok ábrázolására vonatkozik, amelyek olyan hosszúság-skálán fordulnak elő, amelyeket az adott szimuláció rácsméretére nem lehet megfelelően megoldani. (Ne feledje, hogy sok szimuláció diszkretizálja a folyamatos egyenleteket, tehát viszonylag tetszőleges véges „rácsmérettel rendelkeznek”.) A folyadékok turbulenciájának vizsgálata során példáula számítás általános gyakorlati stratégiája a hiányzó kis méretű örvények (vagy örvények) elszámolása, amelyek a rács celláiban esnek. Ezt úgy érjük el, hogy a nagyméretű mozgáshoz egy örvényviszkozitást adunk, amely jellemzi az energia szállítását és eloszlását a kisebb léptékű áramlás során, vagy bármilyen olyan tulajdonsággal, amely túl kicsi ahhoz, hogy a rács felvegye azt.

Az éghajlattudományban és a rokon tudományágakban az alhálózati modellezést „paraméterezésnek” nevezik. Ez ismét arra utal, hogy a folyamatokat - amelyek túl kisméretűek vagy összetettek ahhoz, hogy a modellben fizikailag ábrázolhassák - egyszerűbb matematikai leírás segítségével lehet helyettesíteni. Ez ellentétben más folyamatokkal - például a légkör nagyméretű áramlásával -, amelyeket az alapelmélettel összhangban a hálózat szintjén számítanak ki. Ezt úgy hívják, hogy „paraméterezés”, mivel különféle nem fizikai paraméterekre van szükség az alhálózati értékeket kiszámító nagyon közelítő algoritmusok vezetéséhez. A paraméterezés példái az éghajlati szimulációkban tartalmazzák az esőcseppek süllyedési sebességét, a légköri sugárzás átviteli sebességét és a felhők képződésének sebességét. Például az átlagos felhősödés 100 km 2 fölöttA rácsdoboz nincs tisztán kapcsolatban a doboz feletti átlagos páratartalommal. Mindazonáltal, amint az átlagos páratartalom növekszik, az átlagos felhőség szintén növekszik - ezért lehet egy olyan paraméter, amely összekapcsolja az átlagos felhőséget az átlagos páratartalommal a rácsdobozban. Annak ellenére, hogy a modern felhőképződés paraméterezése ennél kifinomultabb, az alapötlet jól szemlélteti a példát. Az alhálózati modellezési módszerek alkalmazása a szimulációban fontos következményekkel jár a szimuláció epistemológiájának felépítésében. Ezt részletesebben a 4. szakaszban tárgyaljuk.

Az alhálózati modellezési módszereket ellentmondásba lehet egy másikfajta párhuzamos több skálájú modellel, ahol az alhálózati algoritmusok inkább elméletileg elvesek, de egy eltérő leírásbeli elmélet motiválja őket. A fenti ömlesztett anyag szimulációjának példájában például a kisebb leírási szintet vezérlő algoritmust nem a nadrág ülése építi fel. A kisebb szintet haladó algoritmus valójában elméletileg elvileg elméletibb, mint a magasabb szint, abban az értelemben, hogy a fizika alapvető: kvantummechanika vagy molekuláris dinamika vs a kontinuummechanika. Másfajta, az ilyen többlépcsős modellek magukba foglalják az elméletek erőforrásait a leírás különböző szintjein. Tehát érdekes példákat kínálnak, amelyek provokálják az intereoretikus kapcsolatokra való gondolkodásukat,és ez megkérdőjelezi a széles körben elterjedt nézetet, miszerint a következetlen törvénykészletnek nem lehet modellje.

2.4 Monte Carlo szimulációk

A tudományos irodalomban létezik egy másik nagyszámú számítógépes szimuláció, a Monte Carlo (MC) Simulation néven. Az MC-szimulációk olyan számítógépes algoritmusok, amelyek véletlenszerűséget használnak a matematikai modell tulajdonságainak kiszámításához, és ahol az algoritmus véletlenszerűsége nem képezi a célmodell jellemzőjét. Szép példa egy véletlenszerű algoritmus használata a π érték kiszámítására. Ha rajzol egy egység négyzetet egy darab papírra, és rajzol egy köröket benne, majd véletlenszerűen dobja el a tárgyon belül egy gyűjteményt a négyzet belsejében, akkor a körben landoló tárgyak aránya nagyjából π / 4. Egy számítógépes szimulációt, amely egy hasonló eljárást szimulált, MC szimulációnak nevezzük a π kiszámításához.

Sok tudományos filozófus eltérött a közönséges tudományos nyelvtől és elkerülte az MC szimulációk mint valódi szimulációk gondolkodását. Grüne-Yanoff és Weirich (2010) a következő érvelést kínálja: „A Monte Carlo-megközelítésnek nincs mimetikus célja: Nem a deterministikus rendszert utánozza, hanem annak érdekében, hogy helyettesként szolgáljon, amelyet helyette vizsgáltak, hanem csak annak érdekében, hogy a determinisztikus rendszer tulajdonságainak alternatív kiszámítása”(30. o.). Ez azt mutatja, hogy az MC szimulációk nem felelnek meg a fenti meghatározások egyikének sem. Másrészt a filozófusok és az általános nyelv közötti szakadék valószínűleg négyzetre tehető, ha megjegyezzük, hogy az MC-szimulációk egy képzeletbeli folyamatot szimulálnak, amelyet valamely más folyamat tanulmányozása szempontjából releváns dolgok kiszámításához lehet használni. Tegyük fel, hogy bolygópályát modellezek, és a számításomhoz tudnom kell a π értékét. Ha elvégzem az utolsó bekezdésben említett MC szimulációt, akkor szimulálom a tárgyak véletlenszerűen négyzetre esésének folyamatát, de modellezésem egy bolygóbeli pálya. Ebben az értelemben az MC szimulációk szimulációk, de nem azoknak a rendszereknek a szimulációja, amelyeket tanulmányoznak. Amint Beisbart és Norton (2012) rámutatnak, néhány MC-szimuláció (nevezetesen azok, amelyek MC-technikákat használnak egy fizikai rendszerre utaló sztochasztikus dinamikus egyenletek megoldására) valójában a vizsgált rendszerek szimulációi. Ebben az értelemben az MC szimulációk szimulációk, de nem azoknak a rendszereknek a szimulációja, amelyeket tanulmányoznak. Amint Beisbart és Norton (2012) rámutatnak, néhány MC-szimuláció (nevezetesen azok, amelyek MC-technikákat használnak egy fizikai rendszerre utaló sztochasztikus dinamikus egyenletek megoldására) valójában a vizsgált rendszerek szimulációi. Ebben az értelemben az MC szimulációk szimulációk, de nem azoknak a rendszereknek a szimulációja, amelyeket tanulmányoznak. Amint Beisbart és Norton (2012) rámutatnak, néhány MC-szimuláció (nevezetesen azok, amelyek MC-technikákat használnak egy fizikai rendszerre utaló sztochasztikus dinamikus egyenletek megoldására) valójában a vizsgált rendszerek szimulációi.

3. A szimuláció célja

Három általános kategória létezik a számítógépes szimulációk felhasználására. A szimulációk heurisztikus célokra használhatók fel, hogy megjósoljuk a hiányzó adatokat, és megértsük az adatokat, amelyek már rendelkeznek.

A heurisztikus modellek kategóriáján belül a szimulációkat tovább lehet bontani azokba, amelyekben a tudást másoknak továbbítják, és azokat, amelyek az információk bemutatására szolgálnak. Amikor Watson és Crick ónlemezekkel és dróttal játszottak, először utóbbit csinálták, az előbbit, amikor másoknak mutatták meg az eredményeket. Amikor a katonaság felépítette a San Francisco-öböl modelljét, hogy meggyőzze a szavazó népességet arról, hogy egy adott beavatkozás veszélyes, akkor ezt a heurisztikus célokat használták. A számítógépes szimulációk mindkét típusú célra felhasználhatók - a lehetséges reprezentációs struktúrák jellemzőinek feltárására; vagy továbbadni tudást másoknak. Például: a természetes folyamatok számítógépes szimulációi, például baktériumok szaporodása, tektonikus eltolódás, kémiai reakciók,Az evolúciót és az evolúciót mind az osztálytermi beállításokban felhasználták, hogy segítsék a hallgatókat a rejtett struktúrák megjelenítésében olyan jelenségekben és folyamatokban, amelyek nepraktikusak, lehetetlenek vagy költségesek a „nedves” laboratóriumi környezetben történő bemutatáshoz.

A számítógépes szimulációk felhasználható céljainak egy másik széles csoportja az, hogy elmondjuk nekünk, hogyan kell elvárnunk, hogy valamely rendszer a való világban egy adott körülmények között viselkedjen. Nyugodtan szólva: a számítógépes szimuláció felhasználható az előrejelzéshez. Modelleket használhatunk a jövő előrejelzésére vagy a múlt retrodikálására; ezeket felhasználhatjuk pontos vagy laza és általános előrejelzések készítéséhez. Ami a szimulációkkal készített jóslatok relatív pontosságát illeti, kissé finomabb lehetünk taxonómiánkban. Vannak a) Pont-előrejelzések: Hol lesz a Mars bolygó 2300. október 21-én? b) „Minőségi”, globális vagy szisztematikus előrejelzések:A bolygó pályája stabil? Milyen méretezési törvény lép fel az ilyen típusú rendszerekben? Mekkora a vonzerő fraktál dimenziója az ilyen típusú rendszereknél? és c) Távolság-előrejelzések: 66% -kal valószínű, hogy a globális felszíni hőmérséklet 2100-ra 2–5 ° C-kal növekszik; „nagyon valószínű”, hogy a tengerszint legalább két méterrel emelkedik; „hihetetlen”, hogy a thermohaline a következő 50 évben leáll.

Végül, a szimulációk felhasználhatók a rendszerek és viselkedésük megértésére. Ha már vannak olyan adatok, amelyek megmutatják nekünk, hogyan viselkedik valamely rendszer, akkor számítógépes szimulációval válaszolhatunk kérdésekre arról, hogy ezek az események hogyan fordulhatnak elő; vagy arról, hogy ezek az események hogyan valósultak meg.

A következő szakasz, a számítógépes szimulációk episztemológiájának mérlegelésekor azt is szem előtt kell tartanunk, hogy a szimulációk eredményeinek szankcionálásához szükséges eljárások nagyrészt attól függnek, hogy melyik fenti célból vagy célokból a szimulációt az

4. A számítógépes szimulációk episztemológiája

Mivel a számítógépes szimulációs módszerek egyre több tudományterületen szerepelnek, az új ismeretek generálására vonatkozó megbízhatóságuk kérdése megnőtt, különösen akkor, ha a szimulációkat kísérletekkel és hagyományos analitikus elméleti módszerekkel várhatóan episztatikus társaknak kell tekinteni. A releváns kérdés mindig az, hogy egy adott számítógépes szimuláció eredményei megfelelőek-e a tervezett célhoz. Ha szimulációt használnak az időjárás előrejelzésére, előrejelzi-e az érdekelt változókat olyan pontossággal, amely elegendő a fogyasztók igényeinek kielégítéséhez? Ha a Középnyugati síkság felett a légköri szimulációt alkalmazzák a súlyos zivatarok szerkezetének megértésére,Biztosak-e abban, hogy az áramlásban levő szerkezeteket, amelyek magyarázó szerepet játszanak beszámolónkban arról, hogy miért a vihar néha kettéoszlik, vagy miért képezi időnként tornádókat, elég pontosan ábrázolják, hogy támogassuk a magyarázatba vetett bizalmunkat ? Ha egy szimulációt alkalmaznak a mérnöki és tervezési területen, akkor a szimuláció által tett előrejelzések elég megbízhatóak-e ahhoz, hogy szankcionálhassanak egy adott kiválasztott tervezési paramétert, vagy szankcionálhassuk azt a hitünket, hogy a repülőgép szárnyának egy meghatározott terve működni fog? Feltételezve, hogy ezekre a kérdésekre a válasz néha „igen”, vagyis az ilyen következtetések legalább néha igazolhatók, a központi filozófiai kérdés: mi indokolja őket? Általánosabban,hogyan lehet értékelni azt az állítást, hogy a szimuláció megfelelő a rendeltetésének? Ezek a számítógépes szimuláció (EOCS) epistemológiájának központi kérdései.

Mivel a megerősítő elmélet a tudomány filozófiájának egyik tradicionális témája, nyilvánvalónak tűnik, hogy ez utóbbi rendelkezzen forrásokkal ahhoz, hogy elkezdjenek megközelíteni ezeket a kérdéseket. Winsberg (1999) azonban azzal érvelt, hogy amikor a tudományos állítások hitelesítéséhez kapcsolódó témákról van szó, a tudomány filozófiája hagyományosan az elméletek igazolására, nem pedig alkalmazásukra vonatkozik. Ezzel szemben a legtöbb szimuláció, amennyiben az elméletet használja, inkább a jól megalapozott elméletet használja. Más szavakkal, az EOCS ritkán foglalkozik az alapvető elméletek tesztelésével, amelyek bekerülhetnek a szimulációba, és leggyakrabban azon hipotézisek hitelességének megállapításáról, amelyek részben ezeknek az elméleteknek az alkalmazásából származnak.

4.1 Az EOCS új jellemzői

Winsberg (2001) szerint a hagyományos megerősítési elmélet középpontjában álló episztemológiai kérdésekkel ellentétben a megfelelő EOCS-nak három feltételnek meg kell felelnie. Különösen figyelembe kell vennie azt a tényt, hogy a számítógépes szimulációkkal előállított tudás lefelé mutató, mozgatórugós és önálló következtetések eredménye.

Lefelé. Az EOCS-nak tükröznie kell azt a tényt, hogy sok esetben az elfogadott tudományos elméletek képezik a számítógépes szimulációs modellek felépítésének kiindulópontját, és fontos szerepet játszanak a következtetések igazolásában, a szimulációs eredmények és a valós célrendszerek következtetései között. A „lefelé” szó célja annak jelzése volt, hogy a tradicionálisan érdeklődő filozófusok legtöbb tudományos következtetéseivel ellentétben, amelyek a megfigyelési példákról az elméletekre mozognak, itt vannak következtetések, amelyeket (részben) a magas elméletből lefelé az egyes a jelenségek jellemzői.

Motley. Az EOCS-nak figyelembe kell vennie, hogy a szimulációs eredmények mindazonáltal általában nem csupán az elmélettől, hanem sok más modell-összetevőtől és erőforrástól is függnek, ideértve a paraméterezéseket (fent tárgyalt), numerikus megoldási módszereket, matematikai trükköket, közelítéseket és idealizációkat, egyenes fikciókat, ad hoc feltételezéseket., funkciókönyvtárak, fordítók és számítógépes hardverek, és talán a legfontosabb: a vér, az izzadság és a sok próba és hiba könnyei.

Autonóm. Az EOCS-nak figyelembe kell vennie a szimulációval előállított tudás autonómiáját abban az értelemben, hogy a szimulációval előállított tudást nem lehet teljes mértékben szankcionálni a megfigyeléssel összehasonlítva. A szimulációkat általában olyan jelenségek tanulmányozására alkalmazzák, ahol az adatok ritkák. Ilyen körülmények között a szimulációk célja a kísérletek és megfigyelések helyettesítése a világ adatforrásaként, mivel a vonatkozó kísérletek vagy megfigyelések elvileg, gyakorlati vagy etikai okokból nem állnak rendelkezésre.

Parker (2013) rámutatott arra, hogy ezeknek a feltételeknek a hasznosságát kissé veszélyezteti az a tény, hogy túlzott hangsúlyt fektet a szimulációra a fizikai tudományokban és más tudományágakban, ahol a szimuláció elmélet-alapú és egyenlet-alapú. Ez helyesnek tűnik. A társadalom- és viselkedéstudományban, valamint más olyan tudományágakban, ahol az ügynöki alapú szimuláció inkább a norma, és ahol a modelleket megalapozott és kvantitatív elméletek hiányában építik fel, az EOCS-t valószínűleg más módon kellene jellemezni.

Például néhány, az ügynök alapú szimulációt alkalmazó társadalomtudós egy olyan módszertant alkalmaz, amelyben a társadalmi jelenségeket (például egy megfigyelt mintázatot, mint például a szegregációt) magyarázzák vagy számolják be azzal, hogy hasonló megjelenésű jelenségeket generálnak szimulációikban (Epstein és Axtell 1996; Epstein) 1999). De ez felveti a saját fajtájú episztemológiai kérdéseket. Pontosan mit valósítottak meg, milyen ismereteket szereztek meg, amikor egy megfigyelt társadalmi jelenséget többé-kevésbé reprodukálják egy ügynök alapú szimuláció? Ez a jelenség magyarázata? Lehetséges magyarázat? (lásd például Grüne-Yanoff 2007). Giuseppe Primiero (2019) szerint a „mesterséges tudományok” egész tartománya ügynöki és több ügynöki rendszer-alapú szimulációkra épül,és hogy saját episztemológiát igényel - olyan, ahol az érvényesítés nem határozható meg egy létező valós rendszerrel összehasonlítva, hanem egy meghatározott rendszerhez viszonyítva kell meghatározni.

Igaz azt is mondani, mint Parker (2013), hogy a fent vázolt feltételek nem fordítanak kellő figyelmet a szimulációk alkalmazásának különbözõ és különbözõ céljaira (amint azt a 2.4 pont tárgyalja). Ha egy szimulációt használunk a kvantitatív előrejelzések készítésére a célrendszer jövőbeni viselkedéséről, akkor az ilyen következtetések epistemológiája szigorúbb előírásokat követelhet meg, mint azok, amelyek akkor vonatkoznak, amikor a következtetések egy egész általános, kvalitatív viselkedéséről szólnak. rendszerek osztálya. Valóban azt is mondhatnánk, hogy sokkal több munkát lehetne elvégezni a számítógépes szimulációk céljainak osztályozása és az ezeknek a céloknak az episztemológiájuk szerkezetére gyakorolt korlátozásai alapján.

Frigg és Reiss (2009) azzal érveltek, hogy e három feltétel egyike sem új a számítógépes szimulációban. Azt állították, hogy a szokásos „papír és ceruza” modellezés magában foglalja ezeket a funkciókat. Valójában azt állították, hogy a számítógépes szimuláció nem hozhat fel új epistemológiai kérdéseket, mivel az epistemológiai kérdéseket tisztán fel lehet osztani a szimuláció alapjául szolgáló modell megfelelőségének kérdésére, amely kérdés megegyezik a hétköznapi időszakban felmerülő epistemológiai kérdésekkel. a modellezés és a szimuláció által szolgáltatott modell-egyenletek megoldásának helyességének kérdése, amely matematikai kérdés, és nem a tudomány epistemológiájához kapcsolódik. Az első kérdésben Winsberg (2009b) azt válaszolta, hogy a szimuláció új mindhárom jellemző egyidejű összefolyása. Visszatérünk a 4.3. Pont második pontjához

4.2. EOCS és a kísérlet episztemológiája

Az EOCS-val kapcsolatos munkák egy része analógiákat fejlesztett ki a számítógépes szimulációk között annak érdekében, hogy a kísérlet epistemológiáján a közelmúltban végzett munkára, különösen Allan Franklin munkájára támaszkodjon; lásd a fizikai kísérletek bejegyzését.

A kísérlet epistemológiájával kapcsolatos munkájában Franklin (1986, 1989) számos stratégiát azonosított, amelyeket a kísérletezők használnak az eredmények iránti ésszerű bizalom növelésére. Weissart (1997) és Parker (2008a) az ilyen stratégiák és a szimulátorok rendelkezésére álló számos stratégia különféle formáinak érvelésére hivatkozott az eredmények szankcionálására. Ezeknek a kapcsolatoknak a részletesebb elemzése a Parker 2008a-ban található, ahol ezeket az analógiákat is felhasználja a szimulációs modell kiértékelésének jelenlegi megközelítéseinek gyengeségeinek kiemelésére.

Winsberg (2003) szintén felhasználja Ian Hacking (1983, 1988, 1992) munkáját a kísérlet filozófiájára. Hacking egyik, a kísérlettel kapcsolatos központi betekintését egy olyan szlogenjében rögzíti, hogy a kísérleteknek saját életük van”(1992: 306). Hacking két dolgot közvetített ezzel a szlogennel. Az első reakció a tudomány instabil képével szemben, amely például Kuhnról származik. Hacking (1992) azt sugallja, hogy a kísérleti eredmények stabilak maradhatnak, még a tudomány más részeiben bekövetkező drámai változások ellenére is. A második, kapcsolt szempont, amelyet átadni akart, hogy „a kísérletek szervesek, fejlődnek, megváltoznak, és mégis megtartanak egy bizonyos hosszú távú fejlődést, ami a kísérletek megismétléséről és megismétléséről szól” (1992: 307). Néhány olyan módszer, amelyet a szimulátorok modellek felépítéséhez használnak, hitelesítésre kerülnek nagyjából ugyanúgy, mint Hacking szerint az eszközök és a kísérleti eljárások és módszerek; a hitelesítő adatok hosszabb ideig fejlődnek és mélyen hagyományokhoz kötöttek. Hacking nyelvében a szimulátorok által alkalmazott technikák és feltevések halmozódnak. Talán jobb kifejezés az lenne, ha maguk hordozzák magukat. Ez válaszol a 4.1. Pontban felvetett problémára, miszerint meg kell érteni, hogy a szimuláció miként lehet életképes episztemológiát mutatni annak ellenére, hogy a következtetések motívuma és önállósága jellemzik.a szimulátorok által alkalmazott technikák és feltevések halmozódnak. Talán jobb kifejezés az lenne, ha maguk hordozzák magukat. Ez válaszol a 4.1. Pontban felvetett problémára, miszerint meg kell érteni, hogy a szimuláció miként lehet életképes episztemológiát mutatni annak ellenére, hogy a következtetések motívuma és önállósága jellemzik.a szimulátorok által alkalmazott technikák és feltevések halmozódnak. Talán jobb kifejezés az lenne, ha maguk hordozzák magukat. Ez válaszol a 4.1. Pontban felvetett problémára, miszerint meg kell érteni, hogy a szimuláció miként lehet életképes episztemológiát mutatni annak ellenére, hogy a következtetések motívuma és önállósága jellemzik.

Parker (2008b), egy másik kísérleti filozófus (Mayo 1996) ihlette, javasolja a szimulációs modell kiértékelésének jelenlegi megközelítésében felmerülő hiányosságok orvoslását. Ebben a munkában Parker azt sugallja, hogy Mayo hibaszám-statisztikai megközelítése a hagyományos kísérlet megértéséhez, amely felhasználja a „súlyos teszt” fogalmát, rávilágíthat a szimuláció epistemológiájára. A szimuláció epistemológiájának központi kérdése hibastatisztikai szempontból: „Mi indokolja azt, hogy a számítógépes szimulációt a természeti világgal kapcsolatos hipotézis súlyos próbájának tekintsük? Vagyis mi indokolja azt a következtetést, hogy a szimuláció valószínűtlen olyan eredményeket ad, amelyeket valójában adott, ha az érdeklődés hipotézise hamis (2008b,380)? Parker úgy véli, hogy a szimulációs modell kiértékeléséhez túl soknak hiányzik a szigor és a szerkezet, mivel:

alig több, mint a szimulációs output és a megfigyelési adatok összehasonlítása, kevés kifejezett érveléssel vagy anélkül, hogy ezek az összehasonlítások azt mutatnák, hogy a modell mennyiben képes bizonyítani bizonyos érdekes tudományos hipotéziseket. (2008b, 381)

Kifejezetten Mayo (1996) munkájára támaszkodva azt állítja, hogy ehelyett a szimuláció epistemológiájának kellene emellett ismertetnie a felmerülő „kanonikus hibákat”, valamint stratégiákat jelenlétük igazolására.

4.3 Ellenőrzés és érvényesítés

A szimuláció gyakorlói, különösen a mérnöki kontextusban, a fegyverek tesztelése és az éghajlattudomány területén, hajlamosak az EOCS fogalmának meghatározására az ellenőrzés és validálás szempontjából. A hitelesítésről azt mondják, hogy annak meghatározására szolgál, hogy a szimuláció kimenete közelíti-e az eredeti modell differenciálegyenleteinek valós megoldásait. Az érvényesítésről viszont azt állítják, hogy annak meghatározására szolgál, hogy a választott modell a szimuláció céljából elég jó-e a valós rendszer reprezentációjának. A mérnökök és a tudósok által végzett ellenőrzésre és validálásra vonatkozó irodalom óriási, és a filozófusok máris figyelmet fordítanak rá.

Az ellenőrzés megoldás-ellenőrzésre és kód-ellenőrzésre osztható. Az előbbi ellenőrzi, hogy a tervezett algoritmus kimenete megközelíti-e az eredeti modell differenciálegyenleteinek valós megoldásait. Ez utóbbi ellenőrzi, hogy a megadott kód végrehajtja-e a kívánt algoritmust. A kód ellenőrzését a tudományos filozófusok többnyire figyelmen kívül hagyták; Valószínűleg azért, mert inkább a számítógépes tudomány, mint az empirikus tudomány problémájának tekintik - talán hiba. A megoldás hitelesítésének része a kiszámított output összehasonlítása az analitikus megoldásokkal (úgynevezett „benchmark megoldások”). Noha ez a módszer természetesen elősegítheti a számítógépes szimuláció eredményeit, önmagában nem megfelelő,mivel a szimulációkat gyakran pontosan használják, mivel az analitikai megoldások nem érhetők el az érdeklődésre számot tartó oldat-területeken. Egyéb közvetett technikák állnak rendelkezésre: ezek közül a legfontosabb annak ellenőrzése, hogy a kiszámított output konvergálódik-e stabil megoldássá és milyen mértékben, mivel a diszkretizáló rács időbeli és térbeli felbontása finomabbá válik.

A validálás fő stratégiája a modellkimenet összehasonlítása a megfigyelhető adatokkal. Természetesen ez a stratégia a legtöbb esetben korlátozott, amikor a szimulációkat azért végezzük, mert a megfigyelhető adatok ritkák. De összetett stratégiák is alkalmazhatók, ideértve a szimuláció alrendszereinek kimenetének összehasonlítását a vonatkozó kísérletekkel (Parker, 2013; Oberkampf és Roy 2010).

A hitelesítés és validálás fogalmai kritikát vontak a filozófusoktól. Oreskes et al. Az 1994-ben egy nagyon széles körben idézett cikk elsősorban a terminológiát kritizálta, azzal érvelve, hogy különösen az „érvényesség” olyan tulajdonság, amely csak a logikai érvekre vonatkozik, és hogy ezért a kifejezés modellek esetén túlbizonytalansághoz vezethet..

Winsberg (2010, 2018, 155. o.) Azzal érvelt, hogy a hitelesítés és az érvényesítés közötti fogalmi megoszlás félrevezető lehet, ha arra utalunk, hogy létezik egy olyan módszerkészlet, amely önmagában megmutathatja, hogy megoldottuk az egyenleteket. igaz, és létezik egy másik módszerkészlet is, amely önmagában megmutathatja, hogy megvan a megfelelő egyenlet. Azt is állította, hogy félrevezető azt gondolni, hogy a szimuláció episztemológiája tisztán fel van osztva empirikus részre (hitelesítés) és matematikai (és informatika) részre (hitelesítés). De ez a megtévesztő ötlet gyakran követi a hitelesítés és az érvényesítés tárgyalását. Ezt megtaláljuk mind a gyakorlók, mind a filozófusok munkájában.

Itt van egy gyakorló szakember, Roy szokásos vonala: “Az ellenőrzés a matematikával foglalkozik, és a numerikus megoldás helyességét célozza meg egy adott modellhez. Az érvényesítés viszont a fizikával foglalkozik, és foglalkozik a modell alkalmasságával a kísérleti adatok reprodukciójában. A hitelesítés úgy tekinthető, mintha a választott egyenleteket helyesen oldja meg, míg az érvényesítés elsősorban a megfelelő egyenleteket választja meg”(Roy 2005).

Egyes filozófusok ezt a megkülönböztetést a szimuláció filozófiai újdonságával kapcsolatos érvekre építették. Ezt a kérdést először a 4.1 szakaszban vettem fel, ahol Frigg és Reiss azzal érveltek, hogy a szimulációnak nem lehetnek epistemológiai szempontból új tulajdonságai, mivel két különálló összetevőt tartalmazott: egy olyan komponenst, amely azonos a rendes modellezés epistemológiájával, és egy komponenst, amely teljesen matematikai. „Itt meg kell különböztetnünk a megbízhatóság két különböző fogalmát, válaszolva két különböző kérdést. Először: a számítógép által biztosított olyan megoldások, amelyek elég közel állnak-e a tényleges (de nem elérhető) megoldásokhoz, hasznosak lehetnek?… Ez tisztán matematikai kérdés, és az előzőekben említett problémák osztályába tartozik. Tehát itt filozófiai szempontból nincs semmi új, és a kérdés valóban a szám ropogtatása. Második,a szimulációk alapjául szolgáló számítási modellek helyesen reprezentálják-e a célrendszert? Vagyis a szimulációs eredmények érvényesek-e kívülről? Ez egy komoly kérdés, ám az első problémától független, és olyan kérdés merül fel, amely olyan modellekkel összefüggésben merül fel, amelyek nem tartalmaznak kifogásolható matematikát és rendes kísérleteket”(Frigg és Reiss 2009).

Az ellenőrzés és az érvényesítés azonban szigorúan szólva nem annyira tisztán elválasztható. Ennek oka az, hogy a legtöbb validációs módszer önmagában túl gyenge ahhoz, hogy megállapítsa a szimuláció érvényességét. És a szimulációra kiválasztott legtöbb modell egyenlet nem egyértelmű értelemben „a megfelelő egyenletek”; nem azok a modell-egyenletek, amelyeket egy ideális világban választanánk. Jó okunk van arra, hogy azt gondoljuk, hogy vannak olyan modell-egyenletek, amelyek absztrakt módon jobb empirikus támogatást élveznek. Az általunk választott egyenletek gyakran kompromisszumot tükröznek a jelen szerint legjobban leíró jelenség és a számítási vontathatóság között. Tehát a választott egyenletek ritkán jól érvényesülnek. Ha meg akarjuk érteni, hogy a szimulációs eredmények miért tekinthetők hitelesnek,a szimuláció epistemológiáját, mint egy integrált egészet, nem annyira tisztán elosztva hitelesítésre és validálásra kell tekinteni, amelyek önmagukban elégteleneknek tűnnek a feladat szempontjából.

Tehát az egyik pont az, hogy az ellenőrzés és az érvényesítés nem önállóan sikeres és elválasztható tevékenységek. A másik lényeg az, hogy nincs két független entitás, amelyre ezek a tevékenységek irányíthatók: egy modell, amelyet a diszkretizálásra választottak, és egy módszert annak diskretizálására. Miután felismertük, hogy a „megoldandó” egyenleteket néha úgy választják meg, hogy kiküszöböljék a diszkretizációs hibákat stb. (A Lenhard 2007 nagyon szép példát mutat erre az Arakawa operátor bevonásával), ezt a későbbi megkülönböztetést nehezebb fenntartani. Tehát a siker a szimulációban érhető el egyfajta oda-vissza, próba-és hiba, részleges módosítással a modell és a számítási módszer között. És amikor ez a helyzet, nehéz még azt sem tudni, mit jelent mondani, hogy a szimulációt külön ellenőrzik és validálják.

Senki sem vitatta, hogy a V&V nem hasznos megkülönböztetés, hanem hogy a tudósoknak nem szabad túl gyakorlatilag hasznos megkülönböztetést befújniuk egy tiszta módszertani diktátumba, amely félreértelmezi saját gyakorlatuk rendetlenségét. Ezzel együtt Frigg és Reiss érvelése, miszerint az episztemológiai újdonság nem létezik a szimulációban, kudarcot vall. Nem „tisztán matematikai kérdés”, hogy a számítógép által biztosított megoldások elég közel állnak-e a tényleges (de nem elérhető) megoldásokhoz, hogy hasznosak-e. Legalább ebben a tekintetben: egy kérdésre nem lehet választ adni, mint gyakorlati kérdést, teljes mértékben matematikai módszerekkel. Ezért empirikus / episztemológiai kérdés, amely a szokásos modellezés során nem merül fel.

4.4. EOCS és episztemikus jogosultság

A szokásos (a tudomány filozófiáján kívüli) episztemológia egyik fő iránya annak hangsúlyozása, hogy mennyire feltétele annak a tudásnak a lehetősége, hogy érzékeinkre és más emberek bizonyságára támaszkodunk oly módon, amit nem tudunk igazolni. Tyler Burge (1998, 1998) szerint a két folyamat eredményébe vetett hit indokolt, de nem igazolható. Burge szerint inkább jogosultak vagyunk ezekre a hitekre. „Más dolgokra egyenlő módon támaszkodhat az észlelésre, az emlékezetre, a deduktív és induktív érvelésre és a mások szavára” (1993, 458. oldal). Azok a hitek, amelyekre a hívõnek joga van, azok, amelyeket a hívõ rendelkezésére álló bizonyítékok nem támasztanak alá, ám a hívõnek mindazonáltal indokolt a hinni.

Az EOCS-ban végzett munkák során analógiákat fejlesztettek ki a számítógépes szimuláció és a Burge által a jogosultsággal társított tudástermelési gyakorlatok között. (Lásd különösen: Barberousse és Vorms, 2014 és Beisbart, 2017.) Ez bizonyos értelemben Burge érveinek természetes kinövése, miszerint a számítógépes bizonyítékokat ilyen módon tekintjük (1998). A számítógépes szimulációk rendkívül bonyolultak, gyakran a tudósok és más szakemberek sokszínűségének szisztematikus megmunkálásából származnak, és ami a legfontosabb, episztemikusan átlátszó (Humphreys, 2004). Ezen tulajdonságok miatt Beisbart azt állítja, hogy ésszerű úgy kezelni a számítógépes szimulációkat, mint az érzékeinket és mások bizonyságát: egyszerűen olyan dolgokként, amelyekben megbízható, ha feltételezzük, hogy minden zavartalanul mûködik. (Beisbart, 2017).

Symons és Alvarado (2019) szerint az EOCS-hoz hasonló megközelítés alapvetõ problémát jelent, és ennek a számítógéppel támogatott bizonyíték olyan tulajdonságával kell együtt járnia, amely döntõ jelentõséggel bírt Burge eredeti beszámolójában: az, hogy „átlátszó szállítószalag”. „Nagyon fontos megjegyezni, hogy például Burge beszámolója a tartalom megőrzéséről és az átlátható továbbításról megköveteli, hogy a címzettnek már legyen oka a forrás megkérdőjelezésére” (13. oldal). De Symons és Alvarado rámutat a számítógépes szimulációk sok tulajdonságára (a Winsberg 2010 és a Ruphy 2015 rajzából), amelyek miatt ezeknek a tulajdonságoknak nem állnak rendelkezésre. A Lenhard és Küster 2019 szintén releváns itt,mivel azt állítják, hogy a számítógépes szimulációnak számos olyan tulajdonsága van, amelyek megnehezítik azok reprodukálását, és ezért aláássák azt a stabilitást, amelyre szükség lenne, hogy átlátszó szállítószalagok legyenek. Ezen okok miatt, valamint a 4.2. És a 4.3. Pontban tárgyalt jellemzőkkel összefüggő okok miatt Symons és Alvarado úgy vélik, hogy hihetetlen, hogy a számítógépes szimulációt alapvető episztatikus gyakorlatnak tekintsük, hasonlóan az érzékelés, a memória, a bizonyságtétel vagy hasonló.

4.5 Az EOCS gyakorlati megközelítései

Az EOCS másik megközelítése az, hogy a modellezés és a szimuláció alkotásának gyakorlati vonatkozásaiban alapozza meg. E vélemény szerint más szavakkal, amikor a számítógépes szimulációs tanulmányok eredményeinek meggyőződésének okát adhatjuk legjobban, az lehet, hogy bízunk az őket használó modellezők gyakorlati készségeiben és kézművesében. Jó példa az ilyen típusú számlákra (Hubig és Kaminski, 2017). Az ilyen fajta munka epistemológiai célja az, hogy a szimulációkkal szembeni bizalom helyét azonosítsuk a modellezés és a szimuláció kézműves gyakorlati szempontjain, nem pedig a modellek bármely jellemzőjén. (Resch és mtsai, 2017) azzal érvelnek, hogy annak az oknak a jó része, amelyben megbíznunk kell a szimulációkat, nem maguk a szimulációk,hanem azoknak az értelmező művészi képessége miatt, akik a művészetet és a szimulációs outputok értelmezésére szolgáló készségüket alkalmazzák Symons és Alvarado (2019) szintén kritikussá teszik ezt a megközelítést, azzal érvelve, hogy „A számítógépes szimuláció epistemológiájának feladata részben az, hogy megmagyarázza a kortárs tudósok helyzetének különbségét az episztatikailag átlátszatlan számítógépes szimulációkkal szemben.” (7. o.)) és a hívõk mechanikai oraklusának az oraklussal való kapcsolatában. A pragmatikus és az episztatikus megfontolások Symons és Alvarado szerint egymás mellett léteznek, és nem képesek versenytársaknak a szimulációkba vetett bizalmunk helyes magyarázatához - az episztatikus okok a végsőek, amelyek magyarázzák és megalapozzák a gyakorlati szempontokat.azzal érvelve, hogy „a számítógépes szimuláció epistemológiájának egyik feladata az, hogy megmagyarázza a kortárs tudósok álláspontja közötti különbséget az episztatikailag átlátszatlan számítógépes szimulációk vonatkozásában.” (7. o.) és a mechanikus orákulum oraklushoz viszonyított hívõi között. A pragmatikus és az episztatikus megfontolások Symons és Alvarado szerint egymás mellett léteznek, és nem képesek versenytársaknak a szimulációkba vetett bizalmunk helyes magyarázatához - az episztatikus okok a végsőek, amelyek magyarázzák és megalapozzák a gyakorlati szempontokat.azzal érvelve, hogy „a számítógépes szimuláció epistemológiájának egyik feladata az, hogy megmagyarázza a kortárs tudósok álláspontja közötti különbséget az episztatikailag átlátszatlan számítógépes szimulációk vonatkozásában.” (7. o.) és a mechanikus orákulum oraklushoz viszonyított hívõi között. A pragmatikus és az episztatikus megfontolások Symons és Alvarado szerint egymás mellett léteznek, és nem képesek versenytársaknak a szimulációkba vetett bizalmunk helyes magyarázatához - az episztatikus okok a végsőek, amelyek magyarázzák és megalapozzák a gyakorlati szempontokat.és nem képesek versenytársak a szimulációkba vetett bizalmunk helyes magyarázatáért - az episztemikus okok a végső magyarázatok és megalapozzák a gyakorlati érveket.és nem képesek versenytársak a szimulációkba vetett bizalmunk helyes magyarázatáért - az episztemikus okok a végső magyarázatok és megalapozzák a gyakorlati érveket.

5. Szimuláció és kísérlet

A dolgozó tudósok néha kísérleti jelleggel írják le a szimulációs vizsgálatokat. A szimuláció és a kísérlet közötti kapcsolat valószínűleg akkor nyúlik vissza, amikor von Neumann, aki, amikor a számítógépek fizikában való használatának nagyon korai kezdeményezésére támogatta, rámutatott, hogy sok nehéz kísérletet pusztán a tények meghatározása céljából kellett elvégezni, amelyek elvileg az elméletből származtatható. Amint von Neumann víziója valósággá vált, és ezeknek a kísérleteknek néhány részét szimulációk váltották fel, kissé természetes lett a kísérlet verziójaként tekinteni őket. Reprezentatív részlet található egy népszerű, a szimulációról szóló könyvben:

A komplex jelenséget pontosan utánozó szimuláció rengeteg információt tartalmaz a jelenségről. A szuperszámítógép több ezer ponton értékeli azokat a változókat, mint a hőmérséklet, nyomás, páratartalom és a szélsebesség, mivel például a vihar kialakulását szimulálja. Az ilyen adatok, amelyek messze meghaladják az időjárási léggömbök flottajának elindításával nyerhető információkat, közeli részletekkel fedik fel a viharfelhőben zajló eseményeket. (Kaufmann és Smarr 1993, 4)

Az „in silico” kísérletek elképzelése még inkább hihetővé válik, ha egy szimulációs tanulmány célja annak megtanulása, hogy mi történik egy rendszerrel különféle lehetséges beavatkozások eredményeként: Mi történne a globális éghajlattal, ha x mennyiségű szén adódna hozzá a légkörhez ? Mi fog történni ezzel a repülőgép szárnyával, ha ilyen és ilyen terhelésnek van kitéve? Hogyan változhatna a forgalom mintája, ha ebbe a helybe be van építve egy rámpán?

Következésképpen a filozófusok elkezdték fontolóra venni, hogy a számítógépes szimulációk milyen értelemben vett kísérletekhez tartoznak, ha vannak ilyenek, és milyen értelemben különböznek egymástól. Kapcsolódó kérdés az a kérdés, mikor számít mérésnek egy olyan folyamat, amely alapvetően magában foglalja a számítógépes szimulációt (Parker, 2017). Az irodalomban számos nézet alakult ki, amelyek két tézis megvédésére és kritikájára összpontosítanak:

Az identitás tézis. A számítógépes szimulációs tanulmányok szó szerint a kísérletek példái.

Az episztemológiai függőség tézise. Az identitási tézis (ha igaz) jó oka (gyenge verzió), vagy a legjobb ok (erősebb verzió), vagy egyetlen ok (legerősebb verzió; ez egy szükséges feltétel) úgy gondolja, hogy a szimulációk garantálhatják a hit az általuk alátámasztott hipotézisekben. A legerősebb változat következménye, hogy csak akkor, ha az identitási tézis igaz, akkor feltételezhető, hogy a szimulációk indokolhatják a hipotézisekbe vetett hitet.

Az episztemológiai függőség tézisének központi gondolata az, hogy a kísérletek azok a kanonikus entitások, amelyek központi szerepet játszanak a tudományos hipotézisekbe vetett hitünk megalapozásában, és ezért annak a mértékének, amelyre gondolnunk kell, hogy a szimulációk szerepet játszhatnak-e az ilyen hitek megalapozásában. attól függ, hogy milyen mértékben azonosíthatók egyfajta kísérletként.

Megtalálhatók filozófusok, akik az identitási tézis mellett vitatkoznak, már Humphreys 1995 és Hughes 1999. És legalábbis implicit módon támogatják a Hughes epistemológiai függési tézisének (erősebb) változatát. Az episztemológiai függőség tézisének legkorábbi kifejezett érve azonban a Norton and Suppe 2001-ben található. Norton és Suppe szerint a szimulációk pontosan igazolhatják a meggyőződést, mivel azok szó szerint kísérletek. Részletes történetük van arról, hogy elmondják, milyen értelemben kísérletek, és hogy ennek miként kell működnie. Norton és Suppe szerint egy érvényes szimuláció az, amelyben bizonyos formális kapcsolatok (amit „megvalósításnak” hívnak) fennállnak az alapmodell, a modellezett fizikai rendszer és az algoritmust futtató számítógép között. Ha a megfelelő feltételek teljesülnek,„A szimuláció eszközként használható valós jelenségek felmérésére vagy felderítésére. A valós jelenségekkel kapcsolatos empirikus adatok előállítása kísérleti kontroll körülmények között történik”(73. oldal).

A történet egyik problémája az, hogy az általuk megfogalmazott formális feltételek túl szigorúak. Nem valószínű, hogy nagyon sok valódi számítógép-szimuláció létezik, amelyek megfelelnek szigorú szabványaiknak. A szimuláció szinte mindig sokkal idealizálóbb és közelítőbb vállalkozás. Tehát, ha a szimulációk kísérletek, akkor valószínűleg nem olyan, mint ahogyan Norton és Suppe elképzelte.

Általánosabban fogalmazva, az identitási tézis más területeket is felvette.

Gilbert és Troitzsch azzal érveltek, hogy „[a] legfontosabb különbség az, hogy míg egy kísérletben a tényleges érdeklődés tárgyát irányítják (például egy kémiai kísérletben a vizsgált vegyi anyagok), a szimulációban pedig egy inkább a modell, mint maga a jelenség.” (Gilbert és Troitzsch 1999, 13). De ez nem tűnik helyesnek. Sokan (Guala 2002, 2008, Morgan 2003, Parker 2009a, Winsberg 2009a) rámutattak a követeléssel kapcsolatos problémákra. Ha Gilbert és Troitzsch azt jelenti, hogy a szimulátusok az absztrakt objektumok értelmében manipulálják a modelleket, akkor az állítást nehéz megérteni - hogyan lehet az absztrakt entitásot manipulálni? Ha viszont egyszerűen azt akarják mutatni, hogy a fizikai objektum, amellyel a szimulátorok manipulálnak - egy digitális számítógép, nem a tényleges érdeklődés tárgya,akkor nem világos, hogy ez miért tér el a szokásos kísérletektől.

Hamis, hogy a valódi kísérletek mindig pontosan manipulálják az érdeklődés célját. Valójában, mind a valódi kísérletekben, mind a szimulációkban, összetett kapcsolat van egyrészt a nyomozás során manipulált, másrészt a valós rendszerek között, amelyek a vizsgálat tárgyát képezik. Ezért mind a kísérlet, mind a szimuláció esetében valamilyen anyag érvelésére van szükség a vizsgálat „külső érvényességének” megállapításához - annak megállapításához, hogy a manipulált rendszerről tanultak alkalmazhatók-e az érdeklődéses rendszerre. Mendel például a borsónövényeket manipulálta, de érdekli, hogy megismerje az örökölhetőség jelenségét. A biológiai biológiai modellezés gondolata átláthatóvá teszi ezt az ötletet. Kísérleteinkkel a Caenorhabditis elegans-okat vizsgáljuk, mert érdekli, hogy megértsük, hogyan használják az organizmusok általában a géneket a fejlődés és a genealógia szabályozására. Kísérleteinkben a Drosophila melanogaster-et vizsgáljuk, mivel hasznos modellt nyújt a mutációk és a genetikai öröklés szempontjából. De az ötlet nem korlátozódik a biológiára. Galileo hajlított síkkal kísérletezett, mert érdekli, hogy az objektumok hogyan esnek le, és hogyan viselkednek azok a zavaró erők hiányában - jelenségek, amelyeket a dőlésszögű sík kísérletek valójában még nem váltottak ki. Galileo hajlított síkkal kísérletezett, mert érdekli, hogy az objektumok hogyan esnek le, és hogyan viselkednek azok a zavaró erők hiányában - jelenségek, amelyeket a dőlésszögű sík kísérletek valójában még nem váltottak ki. Galileo hajlított síkkal kísérletezett, mert érdekli, hogy az objektumok hogyan esnek le, és hogyan viselkednek azok a zavaró erők hiányában - jelenségek, amelyeket a dőlésszögű sík kísérletek valójában még nem váltottak ki.

A kísérletekkel kapcsolatos ez a vélemény természetesen nem vitatott. Igaz, hogy a kísérletezők meglehetősen gyakran következtetnek valamire egy olyan rendszerről, amely különbözik attól a rendszertől, amelyben zavarják. Nem világos azonban, hogy ez a következtetés az eredeti kísérlet megfelelő része. Peschard (2010) kritikát emel ezen a vonalon, és ezért Gilbert és Troitzsch védelmezőjének tekinthető. Peschard szerint a kritikusok alapvető feltételezése, miszerint a kísérletezésben, akárcsak a szimulációban, a manipulált rendszer egy célrendszer számára álló rendszer, összetéveszthető. Összezavarja - peschard szerint - a kísérlet episztemikus célpontját összetévesztve episztemikus motivációjával. Azt állítja, hogy bár a C. elegans-kal végzett kísérletek episztatikus motivációja nagyon messze eshet,az ilyen kísérletek megfelelő episztemikus célpontja maga a féreg. Peschard szerint egy szimulációban az episztemikus cél soha nem maga a digitális számítógép. Így tehát a szimuláció abban különbözik a kísérletektől, hogy episztemikus célpontja (ellentétben pusztán episztemikus motivációjával) különbözik a manipulálandó tárgytól. Roush (2017) a Gilbert és Troitzsch vonal védelmezőjének is tekinthető, ám Roush a természetes fajta hasonlóságra hivatkozik, mint a kísérletek és a szimulációk szétválasztásának kritikus elemére. Az identitási tézis további ellenzői: Giere (2009) és Beisbart és Norton (2012, Egyéb internetes források).abban a tekintetben, hogy episztemikus célpontja (ellentétben pusztán episztemikus motivációjával) különbözik a manipulálandó tárgytól. Roush (2017) a Gilbert és Troitzsch vonal védelmezőjének is tekinthető, ám Roush a természetes fajta hasonlóságra hivatkozik, mint a kísérletek és a szimulációk szétválasztásának kritikus elemére. Az identitási tézis további ellenzői: Giere (2009) és Beisbart és Norton (2012, Egyéb internetes források).abban a tekintetben, hogy episztemikus célpontja (ellentétben pusztán episztemikus motivációjával) különbözik a manipulálandó tárgytól. Roush (2017) a Gilbert és Troitzsch vonal védelmezőjének is tekinthető, ám Roush a természetes fajta hasonlóságra hivatkozik, mint a kísérletek és a szimulációk szétválasztásának kritikus elemére. Az identitási tézis további ellenzői: Giere (2009) és Beisbart és Norton (2012, Egyéb internetes források). Egyéb internetes források). Egyéb internetes források).

Nem világos, hogy miként kell ezt a vitát eldönteni, és úgy tűnik, hogy elsősorban a hangsúly különbsége körül mozog. Hangsúlyozhatjuk a kísérlet és a szimuláció közötti különbséget, Gilbert, Troitzsch és Peschard nyomán, azzal, hogy ragaszkodnak ahhoz, hogy a kísérletek mindenekelőtt megtanítsák az episztemikus célokat, és csak másodlagosan tegyék lehetővé a más rendszerek viselkedésének következtetéseit. (Vagyis a férgekkel végzett kísérletek elsősorban a férgekről tanítanak bennünket, és csak másodlagosan teszik lehetővé a genetikai védekezés általánosabb következtetéseit.) Ez fogalmilag különbséget tenné a számítógépes szimulációkkal, amelyekről azt gondolják, hogy nem tanítanak minket, először a számítógépek viselkedéséről, másodszor a viharokról, galaxisokról vagy bármi másról.

Vagy ellentétesen hangsúlyozhatja a hasonlóságot. Ki lehet emelni azt a mértéket, ameddig a kísérleti célokat mindig választják helyettesítőknek annak érdekében, ami valóban érdekes. Morrison, 2009 valószínűleg a legerőteljesebb védő, aki hangsúlyozza a kísérlet és a szimuláció hasonlóságának ezt a aspektusát. Azt állítja, hogy a legtöbb kísérleti gyakorlat, sőt a legtöbb mérési gyakorlat ugyanolyan modellezési gyakorlatokat foglal magában, mint a szimulációk. Mindenesetre, ütemezve Peschard-ot, csak a nómenklatúráról szóló vita - és talán fellebbezés a tudósok szokásos nyelvhasználatához; Nem mindig a legmeggyőzőbb érv - megakadályozná, hogy azt mondjuk, hogy a vihar szimuláció episztemikus célja a számítógép, és hogy a vihar csupán a számítógép tanulmányozásának episztatikus motivációja.

Akárhogy is is van, sok szimulációs filozófus, beleértve az ebben a szakaszban tárgyaltokat, az utóbbi utat választotta - részben arra, hogy felhívja a figyelmet azokra a módokra, amelyekkel a Gilbert és Troitzsch idézett állítása mögött rejlő üzenet túlságosan egyszerűsített képet ábrázol a kísérlet. Túl túlságosan egyszerűnek tűnik egy olyan képet festeni, amely szerint a kísérlet közvetlenül megfogja a világot, míg a szimuláció helyzete pontosan ellentétes. És ez a kép tűnik a Gilber és Troitzsch idézetből. Peschard kifinomultabb képe, amely megkülönbözteti az episztatikus célokat és az episztatikus motivációkat, hosszú utat eredményez ezen aggályok eloszlatása érdekében anélkül, hogy arra kényszerítenénk bennünket, hogy azt gondoljuk, hogy a szimuláció és a kísérlet pontosan ugyanaz.

Mindazonáltal, annak ellenére, hogy elutasította Gilbert és Troitzsch jellemzését a szimuláció és a kísérlet közötti különbségről, Guala és Morgan egyaránt elutasítják az identitási tézist. Simon (1969) munkájára támaszkodva Guala azt állítja, hogy a szimulációk alapvetően különböznek a kísérletektől, mivel egy kísérletben a manipuláció tárgya lényeges hasonlóságot mutat az érdeklődés céljával, de egy szimulációban az objektum és a cél közötti hasonlóság csupán hivatalos. Érdekes módon, miközben Morgan elfogadja ezt az érvet az identitási tézis ellen, úgy tűnik, ő tartja fenn az episztemológiai függőségi tézis egyik változatát. Más szavakkal:hogy a Guala által azonosított kísérletek és a szimulációk közötti különbség azt vonja maga után, hogy a szimulációk episztemológiai szempontból alacsonyabbak a valós kísérleteknél - hogy azok lényegében kevesebb energiával rendelkeznek ahhoz, hogy indokolják a valós hipotézisekbe vetett hitet, mivel nem kísérletek.

A szimulációk episztatikus erejének védelme Morgan (2002) érvelésével szemben az identitási tézis védelme, vagy az episztemológiai függõségi tézis elutasítása formájában jelentkezhet. Az előbbi oldalról két probléma tűnik Guala (2002) identitási tézis elleni érvelésével. Az egyik az, hogy az anyagi hasonlóság itt túl gyenge, a második az, hogy a puszta formális hasonlóság túl homályos a szükséges munka elvégzéséhez. Vegyük például azt a tényt, hogy a mérnöki tudományokban nem ritka, hogy szimulációs módszereket alkalmazunk a szilíciumból elõállított rendszerek viselkedésének tanulmányozására. A mérnök meg akarja tanulni a szilíciumkészülék különböző tervezési lehetőségeinek tulajdonságait,így kidolgozza az eszköz számítási modelljét, és a viselkedésének szimulálását végzi digitális számítógépen. A számítógép központi processzora és a vizsgált szilikon eszköz között mély anyagi hasonlóságok vannak, és ugyanazon anyagi okok vannak működésben. Guala érvelésében ezt egy valódi kísérlet példájává kell tenni, de ez helytelennek tűnik. A példa sajátosságai meglehetõsen szemléltetik a problémát, de a probléma valójában meglehetõsen általános: bármelyik két rendszernek vannak bizonyos anyagi hasonlóságai és bizonyos különbségek.ennek meg kell jelölnie ezt egy valódi kísérlet példájaként, de ez helytelennek tűnik. A példa sajátosságai meglehetõsen szemléltetik a problémát, de a probléma valójában meglehetõsen általános: bármelyik két rendszernek vannak bizonyos anyagi hasonlóságai és bizonyos különbségek.ennek meg kell jelölnie ezt egy valódi kísérlet példájaként, de ez helytelennek tűnik. A példa sajátosságai meglehetõsen szemléltetik a problémát, de a probléma valójában meglehetõsen általános: bármelyik két rendszernek vannak bizonyos anyagi hasonlóságai és bizonyos különbségek.

Parke (2014) az episztemológiai függőségi tézis ellen azzal érvel, hogy aláásja két állítását, amely véleménye szerint támogatja: ököl, hogy a kísérletek nagyobb következtetési erőt generálnak, mint a szimulációk, és másodszor, hogy a szimulációk nem tudnak meglepni minket, ahogyan a kísérletek.

A másik oldalról fogalmilag zavart az az elképzelés, miszerint a két anyagi entitás közötti formális hasonlóság bármi érdekeset megjelölhet. Bármely két kellően összetett entitás figyelembevételével számos módon formálisan azonosak lehetnek, nem is beszélve hasonlóról. Vannak olyan módok is, amelyekkel formálisan teljesen különböznek egymástól. Most lazán beszélhetünk, és azt mondhatjuk, hogy két dolognak van formális hasonlósága, de valójában azt értjük, hogy a két entitás legjobb formális reprezentációi formális hasonlóságokkal rendelkeznek. Mindenesetre indokoltnak tűnik a Gilbert és a Troitzsch, valamint a Morgan és a Guala okok elutasítása a kísérletek és szimulációk megkülönböztetésére.

Visszatérve a szimulációk episztemikus erejének védelméhez, az ok az episztemológiai függési tézis elutasítására is indokolt. Mint Parker (2009a) rámutat, mind a kísérletben, mind a szimulációban releváns hasonlóságok lehetnek a számítógépes szimulációk és a célrendszerek között, és ez számít. Ha a vonatkozó háttér-tudás megvan, a szimuláció megbízhatóbb ismereteket nyújthat a rendszerről, mint egy kísérlet. A Naprendszer számítógépes szimulációja, amely az égi dinamika legfejlettebb modelljein alapul, jobban ábrázolja a bolygók pályáját, mint bármelyik kísérlet.

Parke (2014) az episztemológiai függőségi tézis ellen azzal érvel, hogy aláásja két állítását, amely véleménye szerint támogatja: ököl, hogy a kísérletek nagyobb következtetési erőt generálnak, mint a szimulációk, és másodszor, hogy a szimulációk nem tudnak meglepni minket, ahogyan a kísérletek. Az az érv, hogy a szimulációk nem tudnak meglepni minket, Morgan-tól származik (2005). Parce Pace Morgan szerint a szimulátort gyakran meglepik a szimulációik, mindkettő azért van, mert nem számítástechnikailag mindentudók, és mivel nem mindig képesek az általuk használt modellek és kódok alkotói. Azt állítja továbbá, hogy „[ha] a kutatók episztatikus állapotaiban való önmagában való hivatkozások helytelen oknak tűnnek a kísérlet és a szimuláció közötti különbségtétel nyomon követésére” (258). Adrian Curry (2017) két barátságos módosítással védi Morgan eredeti intuícióját. Azt állítja, hogy a Morgan valódi megkülönböztetése kétféle meglepetés között volt, és különösen ami a meglepetés forrása: a meglepetés, amely az elméleti ismereteknek a világgal való kapcsolatba hozatala miatt megkülönbözteti a kísérletet. A meglepetést alaposabban határozza meg nem pszichológiai módon, úgy, hogy ez egy „minõség, amelynek elérése valódi episztemikus haladást jelent” (640. oldal).

6. Számítógépes szimuláció és a tudományos elméletek felépítése

Paul Humphreys (2004) azzal érvelt, hogy a számítógépes szimulációk mély hatással vannak az elméletek felépítésének megértésére; állítása szerint hiányosságokat tártak fel a tudományos elméletek szemantikai és szintaktikai nézeteivel egyaránt. Ez az állítás éles tüzet váltott ki Roman Frigg és Julian Reiss (2009) részéről. Frigg és Reiss azzal érvelnek, hogy az, hogy egy modell elismeri-e az analitikai megoldást, nincs hatással arra, hogy hogyan viszonyul a világhoz. Ezt a kettős inga példájával mutatják be. Az, hogy az inga belső hajtóereje rögzített-e vagy sem (az a tény, amely meghatározza, hogy a releváns modell analitikusan megoldható-e), nincs hatással a modell elemeinek szemantikájára. Ebből arra a következtetésre jutnak, hogy a modell szemantikáját vagy annak a világhoz való viszonyát nem befolyásolja az, hogy a modell analitikusan megoldható-e vagy sem.

Ez azonban nem reagált a Humphreys által mutatott legszerencsésebb olvasmányra. Az elméletek szintaktikai és szemantikai szemlélete végül nemcsak arról szól, hogy absztrakt tudományos reprezentációink hogyan kapcsolódnak a világhoz. Pontosabban, nem az egyes modellek és a világ viszonyairól szóltak, hanem inkább az elméletek és a világ közötti kapcsolatról, valamint arról a szerepről, amelyet a modellek ebben a kapcsolatban játszottak.

Olyan történetek voltak, amelyeknek nagyon sok mondanivalója volt arról, hogy a filozófiai szempontból érdekes fellépés mikor vonatkozik a tudományos elméletre. A szintaktikai nézet azt sugallta, hogy a tudományos gyakorlat megfelelő módon ésszerűen rekonstruálható az elméletek axiomatikus rendszerekként való gondolkodásával, és ami még ennél is fontosabb, hogy a logikai következtetés hasznos szabályozási eszmény volt annak elképzelésére, hogy az elmélet és a világ következtetéseit vonják le. A szintaktikai nézet mulasztással azt is meglehetősen világossá tette, hogy a modellezés, ha csakis, csak heurisztikus szerepet játszott a tudományban. (Ez az elméletek szintaktikai szemléletének jellemzője volt, amelyet Frederick Suppe, az egyik legerősebb kritikája gyakran ellensúlyozott.) Maguknak az elméleteknek semmi köze a modellekhez, és az elméletek közvetlenül összehasonlíthatók a világgal, fontos szerep nélkül a játék modellezéséhez.

Az elméletek szemantikai szemlélete viszont hangsúlyozta a modellek fontos szerepét, ugyanakkor sürgette, hogy az elméletek nem nyelvi entitások. Arra szólította fel a filozófusokat, hogy ne kerüljenek figyelmen kívül az adott nyelvi kifejezés bizonyos formájának kontingenciái, amelyek szerint az elmélet megtalálható például egy adott tankönyvben.

A számítógépes szimulációk azonban úgy tűnik, hogy megmutatják, hogy mindkét téma félrevezető volt. Teljesen téves volt azt gondolni, hogy a logikus dedukció volt a megfelelő eszköz az elmélet alkalmazásának racionális rekonstruálására. A számítógépes szimulációk azt mutatják, hogy vannak olyan elméleti alkalmazási módszerek, amelyek jelentősen meghaladják a logikai dedukció következtetési erejét. A megoldások területe, amely például a folyadékok elméletéből logikai következtetéssel érhető el, mikroszkopikus, összehasonlítva az alkalmazások területével, amelyet számítógépes szimulációval lehet feltárni. Ami a legfontosabb oldalt illeti, úgy tűnik, hogy a számítógépes szimulációk azt mutatják, hogy amint Humphreys (2004) sürgette, a szintaxis számít. Kiderült, hogy helytelen volt azt állítani, ahogyan a szemantikai nézet azt állította, hogy a tudományos elmélet kifejezésének sajátos nyelvi formája filozófiai szempontból érdektelen. Az elmélet kifejezésének szintaxisa mély hatást gyakorol arra, hogy mi következtetéseket vonhat le belőle, milyen idealizációk jól működnek vele stb. Humphreys a következőképpen fogalmaz: „A használt szintaktikai reprezentáció gyakran döntő jelentőségű a az elmélet egyenleteinek oldhatósága”(Humphreys 2009, 620. oldal). A folyadékok elmélete felhasználható ennek a pontnak a hangsúlyozására: az, hogy az elméletet euéria vagy lagrangi formában fejezzük-e ki, mélyen befolyásolja azt, amit a gyakorlatban kiszámíthatunk és hogyan; befolyásolja, hogy az idealizációk, közelítések és számítási technikák milyen körülmények között lesznek hatékonyak és megbízhatók. Tehát a számítógépes szimuláció epistemológiájának érzékenynek kell lennie az elmélet adott szintaktikai megfogalmazására és arra, hogy az adott megfogalmazás mennyire hitelesített. Ennélfogva,helyénvaló hangsúlyozni, amint azt Humphreys (2004) is tette, hogy a számítógépes szimulációk mind a szintaktikai, mind a szemantikai elméletekben hiányosságokat tártak fel.

7. Felmerülés

Paul Humphreys (2004) és Mark Bedau (1997, 2011) azzal érveltek, hogy a megjelenés témája iránt érdeklődő filozófusok sokat tanulhatnak számítógépes szimulációval. A téma iránt érdeklődő filozófusoknak olvassa el a felmerülő tulajdonságokkal foglalkozó bejegyzését, ahol megvitatják e filozófusok hozzájárulásait.

A megjelenés és a szimuláció közötti kapcsolatot talán legjobban Bedau írta (2011). Bedau azzal érvelt, hogy a megjelenés bármilyen koncepciójának meg kell felelnie annak a kettős vonásnak, hogy elmagyarázza, hogy az egész mennyire függ a részeitől és hogy az egész független részei. Azt állítja, hogy a filozófusok gyakran arra összpontosítanak, amit „erős” megjelenésnek hívnak, amely bruttó lefelé okozati összefüggést jelent, amely elvileg megismételhetetlen. De azt állítja, hogy ez egy hiba. Ehelyett arra összpontosít, amit „gyenge” megjelenésnek hív, amely elvileg lehetővé teszi a teljes személyek részekre való visszavezethetőségét, de nem a gyakorlatban. A kialakuló tulajdonságokat előállító rendszerek pusztán mechanizmusok, de a mechanizmusok nagyon bonyolultak (nagyon sok egymástól függetlenül kölcsönhatásba lépő részük van). Ennek eredményekéntnincs mód arra, hogy pontosan kitaláljuk, mi fog történni egy adott kezdeti és határfeltétel esetén, kivéve: „az okozati háló feltérképezése”. Itt jön létre a kapcsolat a számítógépes szimulációval. A gyengén megjelenő tulajdonságok jellemzőek a komplex rendszerekre a természetben. A bonyolult számítógépes szimulációkra is jellemző, hogy nem lehet megjósolni, mit fognak tenni, kivéve, hogy engedjék futni. A gyenge megjelenés magyarázza Bedau szerint, hogy a számítógépes szimulációk miért játszanak központi szerepet a komplex rendszerek tudományában. A valódi komplex rendszerek viselkedésének megértésére és előrejelzésére az a legjobb módszer, ha a mikro-okozati háló becsavarásával szimuláljuk őket, és megnézhetjük, mi történik. A gyengén megjelenő tulajdonságok jellemzőek a komplex rendszerekre a természetben. A bonyolult számítógépes szimulációkra is jellemző, hogy nem lehet megjósolni, mit fognak tenni, kivéve, hogy engedjék futni. A gyenge megjelenés magyarázza Bedau szerint, hogy a számítógépes szimulációk miért játszanak központi szerepet a komplex rendszerek tudományában. A valódi komplex rendszerek viselkedésének megértésére és előrejelzésére az a legjobb módszer, ha a mikro-okozati háló becsavarásával szimuláljuk őket, és megnézhetjük, mi történik. A gyengén megjelenő tulajdonságok jellemzőek a komplex rendszerekre a természetben. A bonyolult számítógépes szimulációkra is jellemző, hogy nem lehet megjósolni, mit fognak tenni, kivéve, hogy engedjék futni. A gyenge megjelenés magyarázza Bedau szerint, hogy a számítógépes szimulációk miért játszanak központi szerepet a komplex rendszerek tudományában. A valódi komplex rendszerek viselkedésének megértésére és előrejelzésére az a legjobb módszer, ha a mikro-okozati háló becsavarásával szimuláljuk őket, és megnézhetjük, mi történik. A valódi komplex rendszerek viselkedésének megértésére és előrejelzésére az a legjobb módszer, ha a mikro-okozati háló becsavarásával szimuláljuk őket, és megnézhetjük, mi történik. A valódi komplex rendszerek viselkedésének megértésére és előrejelzésére az a legjobb módszer, ha a mikro-okozati háló becsavarásával szimuláljuk őket, és megnézhetjük, mi történik.

8. Fikciók

A modellek természetesen idealizációkat tartalmaznak. Azt vitatják, hogy az idealizálás bizonyos fajtái, amelyek különösen kiemelkedő szerepet játszanak a számítógépes szimulációban részt vevő modellezésben, különösek annak a ponttól, hogy megérdemlik a „fikció” címet. Ez a szakasz a fikciók meghatározásának kísérleteit tárgyalja, és feltárja azok szerepét a számítógépes szimulációban.

Kétféleképpen gondolkodunk a fikciók tudományban betöltött szerepéről. Az egyik szerint minden modell fikció. Ezt a gondolkodásmódot az motiválja, ha figyelembe vesszük például a tudományban az „ideális inga” szerepét. A tudósok állítása szerint gyakran állítanak ilyen típusú entitásokkal szemben (pl. „Az ideális inga periódusa arányos a hosszának négyzetgyökével”), ám ezek a valós világban sehol sem találhatók; tehát kitalált lényeknek kell lenniük. A tudományos képzeletbeli entitásokkal kapcsolatos ezen érvelés semmilyen módon nem kapcsolódik össze a számítógépes szimulációkkal - az e témában érdeklődő olvasóknak a tudományos reprezentációról szóló bejegyzésben kell olvasniuk [megjelenő].

A fikciók gondolkodásának másik vonala a kérdés, hogy a tudományban milyen reprezentációkat kell kitaláltnak tekinteni. Itt az aggodalom nem annyira a tudományos modell entitások ontológiája, hanem a különféle posztulált modell entitások reprezentativitása. Winsberg (2009c) itt azzal érvelt, hogy a fikcióknak különleges összefüggése van a számítógépes szimulációkkal. Vagy inkább, hogy néhány számítógépes szimuláció olyan elemeket tartalmaz, amelyek a legjobban tipizálják a tudományos képzeletbeli reprezentációkat, még akkor is, ha ezek a reprezentációk nem egyedileg vannak jelen a szimulációkban.

Megjegyzi, hogy a fentiekben említett kitalálás első koncepciója, amely „bármilyen reprezentációt, amely ellentétes a valósággal fikcióval” (179. o.), Nem felel meg a kifejezés szokásos használatának: a durva térkép nem fikció. Ezután alternatív meghatározást javasol: a nem hivatásos információt „elég jó” útmutatóként kínálják fel a világ egyes részeire (181. oldal); a fikció nem az. A definíciót azonban finomítani kell. Vegye ki a szöcske és a hangya mesét. Noha a mese tanulságokat nyújt arról, hogy a világ miként működik, ez még mindig kitalálás, mert „hasznos útmutató a világ általános értelemben vett formájához”, nem pedig a világ egy részének sajátos útmutatója, a „ prima facie reprezentációs cél”, egy éneklő szöcske és fárasztó hangya. A nem hivatásos dokumentumok viszont„Mutasson a világ egy bizonyos részére”, és útmutató legyen a világ ezen részéhez (181. oldal).

Bizonyos számítógépes szimulációkban a modellek ilyen típusú kitalált alkotóelemeit paradigmatikusan példázzák. Két példája a „silogénatom” és a „mesterséges viszkozitás”. A szilogénatomok megjelennek a szilícium-repedések bizonyos nanomechanikus modelljeiben - olyan típusú többrétegű modellek, amelyek a 2.3. Szakaszban említett kvantummechanikát és molekuláris mechanikát ötvözik. A szilogéntartalmú repedésterjedési modellek a szilíciumban úgy működnek, hogy magát a repedést kvantummechanikával leírják, és a repedést közvetlenül körülvevő régiót a klasszikus molekuláris dinamika segítségével. A két régió modellezési kereteinek összehozása érdekében a határt úgy kezelik, mintha „silogén” atomokat tartalmaz, amelyek a szilícium és a hidrogén tulajdonságainak keverékét tartalmazzák. A szilogénatomok fikciók. Nem kínálják őket, mint még a határon lévő atomok „elég jó” leírását - a prima facie reprezentációs célokat. De azokat használják, hogy remélhetőleg az átfogó modell rendbe hozza a dolgokat. Tehát az általános modell nem fikció, hanem annak egyik alkotóeleme. A mesterséges viszkozitás hasonló példa. A hirtelen sokkkal rendelkező folyadékokat nehéz modellezni egy számítógépes rácson, mivel a hirtelen sokk egyetlen rácscellában rejtőzik, és ilyen algoritmus nem oldható meg. A mesterséges viszkozitás olyan technika, amely úgy állítja, hogy a folyadék nagyon viszkózus - kitalálható-jobb, ha sokk van, így a sokk kevésbé válik hirtelen, és több rácssejt felett elmosódik. A viszkozitás és ezáltal a sokk vastagságának megszerzése helytelen segíti az általános modell „megfelelő működését”. Újra,a folyadék általános modellje nem kitalálás, elég megbízható útmutató a folyadék viselkedéséhez. De a mesterséges viszkozitásnak nevezett alkotóelem fikció - nem használják fel a sokk megbízható modellezésére. Beépítik egy nagyobb modellezési keretbe, hogy ez a nagyobb keret „elég megbízható” legyen.

Ez a beszámoló kétféle kritikát vonzott fel. Toon (2010) szerint a fikció ezen meghatározása túl szűk. Példákat ad olyan történelmi fikciókra, mint én, Claudius és Schindler bárkája, amelyek állítása szerint fikciók, annak ellenére, hogy „bizonyos szempontból„ elég jó”útmutatókként szolgálnak ezeknek az embereknek, helyeknek és eseményeknek, és erre jogosultak vagyunk. vegye őket ilyenként.” (286–7. o.). Feltehetően Toon tágabb értelemben támogatja a fikciók tudományban betöltött szerepét, amely szerint ezek nem játszanak külön kiemelkedő vagy kiemelkedő szerepet a számítógépes szimulációban.

Gordon Purves (közelgő) azzal érvel, hogy a számítási modellekben vannak példák a fikciókra (példája az úgynevezett „képzeletbeli repedések”) és másutt, amelyek nem felelnek meg a fent tárgyalt szigorú követelményeknek. Toonnal ellentétben azonban a fiktív modellező elemeket is meg akarja határozni a nem kitalált elemektől. Legfontosabb kritikája a fikció kritériuma a társadalmi használati normák szempontjából, és Purves azt állítja, hogy képesnek kell lennünk arra, hogy eldöntsük, vajon valamelyik modellezés fikció-e ilyen normák hiányában. Ezért meg akarja találni a tudományos fikció belső tulajdonságait. Javaslata a modellfikciókat alkotó tényezőnek tekinti, hogy nem rendelkeznek olyan tulajdonsággal, amelyet Laymon (1985) „darabonként javíthatatlanságnak” (PI) nevezett. A PI sok olyan modell jellemzője, amelyek idealizálódnak;azt mondja, hogy ahogy idealizálod, a modelled egyre pontosabbá válik. De amikor egy silogénatomot idealizál, nem kap a szilícium-repedés pontosabb és pontosabb szimulációját. A Purves azonban úgy véli, hogy a PI ezen kudarca fikció, nem pusztán tünetmentes.

Bibliográfia

  • Barberousse, A. és P. Ludwig, 2009. „Modellek mint fikciók” a tudományos fikciókban. Filozófiai esszék a modellezésben és az idealizálásban, London: Routledge, 56–73.
  • Barberousse, A. és Vorms, M. 2014. „A számítógépes empirikus ismeretek indokairól”, Synthese, 191 (15): 3595–3620.
  • Bedau, MA, 2011. „Gyenge megjelenés és számítógépes szimuláció”, P. Humphreys és C. Imbert (szerk.), Modellek, szimulációk és reprezentációk, New York: Routledge, 91–114.
  • –––, 1997. „Gyenge megjelenés”, Noûs (11. kiegészítés), 31: 375–399.
  • Beisbart, C. és J. Norton, 2012. „Miért a Monte Carlo szimulációk következtetések és nem kísérletek” a Nemzetközi Tudományos Filozófia Tanulmányokban, 26: 403–422.
  • Beisbart, C., 2017. “Elősegíti az ismereteket számítógépes szimulációk révén? Szocratív gyakorlat”, M. Resch, A. Kaminski és P. Gehring (szerk.), A szimuláció tudománya és művészete (I. kötet), Cham: Springer, 153–174.
  • Burge, T., 1993. “Tartalommegőrzés”, The Philosophical Review, 102 (4): 457–488.
  • –––, 1998. „Számítógépes bizonyítás, apriori tudás és más elmék: A hatodik filozófiai perspektívák előadása”, Noûs, 32 (S12): 1–37.
  • Currie, Adrian, 2018. „Az érv a meglepetésből”, Canadian Journal of Philosophy, 48 (5): 639–661
  • Dardashti, R., Thebault, K. és Winsberg, E., 2015. „Megerősítés analóg szimuláción keresztül: milyen hülye lyukak tudnak mondani nekünk a gravitációról”, a British Journal for the Philosophy of Science, 68 (1): 55– 89
  • Dardashti, R., Hartmann, S., Thebault, K. és Winsberg, E., 2019. “Hawking sugárzás és analóg kísérletek: A Bayes-féle elemzés”, a Modern Fizika története és filozófia tanulmányaiban, 67: 1–11..
  • Epstein, J. és R. Axtell, 1996. Növekvő mesterséges társadalmak: Társadalomtudomány alulról felfelé, Cambridge, MA: MIT Press.
  • Epstein, J., 1999. „Agent-alapú számítási modellek és generációs társadalomtudomány”, Complexity, 4 (5): 41–57.
  • Franklin, A., 1996. A kísérlet elhanyagolása, Cambridge: Cambridge University Press.
  • –––, 1989. „A kísérlet episztemológiája”. A kísérlet felhasználása, D. Gooding, T. Pinch és S. Schaffer (szerk.), Cambridge: Cambridge University Press, 437–60.
  • Frigg, R. és J. Reiss, 2009. „A szimuláció filozófiája: Forró új kérdések vagy ugyanaz a régi pörkölt”, Synthese, 169: 593–613.
  • Giere, RN, 2009. „Megváltoztatja-e a számítógépes szimuláció a kísérlet arculatát?”, Filozófiai Tanulmányok, 143: 59–62
  • Gilbert, N. és K. Troitzsch, 1999. Szimuláció a társadalomtudós számára, Philadelphia, PA: Open University Press.
  • Grüne-Yanoff, T., 2007. „Korlátozott racionalitás”, Filozófiai iránytű, 2 (3): 534–563.
  • Grüne-Yanoff, T. és Weirich, P., 2010. „Szimulációs filozófia”, Szimuláció és játék: Interdiszciplináris folyóirat, 41 (1): 1–31.
  • Guala, F., 2002. „Modellek, szimulációk és kísérletek”. Modell alapú érvelés: tudomány, technológia, értékek, L. Magnani és N. Nersessian (szerk.), New York: Kluwer, 59–74.
  • –––, 2008. „Paradigmatikus kísérletek: Az ultimátum játék a teszteléstől a mérőkészülékig”, Science Science, 75: 658–669.
  • Hacking, I., 1983. Képviselet és beavatkozás: Bevezető témák a természettudomány filozófiájában, Cambridge: Cambridge University Press.
  • ––– 1988. „A laboratóriumi tudomány stabilitásáról”, The Journal of Philosophy, 85: 507–15.
  • ––– 1992. “Van-e a gondolatkísérleteknek saját életük?” PSA (2. kötet), Fine A., Forbes M. és Okruhlik K. (szerk.), East Lansing: A Tudomány Filozófiájának Egyesülete, 302–10.
  • Hartmann, S., 1996. „A világ mint folyamat: Szimulációk a természet- és társadalomtudományban”, R. Hegselmann et al. (szerk.), Modell és szimuláció a társadalomtudományokban a tudomány filozófiájának szempontjából, Dordrecht: Kluwer, 77–100.
  • Hubig, C, & Kaminski, A., 2017. „Az igazság és a hiba gyakorlati elméletének vázlatai a számítógépes szimulációban”, Resch M., A. Kaminski és P. Gehring (szerk.), The Science and Art of Szimuláció (I. kötet), Cham: Springer, 121–136.
  • Hughes, R., 1999. „Az Ising-modell, a számítógépes szimuláció és az univerzális fizika”, M. Morgan és M. Morrison (szerk.), Models as Mediators, Cambridge: Cambridge University Press.
  • Huggins, EM és EA Schultz, 1967. „San Francisco-öböl raktárban”, Környezettudományi és Technológiai Intézet, 10 (5): 9–16.
  • Humphreys, P., 1990. “Számítógépes szimuláció”, A. Fine, M. Forbes és L. Wessels (szerk.), PSA 1990 (2. kötet), East Lansing, MI: A Tudományos Filozófia Egyesület, 497–. 506.
  • –––, 1995. “Számítástechnika és tudományos módszer”, Minds and Machines, 5 (1): 499–512.
  • –––, 2004. Magunk kibővítése: Számítástechnika, empirizmus és tudományos módszer, New York: Oxford University Press.
  • –––, 2009. „A számítógépes szimulációs módszerek filozófiai újdonsága”, Synthese, 169: 615–626.
  • Kaufmann, WJ és LL Smarr, 1993. Szuperszámítás és a tudomány átalakulása, New York: Scientific American Library.
  • Laymon, R., 1985. „Idealizációk és az elméletek kísérleti kísérletezése”, a Megfigyelés, kísérlet és hipotézis a modern fizikai tudományban című részében, P. Achinstein és O. Hannaway (szerk.), Cambridge, MA: MIT Press, 147– 73.
  • Lenhard, J., 2007. “Számítógépes szimuláció: A kísérletezés és a modellezés együttműködése”, Philosophy of Science, 74: 176–94.
  • –––, 2019. Számított meglepetések: A számítógépes szimuláció filozófiája, Oxford: Oxford University Press
  • Lenhard, J. és Küster, U., 2019. Minds & Machines. 29: 19.
  • Morgan, M., 2003. „Kísérletek anyagi beavatkozás nélkül: modellkísérletek, virtuális kísérletek és gyakorlatilag kísérletek”, a Tudományos Kísérlet Filozófiájában, H. Radder (szerk.), Pittsburgh, PA: Pittsburgh University Press, 216–355.
  • Morrison, M., 2012. „Modellek, mérések és számítógépes szimulációk: A kísérlet változó arca”, Philosophical Studies, 143: 33–57.
  • Norton, S. és F. Suppe, 2001. „Miért jó a légköri modellezés a tudomány”, a légkör megváltoztatásában: szakértői ismeretek és a környezetvédelem irányítása, C. Miller és P. Edwards (szerk.), Cambridge, MA: MIT Press, 88–133.
  • Oberkampf, W. és C. Roy, 2010. Ellenőrzés és validálás a tudományos számítástechnikában, Cambridge: Cambridge University Press.
  • Oreskes, N., együtt: Shrader-Frechette és K. Belitz, 1994. „A numerikus modellek igazolása, validálása és megerősítése a Földtudományban”, Science, 263 (5147): 641–646.
  • Parke, E., 2014. „Kísérletek, szimulációk és ismeretelméleti kiváltságok”, Philosophy of Science, 81 (4): 516–36.
  • Parker, W., 2008a. „Franklin, Holmes és a számítógépes szimuláció episztemológiája”, Nemzetközi tanulmányok a tudomány filozófiájában, 22 (2): 165–83.
  • –––, 2008b. „Számítógépes szimuláció hiba-statisztikai objektív segítségével”, Synthese, 163 (3): 371–84.
  • –––, 2009a. „Tényleg számít az anyag? Számítógépes szimulációk, kísérletek és lényegesség”, Synthese, 169 (3): 483–96.
  • –––, 2013. „Számítógépes szimuláció”, S. Psillos és M. Curd (szerk.), A tudomány filozófiájának útmutatója, 2. kiadás, London: Routledge.
  • –––, 2017. „Számítógépes szimuláció, mérés és adat-asszimiláció”, a British Journal for the Philosophy of Science, 68 (1): 273–304.
  • Peschard, I., 2010. „Modellezés és kísérletezés”, P. Humphreys és C. Imbert (szerk.), Modellek, szimulációk és reprezentációk, London: Routledge, 42–61.
  • Primiero, G., 2019. „Minimalista episztemológia az ágens-alapú szimulációkhoz a mesterséges tudományban”, Minds and Machines, 29 (1): 127–148.
  • Tisztítja, GM, közelgő. "Az igazság megtalálása a fikciókban: a nem-fikciók azonosítása a képzeletbeli repedésekben", Synthese.
  • Resch, MM, Kaminski, A., és Gehring, P. (szerk.), 2017. A szimuláció tudománya és művészete I.: Felfedezés-megértés-megismerés, Berlin: Springer.
  • Roush, S., 2015. „A kísérlet episztatikus fölénye a szimulációval szemben”, Synthese, 169: 1–24.
  • Roy, S., 2005. „A folyadékdinamika és a hőátadás numerikus módszereinek közelmúltbeli fejlődése”, Journal of Fluid Engineering, 127 (4): 629–30.
  • Ruphy, S., 2015. “Számítógépes szimulációk: A tudományos kutatás új módja?” SO Hansen-ben (szerk.), A technológia szerepe a tudományban: Filozófiai perspektívák, Dordrecht: Springer, 131–149.
  • Schelling, TC, 1971. „A szegregáció dinamikus modelljei”, Journal of Mathematical Sociology, 1: 143–186.
  • Simon, H., 1969. A tudományos művek, Boston, MA: MIT Press.
  • Symons, J., és Alvarado, R., 2019. „Episztemikus jogosultságok és a számítógépes szimuláció gyakorlata”, Minds and Machines, 29 (1): 37–60.
  • Toon, A., 2010. „Új modellek megközelítése”, Metascience, 19 (2): 285–288.
  • Trenholme R., 1994. „Analóg szimuláció”, Philosophy of Science, 61: 115–131.
  • Unruh, WG, 1981. “Kísérleti fekete lyuk párologtatás?” Physical Review Letters, 46 (21): 1351–53.
  • Winsberg, E., 2018. Filozófia és klímatudomány, Cambridge: Cambridge University Press
  • –––, 2010. Tudomány a számítógépes szimuláció korában, Chicago: The University of Chicago Press.
  • –––, 2009a. „Két módszer története”, Synthese, 169 (3): 575–92
  • –––, 2009b. „Számítógépes szimuláció és a tudomány filozófiája”, Philosophy Compass, 4/5: 835–845.
  • –––, 2009c. „A fikciók funkciója: a tudomány körének kibővítése”, a Science fikciókban: Filozófiai esszék modellezésről és idealizálásról, M. Suarez (szerk.), London: Routledge.
  • –––, 2006. „Kézfogás az Ön tetejére: Inkonzisztencia és hamisítás az interreoretikus redukcióban”, Philosophy of Science, 73: 582–594.
  • –––, 2003. „Szimulált kísérletek: Módszertan egy virtuális világhoz”, Philosophy of Science, 70: 105–125.
  • –––, 2001. „Szimulációk, modellek és elméletek: Komplex fizikai rendszerek és azok ábrázolása”, Philosophy of Science, 68: S442 – S454.
  • –––, 1999. „Szankcionáló modellek: A szimuláció epistemológiája”, Science in Context, 12 (3): 275–92.

Tudományos eszközök

sep ember ikonra
sep ember ikonra
Hogyan idézhetem ezt a bejegyzést.
sep ember ikonra
sep ember ikonra
A bejegyzés PDF-verziójának előnézete a SEP Barátok társaságában.
inpho ikonra
inpho ikonra
Nézze meg ezt a belépési témát az Internet Filozófia Ontológiai Projektben (InPhO).
phil papírok ikonra
phil papírok ikonra
Továbbfejlesztett bibliográfia erre a bejegyzésre a PhilPapersnél, az adatbázisához kapcsolódó hivatkozásokkal.

Egyéb internetes források

  • Phys.org - számítógépes szimulációk.
  • Számítógépes szimuláció, a sciencedaily.com webhelyen.
  • IPPC - az éghajlatváltozással foglalkozó kormányközi testület.

Ajánlott: