Computer Simulations In Science

Cuprins:

Computer Simulations In Science
Computer Simulations In Science

Video: Computer Simulations In Science

Video: Computer Simulations In Science
Video: What is COMPUTER SIMULATION? What does COMPUTER SIMULATION mean? COMPUTER SIMULATION meaning 2024, Martie
Anonim

Navigare la intrare

  • Cuprins de intrare
  • Bibliografie
  • Instrumente academice
  • Prieteni PDF Previzualizare
  • Informații despre autor și citare
  • Inapoi sus

Computer Simulations in Science

Publicat prima lună, 6 mai 2013; revizuire de fond miercuri, 26 septembrie 2019

Computer simulation was pioneered as a scientific tool in meteorology and nuclear physics in the period directly following World War II, and since then has become indispensable in a growing number of disciplines. The list of sciences that make extensive use of computer simulation has grown to include astrophysics, particle physics, materials science, engineering, fluid mechanics, climate science, evolutionary biology, ecology, economics, decision theory, medicine, sociology, epidemiology, and many others. There are even a few disciplines, such as chaos theory and complexity theory, whose very existence has emerged alongside the development of the computational models they study.

După un început lent, filosofii științei au început să dedice mai multă atenție rolului simulării computerului în știință. Au apărut mai multe domenii de interes filosofic pentru simularea computerului: Care este structura epistemologiei simulării computerizate? Care este relația dintre simularea computerului și experiment? Simularea computerului ridică probleme în ceea ce privește filozofia științei care nu sunt complet acoperite de lucrările recente pe modele mai general? Ce ne învață simularea computerizată despre apariție? Despre structura teoriilor științifice? Despre rolul (dacă există) al ficțiunilor în modelarea științifică?

  • 1. Ce este simularea computerului?

    • 1.1 O definiție îngustă
    • 1.2 O definiție largă
    • 1.3 Un punct de vedere alternativ
  • 2. Tipuri de simulări computerizate

    • 2.1 Simulări bazate pe ecuație
    • 2.2 Simulări bazate pe agenți
    • 2.3 Simulări pe mai multe niveluri
    • 2.4 Simulări Monte Carlo
  • 3. Scopurile simulării
  • 4. Epistemologia simulărilor computerizate

    • 4.1 Caracteristici noi ale EOCS
    • 4.2 EOCS și epistemologia experimentului
    • 4.3 Verificare și validare
    • 4.4 EOCS și drept epistemic
    • 4.5 Abordări pragmatice ale EOCS
  • 5. Simulare și experiment
  • 6. Simularea computerului și structura teoriilor științifice
  • 7. Apariția
  • 8. Ficțiuni
  • Bibliografie
  • Instrumente academice
  • Alte resurse de internet
  • Intrări conexe

1. Ce este simularea computerului?

Nicio definiție unică a simulării computerului nu este adecvată. În primul rând, termenul este utilizat atât în sens restrâns, cât și în sens larg. În al doilea rând, s-ar putea să se înțeleagă termenul din mai mult de un punct de vedere.

1.1 O definiție îngustă

În sensul său cel mai restrâns, o simulare de calculator este un program care este rulat pe un computer și care folosește metode pas cu pas pentru a explora comportamentul aproximativ al unui model matematic. De obicei, acesta este un model al unui sistem din lumea reală (deși sistemul în cauză ar putea fi unul imaginar sau ipotetic). Un astfel de program de calculator este un model de simulare de calculator. O execuție a programului pe computer este o simulare a computerului a sistemului. Algoritmul ia ca intrare o specificație a stării sistemului (valoarea tuturor variabilelor sale) la un moment dat. Apoi calculează starea sistemului la momentul t + 1. Din valorile care caracterizează acea a doua stare, atunci se calculează starea sistemului la momentul t + 2 și așa mai departe. Când este rulat pe un computer, algoritmul produce astfel o imagine numerică a evoluției stării sistemului,întrucât este conceptualizat în model.

Această secvență de valori pentru variabilele model poate fi salvată ca o colecție mare de „date” și este adesea vizualizată pe ecranul computerului folosind metode de vizualizare. Adesea, dar cu siguranță nu întotdeauna, metodele de vizualizare sunt concepute pentru a imita rezultatele unor instrumente științifice, astfel încât simularea pare să măsoare un sistem de interes.

Uneori, metodele pas cu pas de simulare sunt utilizate, deoarece modelul de interes conține ecuații continue (diferențiale) (care specifică rate continue de schimbare în timp) care nu pot fi rezolvate analitic, fie în principiu, sau poate doar în practică. Aceasta subscrie spiritul următoarei definiții dată de Paul Humphreys: „orice metodă implementată de calculator pentru explorarea proprietăților modelelor matematice în care metodele analitice nu sunt disponibile” (1991, 500). Dar chiar și ca o definiție restrânsă, aceasta trebuie citită cu atenție și nu trebuie luată pentru a sugera că simulările sunt utilizate doar atunci când în model există ecuații nesolvabile analitice. Simulările computerizate sunt adesea utilizate fie pentru că modelul original în sine conține ecuații discrete - care pot fi implementate direct într-un algoritm potrivit pentru simulare - fie pentru că modelul original constă în ceva mai bine descris ca reguli de evoluție decât ca ecuații.

În primul caz, atunci când ecuațiile sunt „discretizate” (transformarea ecuațiilor care descriu ratele continue de schimbare în ecuații discrete), trebuie subliniat faptul că, deși este obișnuit să vorbim de simulări „rezolvarea” acestor ecuații, o discretizare în cel mai bun caz, nu poate găsi decât ceva care să aprobe soluția ecuațiilor continue, la un anumit grad de precizie dorit. În cele din urmă, atunci când vorbim despre „o simulare a calculatorului” în sensul cel mai restrâns, ar trebui să vorbim despre o anumită implementare a algoritmului pe un anumit computer digital, scris într-un anumit limbaj, folosind un anumit compilator etc. Există cazuri în care rezultate diferite pot fi obținute ca urmare a variațiilor în oricare dintre aceste informații.

1.2 O definiție largă

Mai pe larg, putem gândi simularea computerului ca o metodă cuprinzătoare pentru studiul sistemelor. În acest sens mai larg al termenului, se referă la un întreg proces. Acest proces include alegerea unui model; găsirea unei modalități de implementare a acelui model într-un formular care poate fi rulat pe un computer; calcularea ieșirii algoritmului; și vizualizarea și studierea datelor rezultate. Metoda include întregul proces folosit pentru a face inferențe despre sistemul țintă pe care se încearcă modelarea, precum și procedurile utilizate pentru sancționarea acestor inferențe. Aceasta este definiția mai mult sau mai puțin a studiilor de simulare computerizate din Winsberg 2003 (111). „Studiile de simulare reușite fac mai mult decât calculează numerele. Ei folosesc o varietate de tehnici pentru a atrage inferențe din aceste numere. Simulările fac uz creativ de tehnici de calcul care pot fi motivate numai extra-matematic și extra-teoretic. Ca atare, spre deosebire de calculele simple care pot fi efectuate pe un computer, rezultatele simulărilor nu sunt automat de încredere. Mult efort și expertiză se implică în a decide care rezultate ale simulării sunt fiabile și care nu.” Când filosofii științei scriu despre simularea computerului și fac afirmații despre proprietățile epistemologice sau metodologice „simulări” ale computerului, ele înseamnă de obicei termenul care trebuie înțeles în acest sens larg al unui studiu de simulare pe calculator. Mult efort și expertiză se implică în a decide care rezultate ale simulării sunt fiabile și care nu.” Când filosofii științei scriu despre simularea computerului și fac afirmații despre proprietățile epistemologice sau metodologice „simulări” ale computerului, ele înseamnă de obicei termenul care trebuie înțeles în acest sens larg al unui studiu de simulare pe calculator. Mult efort și expertiză se implică în a decide care rezultate ale simulării sunt fiabile și care nu.” Când filosofii științei scriu despre simularea computerului și fac afirmații despre proprietățile epistemologice sau metodologice „simulări” ale computerului, ele înseamnă de obicei termenul care trebuie înțeles în acest sens larg al unui studiu de simulare pe calculator.

1.3 Un punct de vedere alternativ

Ambele definiții de mai sus consideră că simularea computerului se referă fundamental la utilizarea unui computer pentru a rezolva, sau pentru a rezolva aproximativ, ecuațiile matematice ale unui model care este menit să reprezinte un sistem, fie real, fie ipotetic. O altă abordare este să încercați să definiți „simularea” independent de noțiunea de simulare a calculatorului, apoi să definiți „simularea computerului” compozițional: ca o simulare care este realizată de un computer digital programat. Pe această abordare, o simulare este orice sistem despre care se crede sau se speră că are un comportament dinamic suficient de similar cu un alt sistem, astfel încât primul poate fi studiat pentru a afla despre cel de-al doilea.

De exemplu, dacă studiem un obiect deoarece considerăm că este suficient de similar dinamic cu un bazin de lichid pentru a învăța despre bazinele de lichid studiind-l, atunci oferă o simulare a bazinelor de fluid. Aceasta este în concordanță cu definiția simulării pe care o găsim în Hartmann: este ceva care „imită un proces prin alt proces. În această definiție, termenul „proces” se referă numai la un obiect sau sistem a cărui stare se schimbă în timp”(1996, 83). Hughes (1999) a obiectat că definiția lui Hartmann exclude simulările care imită structura unui sistem și nu dinamica acestuia. Humphreys și-a revizuit definiția simulării, în conformitate cu observațiile lui Hartmann și Hughes după cum urmează:

Sistemul S oferă o simulare de bază a unui obiect sau proces B doar în cazul în care S este un dispozitiv de calcul concret care produce, printr-un proces temporal, soluții la un model de calcul … care reprezintă corect B, în mod dinamic sau static. Dacă în plus, modelul de calcul utilizat de S reprezintă corect structura sistemului real R, atunci S oferă o simulare de bază a sistemului R în raport cu B. (2004, p. 110)

(Rețineți că Humphreys definește aici simularea computerului, nu în general simularea, dar el o face în spiritul de a defini un termen compozițional.) Trebuie menționat că definițiile lui Humphreys fac ca simularea să fie un termen de succes, iar acest lucru pare nefericit.. O definiție mai bună ar fi cea care, la fel ca cea din ultima secțiune, a inclus un cuvânt precum „a crezut” sau „a sperat” să abordeze această problemă.

În majoritatea discuțiilor filozofice despre simularea computerului, conceptul mai util este cel definit la 1.2. Excepția este atunci când este în mod explicit obiectivul discuției să înțelegem simularea computerului ca un exemplu de simulare mai general (vezi secțiunea 5). Exemple de simulări care nu sunt simulări computerizate includ celebrul model fizic al golfului San Francisco (Huggins & Schultz 1973). Acesta este un model de scară hidraulică funcțională din Golful San Francisco și Sacramento-San Joaquin River Delta sistem construit în anii ’50 de Corpul de ingineri al Armatei pentru a studia posibile intervenții inginerești în Golful. Un alt exemplu frumos, despre care se discută pe larg în (Dardashti și colab., 2015, 2019) este utilizarea „găurilor mută” acustice formate din condensate de Bose-Einstein pentru a studia comportamentul găurilor negre. Fizicianul Bill Unruh a menționat că în anumite fluide, ceva asemănător cu o gaură neagră ar apărea dacă ar exista regiuni ale fluidului care se mișcau atât de repede încât undele ar trebui să se miște mai repede decât viteza sunetului (ceva ce nu pot face) pentru a evadarea din ele (Unruh 1981). Astfel de regiuni ar avea efectiv orizonturi de evenimente sonice. Unruh a numit o astfel de configurare fizică „gaură mută” („mut”, ca în „mut”) și a propus că ar putea fi studiat pentru a învăța lucruri despre care nu știm despre găurile negre. De ceva timp, această propunere a fost privită doar ca o idee inteligentă, dar fizicienii au ajuns recent să realizeze că, folosind condensate Bose-Einstein, pot construi și studia găuri mut în laborator. Este clar de ce ar trebui să ne gândim la o astfel de configurare ca la o simulare: gaura mută simulează gaura neagră. În loc să găsească un program de calculator pentru a simula găurile negre, fizicienii găsesc o configurație dinamică fluidă pentru care consideră că au un model bun și pentru care acel model are asemănări matematice fundamentale cu modelul sistemelor de interes. Ei observă comportamentul instalării lichidului în laborator pentru a face inferențe despre găurile negre. Așadar, ideea definițiilor simulării din această secțiune este încercarea de a înțelege în ce sens simularea computerizată și aceste tipuri de activități sunt specii de același gen. Apoi am putea fi într-o situație mai bună pentru a înțelege de ce o simulare în sensul 1.3 care se întâmplă să fie rulată pe un computer se suprapune cu o simulare în sensul 1.2. Vom reveni la acest aspect în secțiunea 5.fizicienii găsesc o configurație dinamică fluidă pentru care cred că au un model bun și pentru care acel model are asemănări matematice fundamentale cu modelul sistemelor de interes. Ei observă comportamentul instalării lichidului în laborator pentru a face inferențe despre găurile negre. Așadar, ideea definițiilor simulării din această secțiune este încercarea de a înțelege în ce sens simularea computerizată și aceste tipuri de activități sunt specii de același gen. Apoi am putea fi într-o situație mai bună pentru a înțelege de ce o simulare în sensul 1.3 care se întâmplă să fie rulată pe un computer se suprapune cu o simulare în sensul 1.2. Vom reveni la acest aspect în secțiunea 5.fizicienii găsesc o configurație dinamică fluidă pentru care cred că au un model bun și pentru care acel model are asemănări matematice fundamentale cu modelul sistemelor de interes. Ei observă comportamentul instalării lichidului în laborator pentru a face inferențe despre găurile negre. Așadar, ideea definițiilor simulării din această secțiune este încercarea de a înțelege în ce sens simularea computerizată și aceste tipuri de activități sunt specii de același gen. Apoi am putea fi într-o situație mai bună pentru a înțelege de ce o simulare în sensul 1.3 care se întâmplă să fie rulată pe un computer se suprapune cu o simulare în sensul 1.2. Vom reveni la acest aspect în secțiunea 5.

Barberousse et al. (2009) au fost însă critici pentru această analogie. Ei subliniază că simulările computerului nu funcționează cum funcționează simularea lui Unruh. Nu este cazul ca computerul ca obiect material și sistemul țintă să urmeze aceleași ecuații diferențiale. O bună referire despre simulările care nu sunt simulări pe computer este Trenholme 1994.

2. Tipuri de simulări computerizate

De multe ori se disting două tipuri de simulări pe calculator: simulări bazate pe ecuație și simulări bazate pe agenți (sau pe baze individuale) Simulările computerizate de ambele tipuri sunt utilizate pentru trei tipuri generale de scopuri: predicție (atât la nivel, cât și global / calitativ), înțelegere și scopuri exploratorii sau euristice.

2.1 Simulări bazate pe ecuație

Simulările bazate pe ecuații sunt utilizate cel mai frecvent în științele fizice și în alte științe, unde există o teorie guvernantă care poate ghida construcția modelelor matematice bazate pe ecuații diferențiale. Folosesc aici termenul „bazat pe ecuație” pentru a face referire la simulări bazate pe tipurile de ecuații globale pe care le asociem cu teoriile fizice - spre deosebire de „regulile evoluției” (care sunt discutate în secțiunea următoare.) Simulările bazate pe ecuații pot fi fie bazate pe particule, unde există numeroase corpuri discrete și un set de ecuații diferențiale care guvernează interacțiunea lor sau pot fi bazate pe câmpuri, unde există un set de ecuații care guvernează evoluția timpului unui mediu sau câmp continuu. Un exemplu din prima este o simulare a formării galaxiei,în care interacțiunea gravitațională între o colecție finită de corpuri discrete este discretizată în timp și spațiu. Un exemplu din urmă este simularea unui fluid, cum ar fi un sistem meteorologic precum o furtună severă. Aici sistemul este tratat ca un mediu continuu - un fluid - și un câmp reprezentând distribuția sa a variabilelor relevante în spațiu este discretizat în spațiu și apoi actualizat în intervale de timp discrete.

2.2 Simulări bazate pe agenți

Simulările bazate pe agenți sunt cele mai frecvente în științele sociale și comportamentale, deși le găsim și în discipline precum viața artificială, epidemiologia, ecologia și orice disciplină în care se studiază interacțiunea în rețea a multor indivizi. Simulările pe bază de agenți sunt similare cu simulările pe bază de particule, prin faptul că reprezintă comportamentul a n-mulți indivizi discreți. Dar spre deosebire de simulările bazate pe ecuație, nu există ecuații diferențiale globale care guvernează mișcările indivizilor. Mai degrabă, în simulările bazate pe agenți, comportamentul indivizilor este dictat de propriile lor reguli locale

Pentru a da un exemplu: o faimoasă și novatoare simulare bazată pe agenți a fost modelul de „segregare” al lui Thomas Schelling (1971). Agenții din simularea sa erau persoane care „locuiau” pe o tablă de șah. Indivizii erau împărțiți în două grupuri din societate (de exemplu, două rase diferite, băieți și fete, fumători și nefumători etc.) Fiecare pătrat de pe tablă reprezenta o casă, cu cel puțin o persoană pe casă. Un individ este fericit dacă are un anumit procent de vecini din propriul grup. Agenții fericiți stau acolo unde sunt, agenții nefericiți se mută în locații libere. Schelling a constatat că consiliul de administrație a evoluat rapid într-un model de locație puternic segregat dacă „regulile de fericire” ale agenților erau specificate, astfel încât segregarea a fost puternic favorizată. Surprinzător, însă,el a constatat, de asemenea, că plăcile integrate inițial s-au transformat în segregarea deplină, chiar dacă regulile de fericire ale agenților exprimau doar o ușoară preferință pentru a avea vecini de propriul tip.

2.3 Simulări pe mai multe niveluri

În secțiunea 2.1 am discutat modele bazate pe ecuații care se bazează pe metode de particule și pe cele care se bazează pe metode de câmp. Dar unele modele de simulare sunt hibrizi de diferite tipuri de metode de modelare. Modelele de simulare pe mai multe niveluri, în special, împletesc elemente de modelare de la diferite scări de descriere. Un bun exemplu în acest sens ar fi un model care simulează dinamica materiei în vrac, tratând materialul ca un câmp supus stresului și încordării la un nivel de descriere relativ grosier, dar care se amplifică în anumite regiuni ale materialului, unde sunt importante efecte la scară mică. având loc și modelează acele regiuni mai mici, cu metode de modelare cu granulație relativ mai fină. Aceste metode se pot baza pe dinamica moleculară sau pe mecanica cuantică,sau ambele - fiecare dintre acestea este o descriere a materiei mai fină decât cea oferită prin tratarea materialului ca un câmp. Metodele de simulare pe mai multe niveluri pot fi defalcate în continuare în metode multiscale în serie și paralele. Metoda mai tradițională este modelarea în serie pe mai multe scări. Ideea de aici este să alegeți o regiune, să o simulați la nivelul inferior al descrierii, să rezumați rezultatele într-un set de parametri digerabili de modelul de nivel superior și să le treceți în partea algoritmului de calcul la nivel superior.rezumați rezultatele într-un set de parametri digerabili de modelul de nivel superior și treceți-le în partea algoritmului care calculează la nivel superior.rezumați rezultatele într-un set de parametri digerabili de modelul de nivel superior și treceți-le în partea algoritmului care calculează la nivel superior.

Metodele multiscale seriale nu sunt eficiente atunci când diferitele scale sunt cuplate puternic între ele. Atunci când diferitele scări interacționează puternic pentru a produce comportamentul observat, ceea ce este necesar este o abordare care simulează simultan fiecare regiune. Aceasta se numește modelare paralelă pe mai multe scări. Modelarea paralelă pe mai multe niveluri este fundamentul unei metode de simulare aproape omniprezente: așa-numita modelare „sub-grid”. Modelarea sub-grilă se referă la reprezentarea unor procese fizice importante la scară mică care se produc la scări de lungime care nu pot fi rezolvate în mod adecvat pe dimensiunea grilei unei anumite simulări. (Amintiți-vă că multe simulări discretizează ecuațiile continue, astfel încât acestea au o „dimensiune a grilei” finite relativ arbitrare.) În studiul turbulenței în fluide, de exemplu,o strategie practică obișnuită de calcul este de a ține cont de lipsurile de vârtejuri mici sau scăderi care se încadrează în celulele grilei. Acest lucru se realizează adăugând la mișcarea pe scară largă o vâscozitate eddy care caracterizează transportul și disiparea energiei în fluxul la scară mai mică - sau orice caracteristică de acest fel care apare la o scară prea mică pentru a fi capturată de rețea.

În științele climatice și disciplinele clasificate, modelarea sub-grilă se numește „parametrizare”. Aceasta, din nou, se referă la metoda de înlocuire a proceselor - prea mici sau complexe pentru a fi reprezentate fizic în model - printr-o descriere matematică mai simplă. Acest lucru este spre deosebire de alte procese - de exemplu, fluxul pe scară largă a atmosferei - care sunt calculate la nivelul grilei în conformitate cu teoria de bază. Se numește „parametrizare”, deoarece sunt necesari diverși parametri non-fizici pentru a conduce algoritmi extrem de aproximativi care calculează valorile sub-grilei. Exemple de parametrizare în simulările climatice includ rata de coborâre a ploilor, rata de transfer a radiațiilor atmosferice și rata formării norilor. De exemplu, nebulozitatea medie pe o 100 km 2cutia de grilă nu are legătură curată cu umiditatea medie de pe cutie. Cu toate acestea, pe măsură ce umiditatea medie crește, tulburarea medie va crește și, prin urmare, ar putea exista un parametru care să lege legătura tulbure medie cu umiditatea medie din interiorul unei cutii de grilă. Chiar dacă parametrizarea modernă a formării norului este mai sofisticată decât aceasta, ideea de bază este bine ilustrată de exemplu. Utilizarea metodelor de modelare sub-grilă în simulare are consecințe importante pentru înțelegerea structurii epistemologiei simulării. Acest lucru va fi discutat mai detaliat în secțiunea 4.

Metodele de modelare sub-grilă pot fi contrastate cu un alt tip de model paralel în mai multe niveluri, în care algoritmii sub-grilei sunt mai principial teoretic, dar sunt motivați de o teorie la un alt nivel de descriere. În exemplul simulării materiei în vrac menționate mai sus, de exemplu, algoritmul care conduce nivelul mai mic de descriere nu este construit de scaunul pantalonilor. Algoritmul care conduce nivelul mai mic este de fapt mai principial teoretic decât nivelul superior, în sensul că fizica este mai fundamentală: mecanica cuantică sau dinamica moleculară vs. mecanica continuă. Aceste tipuri de modele pe mai multe niveluri, cu alte cuvinte, acoperă resursele teoriilor la diferite niveluri de descriere. Așa că oferă exemple interesante care ne provoacă gândirea despre relațiile interetoretice,și asta provoacă părerea pe scară largă a faptului că un set de legi inconsecvente nu poate avea modele.

2.4 Simulări Monte Carlo

În literatura științifică, există o altă clasă mare de simulări pe computer numite Simulări Monte Carlo (MC). Simulările MC sunt algoritmi de computer care utilizează aleatoriu pentru a calcula proprietățile unui model matematic și în care aleatoriu algoritmului nu este o caracteristică a modelului țintă. Un exemplu frumos este utilizarea unui algoritm aleatoriu pentru a calcula valoarea π. Dacă desenați un pătrat de unitate pe o bucată de hârtie și înscrieți un cerc în el, apoi aruncați la întâmplare o colecție de obiecte în interiorul pătratului, proporția de obiecte care aterizează în cerc ar fi aproximativ egală cu π / 4. O simulare de computer care a simulat o procedură de genul acesta ar fi numită simulare MC pentru calcularea π.

Mulți filosofi ai științei s-au abatut de la limbajul științific obișnuit aici și s-au ferit de gândirea simulărilor MC ca fiind adevărate simulări. Grüne-Yanoff și Weirich (2010) oferă următoarele raționamente: „Abordarea de la Monte Carlo nu are un scop mimetic: imită sistemul determinist nu pentru a servi ca un surogat care este investigat în locul său, ci doar pentru a oferi un calcul alternativ al proprietăților sistemului determinist”(p.30). Acest lucru arată că simulările MC nu se potrivesc în mod adecvat niciunei din definițiile de mai sus. Pe de altă parte, diviziunea dintre filozofi și limbajul obișnuit poate fi probabil redusă observând că simulările MC simulează un proces imaginar care ar putea fi utilizat pentru calcularea a ceva relevant pentru studiul unui alt proces. Să presupunem că modelez o orbită planetară și pentru calculul meu trebuie să știu valoarea lui π. Dacă fac simularea MC menționată în ultimul alineat, simulez procesul de aruncare aleatorie a obiectelor într-un pătrat, dar ceea ce modelez este o orbită planetară. Acesta este sensul în care simulările MC sunt simulări, dar nu sunt simulări ale sistemelor pe care le utilizează pentru a studia. Cu toate acestea, după cum subliniază Beisbart și Norton (2012), unele simulări MC (adică cele care folosesc tehnici MC pentru a rezolva ecuațiile dinamice stocastice care se referă la un sistem fizic) sunt de fapt simulări ale sistemelor pe care le studiază. Acesta este sensul în care simulările MC sunt simulări, dar nu sunt simulări ale sistemelor pe care le utilizează pentru a studia. Cu toate acestea, după cum subliniază Beisbart și Norton (2012), unele simulări MC (adică cele care folosesc tehnici MC pentru a rezolva ecuațiile dinamice stocastice care se referă la un sistem fizic) sunt de fapt simulări ale sistemelor pe care le studiază. Acesta este sensul în care simulările MC sunt simulări, dar nu sunt simulări ale sistemelor pe care le utilizează pentru a studia. Cu toate acestea, după cum subliniază Beisbart și Norton (2012), unele simulări MC (adică cele care folosesc tehnici MC pentru a rezolva ecuațiile dinamice stocastice care se referă la un sistem fizic) sunt de fapt simulări ale sistemelor pe care le studiază.

3. Scopurile simulării

Există trei categorii generale de scopuri pentru care se pot pune simulări pe calculator. Simulările pot fi utilizate în scopuri euristice, în scopul de a prezice date pe care nu le avem și pentru a genera o înțelegere a datelor pe care le avem deja.

În categoria modelelor euristice, simulările pot fi împărțite în continuare în cele utilizate pentru a comunica cunoștințele cu ceilalți, iar cele folosite pentru a reprezenta informații pentru noi înșine. Când Watson și Crick au jucat cu farfurii și sârmă de staniu, aceștia o făceau pe cei din urmă la început și pe primul când arătau rezultatele altora. Când corpul armatei a construit modelul golfului San Francisco pentru a convinge populația votantă că o anumită intervenție a fost periculoasă, au folosit-o pentru acest tip de scop euristic. Simulările computerizate pot fi utilizate pentru ambele tipuri de scopuri - pentru a explora caracteristicile posibilelor structuri reprezentative; sau pentru a comunica cunoștințele altora. De exemplu: simulări computerizate ale proceselor naturale, cum ar fi reproducerea bacteriană, schimbarea tectonică, reacții chimice,și evoluția au fost toate utilizate în setările clasei pentru a ajuta elevii să vizualizeze structura ascunsă în fenomene și procese care sunt imposibile, imposibile sau costisitoare de ilustrat într-un cadru de laborator „umed”.

O altă clasă largă de scopuri pentru care se pot pune simulări pe calculator este aceea de a ne spune despre cum ar trebui să ne așteptăm ca un anumit sistem din lumea reală să se comporte în anumite circumstanțe. În mod slab: simularea computerului poate fi utilizată pentru predicție. Putem folosi modele pentru a prezice viitorul sau pentru a retroduce trecutul; le putem folosi pentru a face predicții precise sau a celor libere și generale. În ceea ce privește precizia relativă a predicțiilor pe care le facem cu simulările, putem fi puțin mai fine în taxonomia noastră. Există a) Predicții punctuale: Unde va fi planeta Marte pe 21 octombrie 2300? b) Predicții „calitative” sau globale sau sistemice:Este orbita acestei planete stabilă? Ce lege de scalare apare în aceste sisteme? Care este dimensiunea fractală a atractorului pentru sisteme de acest fel? și c) Predicții ale intervalului: Este probabil 66% ca temperatura medie a suprafeței să crească cu 2–5 grade C până în anul 2100; este „foarte probabil” ca nivelul mării să crească cu cel puțin doi metri; este „plauzibil” ca termohalina să se închidă în următorii 50 de ani.

În cele din urmă, simulările pot fi utilizate pentru a înțelege sistemele și comportamentul acestora. Dacă avem deja date care ne spun cum se comportă un anumit sistem, putem folosi simularea computerului pentru a răspunde la întrebări despre cum s-ar fi putut produce aceste evenimente; sau despre modul în care aceste evenimente s-au produs de fapt.

Când ne gândim la subiectul secțiunii următoare, epistemologia simulărilor pe calculator, trebuie să reținem, de asemenea, că procedurile necesare pentru sancționarea rezultatelor simulărilor vor depinde adesea, în mare parte, de care dintre scopurile sau scopurile de mai sus. simularea va fi pusă la.

4. Epistemologia simulărilor computerizate

Pe măsură ce metodele de simulare computer au căpătat importanță în tot mai multe discipline, problema încrederii lor pentru generarea de noi cunoștințe a crescut, mai ales atunci când se estimează că simulările vor fi considerate colegi epistemici cu experimente și metode teoretice tradiționale analitice. Întrebarea relevantă este întotdeauna dacă rezultatele unei anumite simulări de computer sunt suficient de exacte pentru scopul propus. Dacă se folosește o simulare pentru prognoza meteo, prezice variabilele de care suntem interesați până la un grad de precizie suficient pentru a satisface nevoile consumatorilor săi? Dacă se folosește o simulare a atmosferei de deasupra unei câmpii din Midwestern pentru a înțelege structura unei furtuni puternice,avem încredere că structurile din flux - cele care vor juca un rol explicativ în relatarea noastră de ce furtuna se împarte uneori în două sau de ce uneori formează tornade - sunt înfățișate suficient de precis pentru a ne susține încrederea în explicație ? Dacă se folosește o simulare în inginerie și proiectare, predicțiile făcute de simulare sunt suficient de fiabile pentru a sancționa o anumită alegere a parametrilor de proiectare sau pentru a sancționa convingerea noastră că un anumit design al aripii avionului va funcționa? Presupunând că răspunsul la aceste întrebări este uneori „da”, adică că aceste tipuri de inferențe sunt cel puțin uneori justificate, întrebarea filosofică centrală este: ce le justifică? Mai general,cum poate fi evaluată afirmația că o simulare este suficient de bună pentru scopul propus? Acestea sunt întrebările centrale ale epistemologiei simulării computerizate (EOCS).

Având în vedere că teoria confirmării este unul dintre subiectele tradiționale din filozofia științei, poate părea evident că acesta din urmă ar avea resursele pentru a începe să abordeze aceste întrebări. Winsberg (1999) a susținut, însă, că, atunci când vine vorba de subiecte legate de acreditarea revendicărilor de cunoștințe, filozofia științei s-a preocupat în mod tradițional de justificarea teoriilor, nu de aplicarea lor. Cele mai multe simulări, pe de altă parte, în măsura în care utilizează teoria, tind să folosească teoria bine stabilită. Cu alte cuvinte, EOCS se referă la testarea teoriilor de bază care pot intra în simulare și, cel mai adesea, la stabilirea credibilității ipotezelor care sunt, parțial, rezultatul aplicațiilor acestor teorii.

4.1 Caracteristici noi ale EOCS

Winsberg (2001) a susținut că, spre deosebire de problemele epistemologice care se află în centrul tradițional al teoriei confirmării, un EOCS adecvat trebuie să îndeplinească trei condiții. În special, trebuie să țină seama de faptul că cunoștințele produse de simulările computerului sunt rezultatul inferențelor care sunt descendente, necorespunzătoare și autonome.

În jos. EOCS trebuie să reflecte faptul că, într-un număr mare de cazuri, teoriile științifice acceptate reprezintă punctul de plecare pentru construirea modelelor de simulare computerizate și joacă un rol important în justificarea inferențelor de la rezultatele simulării la concluzii despre sistemele țintă din lumea reală. Cuvântul „în jos” a fost menit să semnaleze faptul că, spre deosebire de majoritatea inferențelor științifice care au interesat în mod tradițional filozofii, care trec de la instanțe de observație la teorii, aici avem inferențe care sunt trase (în parte) de la teorie înaltă, la particular caracteristici ale fenomenelor.

Motley. EOCS trebuie să țină cont de faptul că rezultatele simulării depind, de obicei, nu doar de teorie, ci și de multe alte ingrediente și resurse model, inclusiv parametrizații (discutate mai sus), metode de soluție numerică, trucuri matematice, aproximări și idealizări, ficțiuni directe, presupuneri ad hoc, biblioteci de funcții, compilatoare și hardware de computer și, cel mai important, sângele, transpirația și lacrimile de multă încercare și eroare.

Autonom. EOCS trebuie să țină seama de autonomia cunoștințelor produse prin simulare, în sensul că cunoștințele produse prin simulare nu pot fi sancționate în totalitate prin comparație cu observația. Simulările sunt de obicei folosite pentru a studia fenomenele în care datele sunt rare. În aceste condiții, simulările sunt menite să înlocuiască experimentele și observațiile ca surse de date despre lume, deoarece experimentele sau observațiile relevante sunt la îndemână, din motive principiale, practice sau etice.

Parker (2013) a arătat că utilitatea acestor condiții este oarecum compromisă de faptul că este concentrată excesiv pe simularea în științele fizice și alte discipline în care simularea este bazată pe teorie și bazată pe ecuații. Acest lucru pare corect. În științele sociale și comportamentale și în alte discipline, în care simularea bazată pe agenți (vezi 2.2) este mai mult norma și în care modelele sunt construite în absența teoriilor consacrate și cantitative, EOCS ar trebui probabil să fie caracterizată în alți termeni.

De exemplu, unii oameni de știință sociali care utilizează simularea pe bază de agenți urmăresc o metodologie în care fenomenele sociale (de exemplu un model observat precum segregarea) sunt explicate sau explicate, prin generarea de fenomene similare în simulările lor (Epstein și Axtell 1996; Epstein 1999). Dar acest lucru ridică propriile sale tipuri de întrebări epistemologice. Ce anume s-a realizat, ce fel de cunoștințe au fost obținute, atunci când un fenomen social observat este mai mult sau mai puțin reprodus de o simulare bazată pe agenți? Aceasta contează ca o explicație a fenomenului? O posibilă explicație? (a se vedea, de exemplu, Grüne-Yanoff 2007). Giuseppe Primiero (2019) susține că există un întreg domeniu al „științelor artificiale” construit în jurul simulărilor bazate pe agenți și sisteme multi-agenți,și că necesită epistemologie proprie - una în care validarea nu poate fi definită prin comparație cu un sistem real din lumea reală, ci trebuie definită în raport cu un sistem prevăzut.

Este de asemenea corect să spunem, așa cum face Parker (2013), că condițiile prezentate mai sus acordă o atenție insuficientă diferitelor scopuri diferite și diferite pentru care sunt utilizate simulările (așa cum este discutat în 2.4). Dacă folosim o simulare pentru a face predicții cantitative detaliate despre comportamentul viitor al unui sistem țintă, epistemologia acestor inferențe ar putea necesita standarde mai stricte decât cele implicate atunci când se fac referințe despre comportamentul general, calitativ al unui întreg clasa de sisteme. Într-adevăr, este corect să spunem că s-ar putea face mult mai multe lucrări în clasificarea tipurilor de scopuri pentru care se pun simulări pe calculator și constrângerile pe care aceste scopuri le pun pe structura epistemologiei lor.

Frigg și Reiss (2009) au susținut că niciuna dintre aceste trei condiții nu este nouă pentru simularea computerului. Ei au susținut că modelarea obișnuită a „hârtiei și creionului” include aceste caracteristici. Într-adevăr, aceștia au susținut că simularea computerizată nu ar putea ridica noi probleme epistemologice, deoarece problemele epistemologice ar putea fi divizate curat în problema adecvării modelului care stă la baza simulării, ceea ce este o problemă identică cu problemele epistemologice care apar în mod obișnuit. modelarea și întrebarea corectitudinii soluției la ecuațiile model livrate de simulare, care este o întrebare matematică și nu una legată de epistemologia științei. Cu privire la primul punct, Winsberg (2009b) a răspuns că confluența simultană a tuturor celor trei caracteristici a fost nouă pentru simulare. Vom reveni la al doilea punct din secțiunea 4.3

4.2 EOCS și epistemologia experimentului

O parte din lucrările la EOCS au dezvoltat analogii între simularea computerului pentru a se baza pe lucrările recente în epistemologia experimentului, în special lucrarea lui Allan Franklin; vezi intrarea pe experimente în fizică.

În lucrarea sa privind epistemologia experimentului, Franklin (1986, 1989) a identificat o serie de strategii pe care experimentatorii le folosesc pentru a crește încrederea rațională în rezultatele lor. Weissart (1997) și Parker (2008a) au argumentat pentru diverse forme de analogie între aceste strategii și o serie de strategii disponibile simulatorilor pentru a-și sancționa rezultatele. Cea mai detaliată analiză a acestor relații se regăsește în Parker 2008a, unde folosește și aceste analogii pentru a evidenția punctele slabe din abordările actuale ale evaluării modelului de simulare.

Winsberg (2003) folosește, de asemenea, lucrările lui Ian Hacking (1983, 1988, 1992) la filozofia experimentului. Una dintre ideile centrale ale lui Hacking despre experiment este surprinsă în sloganul său că experimentele au o viață proprie”(1992: 306). Hacking-ul intenționează să transmită două lucruri cu acest slogan. Prima a fost o reacție împotriva imaginii instabile a științei care vine, de exemplu, din Kuhn. Hacking (1992) sugerează că rezultatele experimentale pot rămâne stabile chiar și în fața schimbărilor dramatice din celelalte părți ale științelor. Al doilea punct, înrudit pe care intenționa să-l transmită, a fost că „experimentele sunt organice, se dezvoltă, se schimbă și totuși păstrează o anumită dezvoltare pe termen lung care ne face să vorbim despre repetarea și replicarea experimentelor” (1992: 307). Unele dintre tehnicile pe care simulatorii le utilizează pentru a-și construi modelele obțin acreditarea în același mod în care Hacking spune că instrumentele și procedurile și metodele experimentale o fac; acreditările se dezvoltă pe o perioadă lungă de timp și devin profund legate de tradiție. În limbajul lui Hacking, tehnicile și seturile de presupuneri pe care simulatorii le folosesc devin „auto-reivindicative”. Poate că o expresie mai bună ar fi că aceștia poartă propriile lor acreditări. Aceasta oferă un răspuns la problema prezentată în 4.1, a înțelegerii modului în care simularea poate avea o epistemologie viabilă, în ciuda caracterului autonom și autonom al inferențelor sale.tehnicile și seturile de presupuneri pe care simulatorii le folosesc devin „auto-reivindicative”. Poate că o expresie mai bună ar fi că aceștia poartă propriile lor acreditări. Aceasta oferă un răspuns la problema prezentată în 4.1, a înțelegerii modului în care simularea poate avea o epistemologie viabilă, în ciuda caracterului autonom și autonom al inferențelor sale.tehnicile și seturile de presupuneri pe care simulatorii le folosesc devin „auto-reivindicative”. Poate că o expresie mai bună ar fi că aceștia poartă propriile lor acreditări. Aceasta oferă un răspuns la problema prezentată în 4.1, a înțelegerii modului în care simularea poate avea o epistemologie viabilă, în ciuda caracterului autonom și autonom al inferențelor sale.

Inspirand dintr-un alt filozof al experimentului (Mayo 1996), Parker (2008b) sugerează un remediu la unele dintre deficiențele abordărilor actuale ale evaluării modelului de simulare. În această lucrare, Parker sugerează că abordarea statistică a erorilor Mayo pentru înțelegerea experimentului tradițional - care folosește noțiunea de „test sever” - ar putea arunca lumină asupra epistemologiei simulării. Întrebarea centrală a epistemologiei simulării din perspectiva erorilor-statistice devine: „Ce ne garantează faptul că luarea unei simulări computerizate este un test sever al unor ipoteze despre lumea naturală? Adică, ceea ce garantează concluzia noastră că simularea ar fi puțin probabil să dea rezultatele pe care le-a dat de fapt, dacă ipoteza de interes ar fi falsă (2008b,380)? Parker consideră că prea mult din ceea ce trece pentru evaluarea modelului de simulare nu are rigurozitate și structură, deoarece:

constă în puțin mai mult decât comparații cot la cot ale producției de simulare și a datelor de observație, cu puține sau deloc argumente explicite cu privire la ceea ce, dacă este ceva, aceste comparații indică capacitatea modelului de a furniza dovezi pentru ipoteze științifice specifice de interes. (2008b, 381)

Bazându-se în mod explicit pe lucrările lui Mayo (1996), ea susține că ceea ce ar trebui să facă epistemologia simulării, în schimb, oferă o oarecare relatare a „erorilor canonice” care pot apărea, precum și a strategiilor de probare a prezenței lor.

4.3 Verificare și validare

Practicanții simulării, în special în contexte inginerești, în testarea armelor și în științele climatului, tind să conceptualizeze EOCS în termeni de verificare și validare. Se spune că verificarea este procesul de a determina dacă rezultatul simulării apropie adevăratele soluții la ecuațiile diferențiale ale modelului inițial. Pe de altă parte, despre validare, se spune că este procesul de a determina dacă modelul ales este o reprezentare suficient de bună a sistemului real pentru scopul simulării. Literatura privind verificarea și validarea de la ingineri și oameni de știință este enormă și începe să primească o oarecare atenție din partea filozofilor.

Verificarea poate fi împărțită în verificarea soluției și verificarea codului. Primul verifică dacă rezultatul algoritmului propus se apropie de adevăratele soluții la ecuațiile diferențiale ale modelului inițial. Acesta din urmă verifică dacă codul, așa cum este scris, realizează algoritmul prevăzut. Verificările de cod au fost ignorate în mare parte de filosofii științei; probabil pentru că a fost văzută ca mai mult o problemă în informatică decât în științe empirice - poate o greșeală. O parte a verificării soluțiilor constă în compararea producției calculate cu soluții analitice (așa-numitele „soluții de referință”). Cu toate că această metodă poate ajuta, desigur, să justifice rezultatele unei simulări computerizate, însă, prin ea însăși, este inadecvată,deoarece simulările sunt adesea utilizate tocmai pentru că soluția analitică nu este disponibilă pentru regiunile din spațiul soluției care sunt de interes. Sunt disponibile și alte tehnici indirecte: cea mai importantă este verificarea pentru a vedea dacă și în ce ritm ieșirea calculată converg la o soluție stabilă, deoarece timpul și rezoluția spațială a grilei de discretizare devin mai fine.

Principala strategie de validare presupune compararea ieșirii modelului cu datele observabile. Din nou, desigur, această strategie este limitată în majoritatea cazurilor, în care se execută simulări, deoarece datele observabile sunt rare. Dar strategii complexe pot fi folosite, inclusiv compararea producției subsistemelor unei simulări cu experimente relevante (Parker, 2013; Oberkampf și Roy 2010).

Conceptele de verificare și validare au atras unele critici din partea filozofilor. Oreskes și colab. 1994, un articol foarte citat, a fost în mare măsură critic în ceea ce privește terminologia, susținând că „validitatea”, în special, este o proprietate care se aplică doar argumentelor logice și, prin urmare, termenul, atunci când este aplicat modelelor, poate duce la supraconfidență..

Winsberg (2010, 2018, p.155) a susținut că diviziunea conceptuală între verificare și validare poate fi înșelătoare, dacă se consideră că există un set de metode care, de la sine, pot demonstra că am rezolvat ecuațiile corect, și că există un alt set de metode, care, de la sine, pot arăta că avem ecuațiile corecte. El a susținut, de asemenea, că este înșelător să crezi că epistemologia simulării este divizată curat într-o parte empirică (verificare) și o parte matematică (și informatică) (validare). Dar această idee înșelătoare urmează adesea discuției despre verificare și validare. Acest lucru îl găsim atât în activitatea practicienilor, cât și a filozofilor.

Iată linia standard de la un practicant, Roy: „Verificarea tratează matematica și abordează corectitudinea soluției numerice la un model dat. Validarea, pe de altă parte, se ocupă de fizică și abordează adecvarea modelului în reproducerea datelor experimentale. Verificarea poate fi gândită ca soluționând corect ecuațiile alese, în timp ce validarea este alegerea ecuațiilor corecte în primul rând”(Roy 2005).

Unii filosofi au pus această distincție să lucreze în argumente despre noutatea filozofică a simulării. Mai întâi am ridicat această problemă în secțiunea 4.1, unde Frigg și Reiss au susținut că simularea nu poate avea trăsături epistemologice inedite, deoarece conținea două componente distincte: o componentă care este identică cu epistemologia modelării obișnuite și o componentă care este în întregime matematică. „Ar trebui să distingem aici două noțiuni de fiabilitate diferite, răspunzând la două întrebări diferite. În primul rând, soluțiile pe care computerul le oferă suficient de aproape de soluțiile reale (dar indisponibile) să fie utile?… Aceasta este o întrebare pur matematică și se încadrează în clasa de probleme pe care tocmai am menționat-o. Așadar, nu există nimic nou aici din punct de vedere filosofic, iar întrebarea este într-adevăr una dintre problemele numărului. Al doilea,modelele de calcul care stau la baza simulărilor reprezintă corect sistemul țintă? Adică, rezultatele simulării sunt valabile extern? Aceasta este o întrebare serioasă, dar care este independentă de prima problemă și una care apare în mod egal în legătură cu modelele care nu implică matematică și experimente obișnuite”(Frigg și Reiss 2009).

Dar verificarea și validarea nu sunt, strict vorbind, atât de separabile curat. Aceasta deoarece majoritatea metodelor de validare, de la sine, sunt mult prea slabe pentru a stabili validitatea unei simulări. Și majoritatea ecuațiilor model alese pentru simulare nu sunt în niciun sens simplu „ecuațiile corecte”; ele nu sunt ecuațiile model pe care le-am alege într-o lume ideală. Avem motive întemeiate să ne gândim, cu alte cuvinte, că există ecuații model acolo care beneficiază de un suport empiric mai bun, în abstract. Ecuațiile pe care le alegem reflectă adesea un compromis între ceea ce credem că descrie cel mai bine fenomenele și tratabilitatea computatională. Deci ecuațiile alese sunt rareori bine „validate” de la sine. Dacă dorim să înțelegem de ce rezultatele simulării sunt considerate credibile,trebuie să privim epistemologia simulării ca un întreg integrat, nu atât de curând împărțit în verificare și validare - fiecare dintre ele, pe cont propriu, ar părea inadecvat sarcinii.

Așadar, un punct este că verificarea și validarea nu sunt activități de succes independent și separabile. Dar celălalt aspect este că nu există două entități independente către care se pot orienta aceste activități: un model ales pentru a discreta și o metodă pentru discretizarea acesteia. Odată ce cineva recunoaște că ecuațiile care trebuie „rezolvate” sunt uneori alese astfel încât să se anuleze erorile de discretizare etc. (Lenhard 2007 are un exemplu foarte frumos în acest sens care implică operatorul Arakawa), această distincție ulterioară devine mai greu de întreținut. Așadar, succesul se obține prin simulare cu un fel de ajustare înapoi și înapoi, de încercare și de eroare, fragmentare între model și metoda de calcul. Și atunci când este cazul, este greu chiar să știi ce înseamnă să spui că o simulare este verificată și validată separat.

Nimeni nu a susținut că V&V nu este o distincție utilă, ci mai degrabă că oamenii de știință nu ar trebui să exagereze o distincție pragmatic utilă într-un dictat metodologic curat care să reprezinte greșit meseria propriei practici. Colateral, argumentul lui Frigg și Reiss pentru absența noutății epistemologice în simulare eșuează doar din acest motiv. Nu este „o întrebare pur matematică” dacă soluțiile pe care computerul le oferă suficient de aproape de soluțiile reale (dar indisponibile) să fie utile. Cel puțin nu în acest sens: nu este o întrebare la care se poate răspunde, ca o chestiune pragmatică, folosind în întregime metode matematice. Prin urmare, este o problemă empirică / epistemologică care nu apare în modelarea obișnuită.

4.4 EOCS și drept epistemic

Un aspect major al epistemologiei obișnuite (în afara filozofiei științei) este de a sublinia gradul în care este o condiție pentru posibilitatea cunoașterii pe care ne bazăm pe simțurile noastre și pe mărturia altor oameni într-un mod pe care nu ne putem justifica. Potrivit lui Tyler Burge (1993, 1998), credința în rezultatele acestor două procese este justificată, dar nu este justificată. Mai degrabă, potrivit lui Burge, avem dreptul la aceste credințe. „[Avem dreptul să se bazeze, alte lucruri egale, pe percepție, memorie, raționament deductiv și inductiv și pe… cuvântul altora” (1993, p. 458). Credințele la care un credincios are dreptul sunt cele care nu sunt acceptate de dovezi disponibile credinciosului, dar pe care credinciosul este totuși justificat să le creadă.

Unele lucrări în EOCS au dezvoltat analogii între simularea computerului și tipurile de practici de producere a cunoștințelor Asociații Burge cu drept. (A se vedea în special Barberousse and Vorms, 2014 și Beisbart, 2017.) Acesta este, în unele privințe, o dezlănțuire naturală a argumentelor lui Burge conform cărora observăm dovezile asistate de computer în acest fel (1998). Simulările computerizate sunt extrem de complexe, adesea rezultatul muncii epistemice a unui set divers de oameni de știință și alți experți, și poate cel mai important, epistemic opac (Humphreys, 2004). Datorită acestor caracteristici, Beisbart susține că este rezonabil să tratăm simulările computerului în același mod în care tratăm simțurile noastre și mărturia altora: pur și simplu ca lucruri care pot fi de încredere presupunând că totul funcționează fără probleme. (Beisbart, 2017).

Symons și Alvarado (2019) susțin că există o problemă fundamentală cu această abordare a EOCS și aceasta are legătură cu o caracteristică a probelor asistate de computer, care a fost crucială pentru contul inițial al lui Burge: acela de a fi un „transportor transparent”. „Este foarte important de menționat, de exemplu, faptul că contul lui Burge privind păstrarea conținutului și transmiterea transparentă impune ca destinatarul să aibă deja motive să nu se îndoiască de sursă” (p. 13). Însă Symons și Alvarado indică multe dintre proprietățile simulărilor de computer (extrăgând din Winsberg 2010 și Ruphy 2015) în virtutea cărora nu reușesc să aibă aceste proprietăți. Lenhard și Küster 2019 sunt relevante și aici,deoarece susțin că există multe caracteristici ale simulării computerului care le fac dificil de reprodus și, prin urmare, subminează o parte din stabilitatea care ar fi necesară pentru a fi transportoare transparente. Din aceste motive și altele care au de-a face cu multe dintre caracteristicile discutate la 4.2 și 4.3, Symons și Alvarado susțin că este improvizabil că ar trebui să privim simularea computerului ca o practică epistemică de bază la fel cu percepția simțului, memoria, mărturia sau asemenea.

4.5 Abordări pragmatice ale EOCS

O altă abordare a EOCS este de a o fundamenta în aspectele practice ale meșteșugului modelării și simulării. Conform acestei opinii, cu alte cuvinte, cel mai bun cont pe care îl putem oferi despre motivele pe care le avem pentru a crede rezultatele studiilor de simulare pe calculator este să avem încredere în abilitățile practice și meseria modelatorilor care le folosesc. Un bun exemplu de acest tip de cont este (Hubig și Kaminski, 2017). Scopul epistemologic al acestui gen de lucrări este identificarea locului încrederii noastre în simulări în aspecte practice ale meșteșugului modelării și simulării, mai degrabă decât în orice caracteristici ale modelelor în sine. (Resch și colab., 2017) susțin că o bună parte din motivul pentru care ar trebui să avem încredere în simulări nu se datorează simulărilor în sine,ci datorită interpretării artistice a celor care își folosesc arta și priceperea pentru a interpreta rezultatele de simulare. Symons și Alvarado (2019) sunt, de asemenea, critice cu această abordare, argumentând că „O parte din sarcina epistemologiei simulării computerului este de a explica diferența dintre poziția savantului contemporan în raport cu simulările computerizate epistemic …” (p.7) și credincioșii aflați într-o relație de oracol mecanic cu oracolele lor. Considerațiile pragmatice și epistemice, conform Symons și Alvarado, coexistă și nu sunt concurenți posibili pentru explicarea corectă a încrederii noastre în simulări - motivele epistemice sunt cele care le explică și le fundamentează pe cele pragmatice.argumentând că „O parte din sarcina epistemologiei simulării computerului este de a explica diferența dintre poziția omului de știință contemporan în raport cu simulările computerizate epistemic opace..” (p.7) și credincioșii aflați în relația unui oracol mecanic cu oracolele lor. Considerațiile pragmatice și epistemice, conform Symons și Alvarado, coexistă și nu sunt concurenți posibili pentru explicarea corectă a încrederii noastre în simulări - motivele epistemice sunt cele care le explică și le fundamentează pe cele pragmatice.argumentând că „O parte din sarcina epistemologiei simulării computerului este de a explica diferența dintre poziția omului de știință contemporan în raport cu simulările computerizate epistemic opace..” (p.7) și credincioșii aflați în relația unui oracol mecanic cu oracolele lor. Considerațiile pragmatice și epistemice, conform Symons și Alvarado, coexistă și nu sunt concurenți posibili pentru explicarea corectă a încrederii noastre în simulări - motivele epistemice sunt cele care le explică și le fundamentează pe cele pragmatice.și nu sunt concurenți posibili pentru explicarea corectă a încrederii noastre în simulări - motivele epistemice sunt cele care le explică și le fundamentează pe cele pragmatice.și nu sunt concurenți posibili pentru explicarea corectă a încrederii noastre în simulări - motivele epistemice sunt cele care le explică și le fundamentează pe cele pragmatice.

5. Simulare și experiment

Oamenii de știință care lucrează descriu uneori studii de simulare în termeni experimentali. Conexiunea dintre simulare și experiment merge probabil până la von Neumann, care, atunci când susține foarte devreme pentru utilizarea computerelor în fizică, a observat că multe experimente dificile trebuiau efectuate doar pentru a determina fapte care, în principiu, ar trebui să fii derivat din teorie. Odată ce viziunea lui von Neumann a devenit o realitate, iar unele dintre aceste experimente au început să fie înlocuite cu simulări, a devenit oarecum firesc să le vedem ca versiuni ale experimentului. Un pasaj reprezentativ poate fi găsit într-o carte populară de simulare:

O simulare care imită cu exactitate un fenomen complex conține o mulțime de informații despre acel fenomen. Variabilele precum temperatura, presiunea, umiditatea și viteza vântului sunt evaluate de mii de puncte de supercomputer, deoarece simulează dezvoltarea unei furtuni, de exemplu. Astfel de date, care depășesc cu mult orice ar putea fi obținut din lansarea unei flote de baloane meteorologice, dezvăluie detalii intime despre ceea ce se întâmplă în norul de furtună. (Kaufmann și Smarr 1993, 4)

Ideea experimentelor „in silico” devine și mai plauzibilă atunci când un studiu de simulare este conceput pentru a afla ce se întâmplă cu un sistem ca urmare a diferitelor intervenții posibile: Ce s-ar întâmpla cu climatul global dacă x cantitate de carbon ar fi adăugată în atmosferă ? Ce se va întâmpla cu această aripă a avionului dacă este supusă unei asemenea tulpini? Cum s-ar schimba modelele de trafic dacă se adaugă un onramp în această locație?

Filozofii, în consecință, au început să ia în considerare în ce sens, dacă există, simulările computerului sunt ca experimente și în ce sens diferă. O problemă înrudită este întrebarea când un proces care implică fundamental simularea computerului poate fi considerat ca măsurătoare (Parker, 2017) În literatura de specialitate au apărut o serie de opinii centrate în apărarea și criticarea a două teze:

Teza de identitate. Studiile de simulare pe calculator sunt literalmente cazuri de experimente.

Teza de dependență epistemologică. Teza de identitate ar fi (dacă ar fi adevărat) un motiv bun (versiunea slabă) sau cel mai bun motiv (versiunea mai puternică) sau singurul motiv (versiunea cea mai puternică; este o condiție necesară) să crezi că simulările pot oferi garanții pentru credința în ipotezele pe care le susțin. O consecință a celei mai puternice versiuni este că numai dacă teza de identitate este adevărată, există motive să credem că simulările pot conferi o garanție pentru a crede în ipoteze.

Ideea centrală din spatele tezei dependenței epistemologice este că experimentele sunt entitățile canonice care joacă un rol central în garantarea credinței noastre în ipoteze științifice și, prin urmare, gradul în care ar trebui să credem că simulările pot juca și ele un rol în garantarea unor astfel de credințe. depinde de măsura în care pot fi identificați ca un fel de experiment.

Se pot găsi filosofi care argumentează teza de identitate încă din Humphreys 1995 și Hughes 1999. Și există cel puțin un sprijin implicit pentru versiunea (mai puternică) a tezei de dependență epistemologică din Hughes. Cel mai timpuriu argument explicit în favoarea tezei dependenței epistemologice este însă în Norton și Suppe 2001. Potrivit Norton și Suppe, simulările pot justifica credința tocmai pentru că sunt literalmente experimente. Ei au o poveste detaliată pentru a povesti în ce sens sunt experimente și cum ar trebui să funcționeze toate acestea. Potrivit Norton și Suppe, o simulare valabilă este aceea în care anumite relații formale (ceea ce ei numesc „realizare”) dețin între un model de bază, sistemul fizic modelat în sine și computerul care rulează algoritmul. Când sunt îndeplinite condițiile corespunzătoare,„o simulare poate fi folosită ca instrument pentru detectarea sau detectarea fenomenelor din lumea reală. Datele empirice despre fenomenele reale sunt produse în condiții de control experimental”(p. 73).

O problemă a acestei povești este că condițiile formale pe care le-au stabilit sunt mult prea stricte. Este puțin probabil să existe foarte multe exemple reale de simulări pe computer care respectă standardele lor stricte. Simularea este aproape întotdeauna o întreprindere mult mai idealizantă și mai apropiată. Deci, dacă simulările sunt experimente, probabil nu este așa cum și-au imaginat Norton și Suppe.

Mai general, teza de identitate a luat foc din alte sferturi.

Gilbert și Troitzsch au susținut că „[diferența majoră] este că, în timp ce într-un experiment, se controlează obiectul real de interes (de exemplu, într-un experiment de chimie, substanțele chimice în curs de investigare), într-o simulare se experimentează cu un model mai degrabă decât fenomenul în sine”. (Gilbert și Troitzsch 1999, 13). Dar acest lucru nu pare corect. Mulți (Guala 2002, 2008, Morgan 2003, Parker 2009a, Winsberg 2009a) au semnalat probleme cu revendicarea. Dacă Gilbert și Troitzsch înseamnă că simulatorii manipulează modele în sensul obiectelor abstracte, atunci afirmația este dificil de înțeles - cum manipulăm o entitate abstractă? Dacă, pe de altă parte, ele înseamnă pur și simplu să sublinieze faptul că obiectul fizic pe care simulatorii îl manipulează - un computer digital - nu este obiectul de interes real,atunci nu este clar de ce acest lucru diferă de experimentele obișnuite.

Este fals că experimentele reale manipulează întotdeauna exact țintele lor de interes. De fapt, atât în experimente cât și în simulări reale, există o relație complexă între ceea ce este manipulat în anchetă pe de o parte și sistemele din lumea reală care sunt țintele investigației, pe de altă parte. Prin urmare, atât în cazul experimentului, cât și al simulării, este nevoie de un argument al unei anumite substanțe pentru a stabili „validitatea externă” a investigației - pentru a stabili că ceea ce se învață despre sistemul manipulat este aplicabil sistemului de interes. Mendel, de exemplu, a manipulat plantele de mazăre, dar era interesat să afle despre fenomenul de ereditate în general. Ideea unui organism model în biologie face ca această idee să fie una evidentă. Experimentăm pe Caenorhabditis elegans pentru că suntem interesați să înțelegem cum organismul utilizează în general gene pentru a controla dezvoltarea și genealogia. Experimentăm pe Drosophila melanogaster, deoarece oferă un model util de mutații și moștenire genetică. Dar ideea nu se limitează la biologie. Galileo a experimentat avioane înclinate pentru că era interesat de cum cad obiectele și cum se vor comporta în absența unor fenomene de forțe care intervin, pe care experimentele planului înclinat nici măcar nu le instantaneu. Galileo a experimentat avioane înclinate pentru că era interesat de cum cad obiectele și cum se vor comporta în absența unor fenomene de forțe care intervin, pe care experimentele planului înclinat nici măcar nu le instantaneu. Galileo a experimentat avioane înclinate pentru că era interesat de cum cad obiectele și cum se vor comporta în absența unor fenomene de forțe care intervin, pe care experimentele planului înclinat nici măcar nu le instantaneu.

Desigur, această părere despre experimente nu este necontestată. Este adevărat că, destul de des, experimentaliștii deduc ceva despre un sistem distinct de sistemul cu care intervin. Cu toate acestea, nu este clar dacă această inferență face parte din experimentul inițial. Peschard (2010) susține o critică de-a lungul acestor linii și, prin urmare, poate fi văzut ca un apărător al lui Gilbert și Troitzsch. Peschard susține că asumarea fundamentală a criticilor lor - că în experimentare, la fel ca în simulare, ceea ce este manipulat este un sistem care stă la dispoziția unui sistem țintă - este confuz. Confuză, susține Peschard, ținta epistemică a unui experiment cu motivația sa epistemică. Ea susține că, deși motivația epistemică de a face experimente pe C. elegans ar putea fi de anvergură,ținta epistemică adecvată pentru orice astfel de experiment este viermele în sine. Totuși, într-o simulare, potrivit lui Peschard, ținta epistemică nu este niciodată computerul digital în sine. Astfel, simularea este distinctă de experiment, potrivit ei, prin faptul că ținta ei epistemică (spre deosebire de simpla motivație epistemică) este distinctă de obiectul manipulat. Roush (2017) poate fi văzut și ca un apărător al liniei Gilbert și Troitzsch, dar Roush apelează la similitudinea tipurilor naturale ca trăsătură crucială care separă experimentele și simulările. Alți adversari ai tezei de identitate includ Giere (2009) și Beisbart și Norton (2012, Alte resurse de internet).prin aceea că ținta sa epistemică (spre deosebire de simpla motivație epistemică) este distinctă de obiectul manipulat. Roush (2017) poate fi văzut și ca un apărător al liniei Gilbert și Troitzsch, dar Roush apelează la similitudinea tipurilor naturale ca trăsătură crucială care separă experimentele și simulările. Alți adversari ai tezei de identitate includ Giere (2009) și Beisbart și Norton (2012, Alte resurse de internet).prin aceea că ținta sa epistemică (spre deosebire de simpla motivație epistemică) este distinctă de obiectul manipulat. Roush (2017) poate fi văzut și ca un apărător al liniei Gilbert și Troitzsch, dar Roush apelează la similitudinea tipurilor naturale ca trăsătură crucială care separă experimentele și simulările. Alți adversari ai tezei de identitate includ Giere (2009) și Beisbart și Norton (2012, Alte resurse de internet). Alte resurse de internet). Alte resurse de internet).

Nu este clar modul de soluționare a acestei dispute și pare să se învârte în primul rând în jurul unei diferențe de accent. Se poate sublinia diferența dintre experiment și simulare, urmând Gilbert și Troitzsch și Peschard, insistând că experimentele ne învață mai întâi despre țintele lor epistemice și permit în mod secundar doar inferențe asupra comportamentului altor sisteme. (Adică, experimentele pe viermi ne învață, în primul rând, despre viermi și ne permit doar să facem inferențe despre controlul genetic mai general.) Acest lucru le va face conceptual diferit de simulările computerului, care nu sunt gândite să ne învețe, în prima instanță, despre comportamentul computerelor și numai în a doua instanță despre furtuni, galaxii sau orice altceva.

Sau se poate sublinia similitudinea în sens invers. Se poate sublinia gradul în care țintele experimentale sunt alese întotdeauna ca surogate pentru ceea ce este cu adevărat de interes. Morrison, 2009 este probabil cel mai puternic apărător al accentuării acestui aspect al similitudinii experimentului și simulării. Ea susține că cele mai multe practici experimentale, și într-adevăr cele mai multe practici de măsurare, implică aceleași tipuri de practici de modelare ca și simulările. În orice caz, ritmează-l pe Peschard, altceva decât o dezbatere despre nomenclatură - și poate un apel la utilizarea obișnuită a limbajului oamenilor de știință; nu întotdeauna cel mai convingător tip de argument - ne-ar împiedica să spunem că ținta epistemică a simulării furtunii este computerul și că furtuna este doar motivația epistemică pentru studiul computerului.

Așa cum s-ar putea, mulți filosofi ai simulării, inclusiv cei discutați în această secțiune, au ales această din urmă cale - parțial ca o modalitate de a atrage atenția asupra modurilor în care mesajul care se ascunde în spatele afirmației citate de Gilbert și Troitzsch pictează o imagine prea simplistă a experiment. Pare prea simplist să pictezi o imagine conform căreia experimentul capătă o influență directă asupra lumii, în timp ce situația simulării este exact opusă. Și aceasta este imaginea care pare să obțină din citatul lui Gilber și Troitzsch. Imaginea mai sofisticată a lui Peschard, care implică o distincție între țintele epistemice și motivațiile epistemice, merge mult spre direcționarea acestor preocupări, fără a ne împinge pe teritoriul gândirii că simularea și experimentul sunt exact aceleași, în această privință.

Totuși, în ciuda respingerii caracterizării lui Gilbert și Troitzsch a diferenței dintre simulare și experiment, Guala și Morgan resping ambele teze de identitate. Bazându-se pe opera lui Simon (1969), Guala susține că simulările diferă fundamental de experimente prin faptul că obiectul manipulării într-un experiment poartă o similitudine materială cu ținta de interes, dar într-o simulare, similitudinea dintre obiect și țintă este doar formal. Interesant este că, în timp ce Morgan acceptă acest argument împotriva tezei de identitate, pare să țină o versiune a tezei de dependență epistemologică. Ea susține, cu alte cuvinte,că diferența dintre experimente și simulări identificate de Guala implică faptul că simulările sunt inferioare epistemologic față de experimentele reale - că au o putere intrinsec mai mică de a justifica credința în ipoteze despre lumea reală, deoarece nu sunt experimente.

O apărare a puterii epistemice a simulărilor împotriva argumentului lui Morgan (2002) poate veni sub forma unei apărări a tezei de identitate sau sub forma unei respingeri a tezei dependenței epistemologice. Pe primul plan, se pare că există două probleme cu argumentul lui Guala (2002) împotriva tezei de identitate. Prima este că noțiunea de asemănare materială este prea slabă, iar cea de-a doua este că noțiunea de simplă similitudine formală este prea vagă pentru a face lucrările necesare. Luați în considerare, de exemplu, faptul că nu este neobișnuit, în științele ingineriei, să folosiți metode de simulare pentru a studia comportamentul sistemelor fabricate din siliciu. Inginerul vrea să afle despre proprietățile diferitelor posibilități de proiectare pentru un dispozitiv de siliciu,așa că dezvoltă un model de calcul al dispozitivului și rulează o simulare a comportamentului său pe un computer digital. Există similitudini adânci între materiale și unele dintre aceleași cauze materiale sunt în lucru, procesorul central al computerului și dispozitivul de siliciu fiind studiate. Pe linia raționamentului lui Guala, acest lucru ar trebui să marcheze acest lucru ca un exemplu de experiment real, dar asta pare greșit. Particularitățile acestui exemplu ilustrează problema destul de clar, dar problema este de fapt destul de generală: orice două sisteme prezintă unele similitudini materiale unele cu altele și unele diferențe.acest lucru ar trebui să marcheze acest lucru ca un exemplu de experiment real, dar asta pare greșit. Particularitățile acestui exemplu ilustrează problema destul de clar, dar problema este de fapt destul de generală: orice două sisteme prezintă unele similitudini materiale unele cu altele și unele diferențe.acest lucru ar trebui să marcheze acest lucru ca un exemplu de experiment real, dar asta pare greșit. Particularitățile acestui exemplu ilustrează problema destul de clar, dar problema este de fapt destul de generală: orice două sisteme prezintă unele similitudini materiale unele cu altele și unele diferențe.

Parke (2014) susține teza de dependență epistemologică subminând două premise pe care crede că o susțin: pumnul, că experimentele generează o putere inferentială mai mare decât simulările și, în al doilea rând, că simulările nu ne pot surprinde în același mod în care experimentele pot.

Pe partea de rabat, ideea conform căreia existența unei asemănări formale între două entități materiale ar putea marca orice interesant este confuză conceptual. Având în vedere două entități suficient de complexe, există multe moduri în care ele sunt formal identice, ca să nu mai vorbim de similare. Există, de asemenea, moduri în care acestea sunt complet diferite formal. Acum, putem vorbi vag și să spunem că două lucruri poartă o similaritate formală, dar ceea ce înseamnă cu adevărat este că cele mai bune reprezentări formale ale celor două entități au asemănări formale. În orice caz, se pare că există motive întemeiate pentru a respinge atât Gilbert și Troitzsch, cât și motivele Morgan și Guala pentru a distinge experimente și simulări.

Revenind la apărarea puterii epistemice a simulărilor, există și motive de respingere a tezei dependenței epistemologice. După cum subliniază Parker (2009a), atât în experiment cât și în simulare, putem avea similitudini relevante între simulările computerului și sistemele țintă, iar asta contează. Când există cunoștințe de fond relevante, o simulare poate oferi cunoștințe mai fiabile despre un sistem decât un experiment. O simulare computerizată a sistemului solar, bazată pe cele mai sofisticate modele noastre de dinamică cerească, va produce reprezentări mai bune ale orbitelor planetelor decât orice experiment.

Parke (2014) susține teza de dependență epistemologică subminând două premise pe care crede că o susțin: pumnul, că experimentele generează o putere inferentială mai mare decât simulările și, în al doilea rând, că simulările nu ne pot surprinde în același mod în care experimentele pot. Argumentul potrivit căruia simulările nu ne pot surprinde vine de la Morgan (2005). Pace Morgan, Parke susține că simulatorii sunt adesea surprinși de simulările lor, atât pentru că nu sunt omnisciente din punct de vedere al calculului, cât și pentru că nu sunt întotdeauna singurii creatori ai modelelor și codurilor pe care le folosesc. De asemenea, ea susține că „[d] simțurile din stările epistemice ale cercetătorului, par a fi motivele greșite pentru urmărirea unei distincții între experiment și simulare” (258). Adrian Curry (2017) apără intuiția originală a lui Morgan, făcând două amendamente prietenoase. El susține că distincția Morgan a fost cu adevărat după aceea a fost între două tipuri diferite de surprize și, în special, care este sursa surprizei: surpriza datorită punerii în contact a cunoștințelor teoretice este deosebită de experiment. De asemenea, el definește mai cu atenție surpriza într-un mod non-psihologic, astfel încât este o „calitate a cărei realizare constituie un progres epistemic autentic” (p. 640).

6. Simularea computerului și structura teoriilor științifice

Paul Humphreys (2004) a susținut că simulările pe calculator au implicații profunde pentru înțelegerea noastră despre structura teoriilor; el susține că dezvăluie inadecvări atât cu viziunile semantice, cât și cu cele sintactice ale teoriilor științifice. Această afirmație a atras foc puternic de la Roman Frigg și Julian Reiss (2009). Frigg și Reiss susțin că dacă un model admite sau nu o soluție analitică nu are nicio influență asupra relației cu lumea. Ei folosesc exemplul dublului pendul pentru a arăta acest lucru. Dacă fulculul intern al pendulului este sau nu fixat (fapt care va determina dacă modelul relevant este rezolvabil analitic) nu are nicio influență asupra semanticii elementelor modelului. Din aceasta, ei concluzionează că semantica unui model sau modul în care se raportează la lume nu este afectată dacă modelul este sau nu analizat.

Totuși, acest lucru nu a reacționat la citirea cea mai caritabilă a ceea ce arăta Humphreys. Părerile sintactice și semantice ale teoriilor, până la urmă, nu erau doar relatări despre modul în care reprezentările noastre științifice abstracte se raportează la lume. Mai precis, ele nu erau povești despre relația dintre anumite modele și lume, ci mai degrabă despre relația dintre teorii și lume și rolul, dacă este cazul, pe care îl joacă modelele în acea relație.

Erau, de asemenea, povești care aveau multe de spus despre locul în care se află acțiunea interesantă din punct de vedere filosofic când vine vorba de teoretizarea științifică. Opinia sintactică a sugerat că practica științifică ar putea fi reconstruită în mod adecvat rațional, gândind teoriile ca sisteme axiomatice și, mai important, că deducerea logică a fost un ideal regulator util pentru a gândi cum se trag inferențele din teorie în lume. De asemenea, prin omisiune, viziunea sintactică a arătat, dacă este destul de clar, că modelarea nu a avut decât un rol euristic în știință. (Aceasta a fost o caracteristică a viziunii sintactice a teoriilor cu care Frederick Suppe, unul dintre cei mai arși critici ai săi, a adesea atacat.) Teoriile în sine nu aveau nicio legătură cu modelele și teoriile puteau fi comparate direct cu lumea, fără niciun rol important pentru modelare pentru a juca.

Opțiunea semantică a teoriilor, pe de altă parte, a subliniat un rol important pentru modele, dar a cerut, de asemenea, ca teoriile să fie entități non-lingvistice. Aceasta a îndemnat filosofii să nu fie distrași de contingențele formei particulare de exprimare lingvistică, o teorie care poate fi găsită într-un anumit manual.

Totuși, simulările pe calculator par să ilustreze că ambele teme au fost ghidate greșit. A fost profund greșit să credem că deducția logică este instrumentul potrivit pentru reconstruirea rațională a procesului de aplicare a teoriei. Simulările computerului arată că există metode de aplicare a teoriei care depășesc cu mult puterea inferențială a deducției logice. Spațiul soluțiilor, de exemplu, disponibil prin deducție logică din teoria fluidelor este microscopic în comparație cu spațiul aplicațiilor care poate fi explorat prin simularea computerului. Din partea flip, simulările computerului par să dezvăluie că, așa cum a cerut Humphreys (2004), contează sintaxa. S-a dovedit greșit, așa cum a arătat viziunea semantică, că forma lingvistică particulară în care este exprimată o teorie științifică este neinteresantă din punct de vedere filosofic. Sintaxa expresiei teoriei va avea un efect profund asupra a ceea ce se pot deduce din ea, ce tipuri de idealizări vor funcționa bine cu ea, etc. solvabilitatea ecuațiilor teoriei”(Humphreys 2009, p.620). Teoria fluidelor poate fi folosită pentru a sublinia acest punct: dacă exprimăm această teorie în formă euleriană sau lagrangiană va afecta profund ceea ce, în practică, putem calcula și cum; aceasta va afecta ce idealizări, aproximări și tehnici de calcul vor fi eficiente și fiabile în care circumstanțe. Așadar, epistemologia simulării computerului trebuie să fie sensibilă la formularea sintactică particulară a unei teorii și cât de bine a fost acreditată formularea respectivă. Prin urmare,pare corect să subliniem, așa cum a făcut Humphreys (2004), că simulările computerizate au evidențiat inadecvări atât cu teoriile sintactice, cât și cu cele semantice.

7. Apariția

Paul Humphreys (2004) și Mark Bedau (1997, 2011) au susținut că filosofii interesați de subiectul apariției pot învăța foarte multe analizând calculatorul. Filozofii interesați de acest subiect ar trebui să consulte rubrica privind proprietățile emergente, unde au fost discutate contribuțiile tuturor acestor filozofi.

Legătura dintre apariție și simulare a fost poate cel mai bine articulată de Bedau în publicația sa (2011). Bedau a susținut că orice concepție a emergenței trebuie să îndeplinească semnele gemene ale explicării modului în care întregul depinde de părțile sale și modul în care întregul este independent de părțile sale. El susține că filosofii se concentrează adesea pe ceea ce el numește o apariție „puternică”, ceea ce prezintă o cauză brută descendentă, care este, în principiu, ireductibilă. El susține însă că aceasta este o greșeală. El se concentrează în schimb pe ceea ce el numește apariția „slabă”, ceea ce permite reducerea capacității de vânzare a materiilor prime în principiu, dar nu în practică. Sistemele care produc proprietăți emergente sunt simple mecanisme, dar mecanismele sunt foarte complexe (au foarte multe părți care interacționează independent). Ca rezultat,nu există nicio modalitate de a ne da seama exact ce se va întâmpla, având în vedere un set specific de condiții inițiale și de graniță, cu excepția „crawling the web causal”. Aici apare conexiunea la simularea computerului. Proprietățile emergente slabe sunt caracteristice sistemelor complexe din natură. De asemenea, este caracteristică simulărilor complexe de computer că nu există nici o modalitate de a prezice ce vor face decât să le lase să ruleze. Apariția slabă explică, potrivit lui Bedau, de ce simulările computerului joacă un rol central în știința sistemelor complexe. Cea mai bună modalitate de a înțelege și prezice cum se comportă sistemele complexe reale este de a le simula prin glisarea web-ului micro-cauzal și a vedea ce se întâmplă. Proprietățile emergente slabe sunt caracteristice sistemelor complexe din natură. De asemenea, este caracteristică simulărilor complexe de computer că nu există nici o modalitate de a prezice ce vor face decât să le lase să ruleze. Apariția slabă explică, potrivit lui Bedau, de ce simulările computerului joacă un rol central în știința sistemelor complexe. Cea mai bună modalitate de a înțelege și prezice cum se comportă sistemele complexe reale este de a le simula prin glisarea web-ului micro-cauzal și a vedea ce se întâmplă. Proprietățile emergente slabe sunt caracteristice sistemelor complexe din natură. De asemenea, este caracteristică simulărilor complexe de computer că nu există nici o modalitate de a prezice ce vor face decât să le lase să ruleze. Apariția slabă explică, potrivit lui Bedau, de ce simulările computerului joacă un rol central în știința sistemelor complexe. Cea mai bună modalitate de a înțelege și prezice cum se comportă sistemele complexe reale este de a le simula prin glisarea web-ului micro-cauzal și a vedea ce se întâmplă. Cea mai bună modalitate de a înțelege și prezice cum se comportă sistemele complexe reale este de a le simula prin glisarea web-ului micro-cauzal și a vedea ce se întâmplă. Cea mai bună modalitate de a înțelege și prezice cum se comportă sistemele complexe reale este de a le simula prin glisarea web-ului micro-cauzal și a vedea ce se întâmplă.

8. Ficțiuni

Modelele implică desigur idealizări. Dar s-a susținut că unele tipuri de idealizare, care joacă un rol deosebit de important în tipurile de modelare implicate în simularea computerului, sunt deosebite - până la punctul că merită titlul de „ficțiune”. Această secțiune va discuta încercările de definire a ficțiunilor și de a explora rolul lor în simularea computerului.

Există două linii diferite de gândire despre rolul ficțiunilor în știință. Conform unuia, toate modelele sunt ficțiuni. Această linie de gândire este motivată de luarea în considerare, de exemplu, a rolului „pendulului ideal” în știință. Oamenii de știință, se susține, fac adesea afirmații cu privire la acest fel de entități (de exemplu, „pendulul ideal are o perioadă proporțională cu rădăcina pătrată a lungimii sale”), dar nu se găsesc nicăieri în lumea reală; de aceea trebuie să fie entități fictive. Această linie de argumentare despre entitățile fictive din știință nu se conectează într-un mod special cu simularea computerului, cititorii interesați de acest subiect ar trebui să consulte rubrica de reprezentare științifică [viitoare].

O altă linie de gândire despre ficțiuni este preocupată de întrebarea ce fel de reprezentări în știință ar trebui să fie considerate ca fiind fictive. Aici, preocuparea nu se referă atât la ontologia entităților de model științific, ci la caracterul reprezentativ al diferitelor entități model postulate. Aici, Winsberg (2009c) a susținut că ficțiunile au o conexiune specială la simulările computerizate. Sau mai degrabă, faptul că unele simulări de computer conțin elemente care tipifică cel mai bine ceea ce am putea numi reprezentări fictive în știință, chiar dacă aceste reprezentări nu sunt prezente în mod unic în simulări.

El observă că prima concepție a unei ficțiuni menționate mai sus - care face „orice reprezentare care contrazice realitatea să fie o ficțiune” (p. 179), nu corespunde utilizării noastre obișnuite a termenului: o hartă aspră nu este ficțiune. Apoi propune o definiție alternativă: nonficțiunea este oferită ca un ghid „suficient de bun” pentru o parte a lumii (p. 181); ficțiunea nu este. Dar definiția trebuie să fie rafinată. Ia fabula de lăcustă și furnică. Deși fabula oferă lecții despre cum este lumea, totuși este ficțiune, deoarece este „un ghid util pentru modul în care lumea este într-un anumit sens general”, mai degrabă decât un ghid specific pentru modul în care este o parte a lumii, „ țintă reprezentativă prima facie”, un cârpă cântăreț și furnică. Neficienții, pe de altă parte,„Punctează o anumită parte a lumii” și sunt un ghid către acea parte a lumii (p. 181).

Aceste tipuri de componente fictive ale modelelor sunt exemplificate paradigmatic în anumite simulări pe computer. Două dintre exemplele sale sunt „atomul de silogen” și „vâscozitatea artificială”. Atomii de silogen apar în anumite modele nanomecanice de fisuri din siliciu - o specie de tipul de modele multiscale care amestecă mecanica cuantică și mecanica moleculară menționate în secțiunea 2.3. Silogenul care conține modele de propagare a fisurilor în siliciu funcționează prin descrierea fisurii în sine folosind mecanica cuantică și regiunea care înconjoară imediat fisura folosind dinamica moleculară clasică. Pentru a reuni cadrele de modelare din cele două regiuni, granița este tratată ca și cum ar conține atomi „silogeni”, care au un amestec dintre proprietățile siliciu și cele ale hidrogenului. Atomii de silogen sunt ficțiuni. Nu li se oferă nici măcar o descriere „suficient de bună” a atomilor la graniță - țintele lor reprezentative prima facie. Dar sunt utilizate astfel încât modelul general să poată spera să obțină lucrurile. Astfel, modelul general nu este o ficțiune, dar una dintre componentele sale este. Viscozitatea artificială este un exemplu similar. Fluidele cu șocuri abrupte sunt greu de modelat pe o grilă de calcul, deoarece șocul brusc se ascunde în interiorul unei celule de grilă și nu poate fi rezolvat printr-un astfel de algoritm. Viscozitatea artificială este o tehnică care pretinde că fluidul este foarte vâscos - o ficțiune a fost corectă, astfel încât șocul devine mai puțin brusc și se estompează asupra mai multor celule grilă. Obținerea vâscozității și, prin urmare, grosimea șocului, greșită, ajută ca modelul general să funcționeze „suficient de bine”. Din nou,modelul general al fluidului nu este o ficțiune, ci este un ghid suficient de fiabil pentru comportamentul fluidului. Dar componenta numită vâscozitate artificială este o ficțiune - nu se folosește pentru modelarea fiabilă a șocului. Acesta este încorporat într-un cadru de modelare mai mare, astfel încât să facă acel cadru mai mare, „suficient de fiabil”.

Acest cont a atras două feluri de critici. Toon (2010) a susținut că această definiție a unei ficțiuni este prea restrânsă. El oferă exemple de ficțiuni istorice precum eu, Claudius și Arca lui Schindler, pe care el susține că sunt ficțiuni, în ciuda faptului că „sunt oferite drept ghiduri„ suficient de bune”pentru acei oameni, locuri și evenimente în anumite privințe și avem dreptul la ia-le ca atare.” (p. 286–7). Toon, probabil, susține o concepție mai largă a rolului ficțiunilor în știință, potrivit căreia acestea nu joacă un rol deosebit de proeminent sau intens în simularea computerului.

Gordon Purves (următorul) susține că există exemple de ficțiuni în modele de calcul (exemplul său este așa-numitele „fisuri imaginare”) și în alte părți, care nu îndeplinesc cerințele stricte discutate mai sus. Spre deosebire de Toon, el dorește, de asemenea, să delimiteze elemente de modelare fictive de cele non-fictive. Critica sa principală se referă la criteriul ficțiunii în ceea ce privește normele sociale de utilizare, iar Purves susține că ar trebui să putem să stabilim dacă o piesă de modelare este sau nu o ficțiune în absența unor astfel de norme. Astfel, el vrea să găsească o caracterizare intrinsecă a unei ficțiuni științifice. Propunerea sa este considerată constitutivă de ficțiunile modelului, încât nu reușesc să aibă caracteristica pe care Laymon (1985) a numit-o „improvabilitate bucală” (PI). PI este o caracteristică a multor modele care sunt idealizări;aceasta spune că pe măsură ce te dezidealizezi, modelul tău devine din ce în ce mai precis. Dar, pe măsură ce de-idealizezi un atom de silogen, nu obții o simulare din ce în ce mai exactă a unei fisuri de siliciu. Purves consideră însă că acest eșec al PI nu constituie o ficțiune, decât simptomatic.

Bibliografie

  • Barberousse, A. și P. Ludwig, 2009. „Models as Fictions”, în Fictions in Science. Eseuri filosofice în modelare și idealizări, Londra: Routledge, 56–73.
  • Barberousse, A. și Vorms, M. 2014. „Despre mandatele cunoașterii empirice bazate pe computer”, Synthese, 191 (15): 3595–3620.
  • Bedau, MA, 2011. „Emisiune slabă și simulare de computer”, în P. Humphreys și C. Imbert (eds.), Modele, simulări și reprezentări, New York: Routledge, 91–114.
  • –––, 1997. „Emisiune slabă”, Noûs (Suplimentul 11), 31: 375–399.
  • Beisbart, C. și J. Norton, 2012. „De ce simulările din Monte Carlo sunt inferențe și nu experimente”, în Studii internaționale în filosofia științei, 26: 403-422.
  • Beisbart, C., 2017. „Avansarea cunoștințelor prin simulări computerizate? Un exercițiu socratic”, în M. Resch, A. Kaminski și P. Gehring (eds.), Știința și arta simulării (volumul I), Cham: Springer, pp. 153-174./
  • Burge, T., 1993. „Conservarea conținutului”, The Philosophical Review, 102 (4): 457–488.
  • –––, 1998. „Proba computerizată, cunoștințele apriori și alte minți: a șasea prelegere de perspective filozofice”, Noûs,, 32 (S12): 1–37.
  • Currie, Adrian, 2018. „The argument from surprise”, Canadian Journal of Philosophy, 48 (5): 639–661
  • Dardashti, R., Thebault, K., și Winsberg, E., 2015. „Confirmare prin simulare analogică: ce găuri stupide ne-ar putea spune despre gravitație”, în British Journal for the Philosophy of Science, 68 (1): 55– 89
  • Dardashti, R., Hartmann, S., Thebault, K., și Winsberg, E., 2019. „Radiație Hawking și experimente analogice: o analiză bayesiană”, în Studii în istorie și filozofie a fizicii moderne, 67: 1-11.
  • Epstein, J. și R. Axtell, 1996. Societăți artificiale în creștere: științe sociale de jos în sus, Cambridge, MA: MIT Press.
  • Epstein, J., 1999. „Modele de calcul bazate pe agenți și științe sociale generative”, Complexitate, 4 (5): 41–57.
  • Franklin, A., 1996. The Neglect of Experiment, Cambridge: Cambridge University Press.
  • –––, 1989. „Epistemologia experimentului”, Utilizările experimentului, D. Gooding, T. Pinch și S. Schaffer (eds.), Cambridge: Cambridge University Press, 437–60.
  • Frigg, R., și J. Reiss, 2009. „Filosofia simulării: Probleme noi fierbinți sau aceeași tocană veche”, Synthese, 169: 593–613.
  • Giere, RN, 2009. „Simularea computerului schimbă fața experimentării?”, Studii filosofice, 143: 59–62
  • Gilbert, N. și K. Troitzsch, 1999. Simulation for the Social Scientist, Philadelphia, PA: Open University Press.
  • Grüne-Yanoff, T., 2007. „Bounded Rationality”, Compass Philosophy, 2 (3): 534–563.
  • Grüne-Yanoff, T. și Weirich, P., 2010. „Filozofia simulării”, Simularea și jocurile: un jurnal interdisciplinar, 41 (1): 1–31.
  • Guala, F., 2002. „Modele, simulări și experimente”, Raționament bazat pe model: știință, tehnologie, valori, L. Magnani și N. Nersessian (eds.), New York: Kluwer, 59-74.
  • –––, 2008. „Experimente paradigmatice: jocul Ultimatum de la testare la dispozitivul de măsurare”, Philosophy of Science, 75: 658-669.
  • Hacking, I., 1983. Reprezentarea și intervenția: subiecte introductive în filozofia științei naturale, Cambridge: Cambridge University Press.
  • –––, 1988. „Cu privire la stabilitatea științelor de laborator”, The Journal of Philosophy, 85: 507–15.
  • –––, 1992. „Experimentele gândirii au o viață proprie?” PSA (Volumul 2), A. Fine, M. Forbes și K. Okruhlik (eds.), East Lansing: The Philosophy of Science Association, 302–10.
  • Hartmann, S., 1996. „Lumea ca proces: simulări în științele naturii și sociale”, în R. Hegselmann și colab. (eds.), Modelarea și simularea în științele sociale din punctul de vedere al filozofiei științei, Dordrecht: Kluwer, 77–100.
  • Hubig, C, & Kaminski, A., 2017. „Schițe ale unei teorii pragmatice a adevărului și a erorilor în simularea computerului”, în M. Resch, A. Kaminski și P. Gehring (eds.), The Science and Art of Simulare (volumul I), Cham: Springer, p. 121–136.
  • Hughes, R., 1999. „The Ising Model, Computer Simulation and Universal Physics”, în M. Morgan și M. Morrison (eds.), Models as Mediators, Cambridge: Cambridge University Press.
  • Huggins, EM și EA Schultz, 1967. „Golful San Francisco într-un depozit”, Journal of the Institute of Environmental Sciences and Technology, 10 (5): 9–16.
  • Humphreys, P., 1990. „Computer Simulation”, în A. Fine, M. Forbes și L. Wessels (eds.), PSA 1990 (Volumul 2), East Lansing, MI: The Philosophy of Science Association, 497– 506.
  • –––, 1995. „Știința calculației și metoda științifică”, în Minds and Machines, 5 (1): 499–512.
  • –––, 2004. Extinzându-ne: știința calculației, empirismul și metoda științifică, New York: Oxford University Press.
  • –––, 2009. „Noutatea filosofică a metodelor de simulare computerizate”, Synthese, 169: 615–626.
  • Kaufmann, WJ și LL Smarr, 1993. Supercomputing and the Transformation of Science, New York: Scientific American Library.
  • Laymon, R., 1985. „Idealizări și testarea teoriilor prin experimentare”, în Observation, Experiment and Ipothis in Modern Physical Science, P. Achinstein și O. Hannaway (eds.), Cambridge, MA: MIT Press, 147– 73.
  • Lenhard, J., 2007. „Simularea computerului: cooperarea dintre experimentare și modelare”, Philosophy of Science, 74: 176–94.
  • –––, 2019. Surprizele calculate: o filozofie a simulării computerului, Oxford: Oxford University Press
  • Lenhard, J. & Küster, U., 2019. Minds & Machines. 29: 19.
  • Morgan, M., 2003. „Experimente fără intervenție materială: experimente model, experimente virtuale și practic experimente”, în The Philosophy of Scientific Experimentation, H. Radder (ed.), Pittsburgh, PA: University of Pittsburgh Press, 216–35.
  • Morrison, M., 2012. „Modelele, măsurarea și simularea computerului: Fața schimbătoare a experimentării”, Studii filosofice, 143: 33–57.
  • Norton, S. și F. Suppe, 2001. „De ce modelarea atmosferică este o știință bună”, în Schimbarea atmosferei: Expert Knowledge and Environmental Governance, C. Miller și P. Edwards (eds.), Cambridge, MA: MIT Press, 88–133.
  • Oberkampf, W. și C. Roy, 2010. Verificare și validare în domeniul calculelor științifice, Cambridge: Cambridge University Press.
  • Oreskes, N., cu K. Shrader-Frechette și K. Belitz, 1994. „Verificarea, validarea și confirmarea modelelor numerice în științele pământului”, Știința, 263 (5147): 641–646.
  • Parke, E., 2014. „Experimente, simulări și privilegii epistemice”, Philosophy of Science, 81 (4): 516–36.
  • Parker, W., 2008a. „Franklin, Holmes și Epistemologia simulării computerului”, Studii internaționale în filozofia științei, 22 (2): 165–83.
  • –––, 2008b. „Computer Simulation through a Error-Statistical Lens”, Synthese, 163 (3): 371–84.
  • –––, 2009a. „Importanța contează cu adevărat? Simulări computerizate, experimente și materialitate”, Synthese, 169 (3): 483–96.
  • –––, 2013. „Computer Simulation”, în S. Psillos și M. Curd (eds.), The Routledge Companion to Philosophy of Science, ediția a II-a, Londra: Routledge.
  • –––, 2017. „Simularea computerului, măsurarea și asimilarea datelor”, British Journal for the Philosophy of Science, 68 (1): 273-304.
  • Peschard, I., 2010. „Modeling and Experimenting”, în P. Humphreys și C. Imbert (eds), Modele, simulări și reprezentări, Londra: Routledge, 42–61.
  • Primiero, G., 2019. „O epistemologie minimalistă pentru simulări pe bază de agenți în științele artificiale”, Minds and Machines, 29 (1): 127–148.
  • Purves, GM, viitoare. „Găsirea adevărului în ficțiuni: identificarea non-ficțiunilor în fisurile imaginare”, Synthese.
  • Resch, MM, Kaminski, A., & Gehring, P. (eds.), 2017. Știința și arta simulării I: Explorare-înțelegere-cunoaștere, Berlin: Springer.
  • Roush, S., 2015. „Superioritatea epistemică a experimentului față de simulare”, Synthese, 169: 1–24.
  • Roy, S., 2005. „Progrese recente în metodele numerice pentru dinamica fluidelor și transferul de căldură”, Journal of Fluid Engineering, 127 (4): 629–30.
  • Ruphy, S., 2015. „Simulări computerizate: un nou mod de cercetare științifică?” în SO Hansen (ed.), Rolul tehnologiei în știință: perspective filozofice, Dordrecht: Springer, p. 131–149
  • Schelling, TC, 1971. „Modele dinamice de segregare”, Journal of Mathematical Sociology, 1: 143-186.
  • Simon, H., 1969. The Science of the Artificial, Boston, MA: MIT Press.
  • Symons, J., & Alvarado, R., 2019. „Titluri epistemice și practica simulării computerului”, Minds and Machines, 29 (1): 37–60.
  • Toon, A., 2010. „abordări romane ale modelelor”, Metascience, 19 (2): 285–288.
  • Trenholme R., 1994. „Analog Simulation”, Philosophy of Science, 61: 115–131.
  • Unruh, WG, 1981. „Evaporarea găurilor negre experimentale? Physical Review Letters, 46 (21): 1351–53.
  • Winsberg, E., 2018. Filosofia și știința climei, Cambridge: Cambridge University Press
  • –––, 2010. Știința în era simulării calculatorului, Chicago: Universitatea din Chicago Press.
  • –––, 2009a. „O poveste a două metode”, Synthese, 169 (3): 575–92
  • –––, 2009b. „Computer Simulation and the Philosophy of Science”, Compass Philosophy, 4/5: 835–845.
  • –––, 2009c. „A Function for Fictions: Expanding the science of science”, în Fictions in Science: Philosophical Essays on Modeling and Idealization, M. Suarez (ed.), London: Routledge.
  • –––, 2006. „Handsking Your Way to the Top: Incoerență și falsificare în reducerea interetoretică”, Philosophy of Science, 73: 582-94.
  • –––, 2003. „Experimente simulate: metodologie pentru o lume virtuală”, Philosophy of Science, 70: 105–125.
  • –––, 2001. „Simulări, modele și teorii: sisteme fizice complexe și reprezentările lor”, Filosofia științei, 68: S442 – S454.
  • –––, 1999. „Sanctioning Models: The Epistemology of Simulation”, Science in Context, 12 (3): 275–92.

Instrumente academice

pictograma omului sep
pictograma omului sep
Cum se citează această intrare.
pictograma omului sep
pictograma omului sep
Previzualizați versiunea PDF a acestei intrări la Societatea Prietenii SEP.
pictograma inpho
pictograma inpho
Căutați acest subiect de intrare la Proiectul Ontologia Filozofiei pe Internet (InPhO).
pictograma documente phil
pictograma documente phil
Bibliografie îmbunătățită pentru această intrare la PhilPapers, cu link-uri către baza de date a acesteia.

Alte resurse de internet

  • Phys.org - simulări pe computer.
  • Simularea computerului, la sciencedaily.com.
  • IPPC - Grup interguvernamental privind schimbările climatice.