Principal Filosofia della scienza
Due to the technical work on the site downloading books (as well as file conversion and sending books to email/kindle) may be unstable from May, 27 to May, 28 Also, for users who have an active donation now, we will extend the donation period.

Filosofia della scienza

Año:
2016
Editorial:
Il Saggiatore
Idioma:
italian
Páginas:
312
File:
EPUB, 4.68 MB
Descarga (epub, 4.68 MB)

You may be interested in Powered by Rec2Me

 

Most frequently terms

 
 
You can write a book review and share your experiences. Other readers will always be interested in your opinion of the books you've read. Whether you've loved the book or not, if you give your honest and detailed thoughts then people will find new books that are right for them.
1

Contro Roma

Año:
2015
Idioma:
italian
File:
EPUB, 539 KB
2

Passi

Año:
2015
Idioma:
italian
File:
EPUB, 1.34 MB
  
     1. La filosofia della scienza di Aristotele


    ARISTOTELE (384-322 a.C.) nacque a Stagira, nella Grecia settentrionale. Suo padre era medico alla corte del re di Macedonia. All’età di diciassette anni Aristotele si recò ad Atene, per studiare all’Accademia di Platone, dove rimase per vent’anni. Alla morte di Platone, nel 347 a.C., e in seguito all’elezione a capo dell’Accademia di Speusippo, i cui interessi erano rivolti alla matematica, Aristotele scelse di proseguire i suoi studi biologici e filosofici in Asia Minore. Nel 342 fece ritorno in Macedonia in qualità di tutore di Alessandro Magno, rapporto che durò due o tre anni. Nel 335 Aristotele ritornò ad Atene, fondandovi la Scuola peripatetica nel Liceo. Nel corso delle lezioni al Liceo lo Stagirita si occupò di logica, epistemologia, fisica, biologia, etica, politica ed estetica. Le opere che risalgono a questo periodo e che ci sono giunte sembrano essere più la compilazione di appunti per le sue lezioni che saggi elaborati per la pubblicazione. Gli argomenti trattati spaziano dalla riflessione sugli attributi predicabili dell’“essere in quanto essere” alle presentazioni dei dati della storia naturale e alle costituzioni delle città-stato elleniche. I Secondi analitici costituiscono il principale trattato aristotelico sulla filosofia della scienza. Inoltre, anche nella Fisica e nella Metafisica vengono affrontati alcuni aspetti del metodo scientifico. Aristotele lasciò Atene dopo la morte di Alessandro, nel 323 a.C., per evitare che Atene «peccasse due volte contro la filosofia». Morì l’anno seguente. Fu il primo filosofo della scienza, e creò questa disciplina analizzando alcuni problemi che sorgono in relazione al metodo scientifico.


    Il metodo induttivo-deduttivo di Aristotele


    Aristotele concepiva l’indagine scientifica come una progressione dalle osservazioni a princìpi generali, e poi di nuovo un ritorno alle osservazioni. Asseriva che gli scienziati dovessero indurre i princìpi esplicativi a partire dai fenomeni che dovevan; o essere spiegati, e poi dedurre da premesse comprendenti questi princìpi asserzioni riguardo ai fenomeni. Il metodo induttivo-deduttivo può essere rappresentato nei seguenti termini:


    [image: img01]


    Aristotele riteneva che l’indagine scientifica prenda avvio dalla consapevolezza del verificarsi di certi eventi o della coesistenza di certe proprietà. Si è data una spiegazione scientifica solo quando le asserzioni riguardanti questi eventi o proprietà sono state dedotte da princìpi esplicativi. La spiegazione scientifica è una transizione dalla conoscenza di un fatto (punto 1 del diagramma) alla conoscenza delle ragioni di quel fatto (punto 3).


    Per esempio, uno scienziato potrebbe applicare il metodo induttivo-­deduttivo all’eclissi lunare nel modo seguente: parte dall’osservazione del progressivo oscuramento della superficie lunare, quindi induce da questa e altre osservazioni svariati princìpi generali: che la luce viaggia in linea retta, che i corpi opachi proiettano ombre e che una particolare configurazione di due corpi opachi nei pressi di un corpo luminoso pone uno di questi corpi opachi nell’ombra dell’altro. Da questi princìpi generali, e sulla base della condizione che la Terra e la Luna siano corpi opachi che, nel caso in esame, si trovano nel rapporto geometrico richiesto con il Sole luminoso, lo scienziato deduce un’asserzione sull’eclissi lunare. Ha dunque proceduto dalla conoscenza fattuale che la superficie della Luna si è oscurata a una comprensione del perché ciò è accaduto.


    La fase induttiva


    Secondo Aristotele, ogni cosa particolare è unione di materia e forma. La materia è ciò che fa del particolare un individuo unico, e la forma è ciò che fa del particolare un membro di una classe di cose simili. Specificare la forma di un particolare vuol dire specificare le proprietà che esso condivide con altri particolari. La forma di una particolare giraffa, per esempio, comprende la proprietà di avere uno stomaco con quattro cavità.


    Aristotele affermava che le generalizzazioni riguardo alle forme vengono indotte dall’esperienza dei sensi. Esaminò due tipi di induzione, che hanno in comune la caratteristica di procedere da asserzioni particolari ad asserzioni generali.


    Il primo tipo di induzione è quello per enumerazione semplice, in cui le asserzioni riguardo a oggetti o eventi individuali vengono assunte come base di una generalizzazione sulla specie di cui sono membri. Oppure, a un livello più elevato, le asserzioni riguardanti specie individuali vengono accolte come base per una generalizzazione riguardo a un genere.


    [image: tab02]


    In un ragionamento induttivo per enumerazione semplice, le premesse e la conclusione contengono gli stessi termini descrittivi. Un tipico ragionamento per enumerazione semplice ha la forma


    a1 ha la proprietà P


    a2 ha la proprietà P


    a3 ha la proprietà P


    
       [image: img04]

    


    ∴ Tutti gli a hanno la proprietà P.*


    Il secondo tipo di induzione è un’intuizione diretta di quei princìpi generali che vengono esemplificati nei fenomeni. L’induzione intuitiva è una questione di intuizione; si tratta della capacità di vedere ciò che è “essenziale” nei dati dell’esperienza a1. Un esempio fornito da Aristotele è il caso di uno scienziato che osserva in varie occasioni che il lato luminoso della Luna è rivolto verso il Sole e giunge quindi alla conclusione che la Luna brilla di luce solare riflessa.1 L’operazione di induzione intuitiva è analoga all’operazione della “visione” del tassonomista. Il tassonomista è uno scienziato che ha appreso a “vedere” gli attributi generici e le differentiae di un esemplare. Esiste un’accezione secondo la quale il tassonomista “vede più di” un osservatore non allenato posto di fronte allo stesso esemplare: il tassonomista sa cosa cercare. Questo tipo di capacità si acquista, se mai, solo dopo una lunga esperienza. È probabile che fosse questo il genere di “visione” che Aristotele aveva in mente quando scrisse dell’induzione intuitiva. Lo stesso Aristotele era un tassonomista di grande successo, che riuscì a classificare circa 540 specie biologiche.


    La fase deduttiva


    Nella seconda fase dell’indagine scientifica, le generalizzazioni ottenute induttivamente vengono utilizzate come premesse per la deduzione di asserzioni relative alle osservazioni iniziali. Aristotele pose un’importante restrizione riguardo ai generi di asserzioni che possono presentarsi come premesse e conclusioni di ragionamenti deduttivi nella scienza. Ammise soltanto quelle asserzioni che dichiarano che una classe è inclusa in una seconda classe, ovvero è esclusa da essa. Se per rappresentare le due classi vengono scelti “S” e “P”, le asserzioni ammesse dal filosofo greco sono:


    
            

      

      



                  	       Tipo




      	       Asserzione




      	       Relazione







            	       A




      	       Tutti gli S sono P




      	       S totalmente incluso in P







            	       E




      	       Nessun S è P




      	       S totalmente escluso da P







            	       I




      	       Alcuni S sono P




      	       S parzialmente incluso in P







            	       O




      	       Alcuni S sono non P




      	       S parzialmente escluso da P








    


    Aristotele riteneva che il più importante fosse il tipo A, che alcune proprietà inerissero essenzialmente agli individui di certe classi, e che le asserzioni della forma “Tutti gli S sono P” riproducessero la struttura di queste relazioni. Forse per questo motivo Aristotele affermava che una spiegazione scientifica propriamente detta dovesse essere formulata nei termini di asserzioni di questo tipo. Più in particolare, citava il sillogismo in Barbara come il paradigma della dimostrazione scientifica. Questo sillogismo consiste di asserzioni di tipo A disposte nel modo seguente:


    Tutti gli M sono P


    Tutti gli S sono M


    [image: img06]


    ∴ Tutti gli S sono P


    dove P, S e M sono i termini maggiore, minore e medio del sillogismo.


    Aristotele dimostrò che questo tipo di sillogismo è valido. Se è vero che ogni S è incluso in M e ogni M è incluso in P, dovrà anche essere vero che ogni S è incluso in P. Questo risulta corretto indipendentemente dalle classi che vengono designate con “S”, “P” e “M”. Una delle grandi conquiste di Aristotele è stata di sostenere che la validità di un ragionamento è determinata unicamente dal rapporto tra le premesse e le conclusione.


    Aristotele interpretò la fase deduttiva dell’indagine scientifica come l’interposizione di termini medi fra i termini che costituiscono il soggetto e il predicato dell’asserzione da dimostrare. Per esempio, l’asserzione “Tutti i pianeti sono corpi che brillano costantemente” può essere dedotta scegliendo come termine medio “corpi vicino alla Terra”. In forma sillogistica, la dimostrazione è:


    Tutti i corpi vicini alla Terra sono corpi che brillano costantemente.


    Tutti i pianeti sono corpi vicini alla Terra.


    [image: img07]


    ∴ Tutti i pianeti sono corpi che brillano costantemente.


    Mediante l’applicazione della fase deduttiva della procedura scientifica, lo scienziato è passato dalla conoscenza di un fatto riguardante i pianeti a una comprensione del perché questo fatto sia così come è.2


    I requisiti empirici della spiegazione scientifica


    Aristotele riconosceva che un’asserzione che predica un attributo di un termine che designa una classe può essere dedotta da più di un insieme di premesse. Quando vengono scelti diversi termini medi, ne risultano ragionamenti diversi, alcuni dei quali sono più soddisfacenti di altri.


    L’ultimo sillogismo che è stato formulato, per esempio, è più soddisfacente del seguente:


    Tutte le stelle sono corpi che brillano costantemente.


    Tutti i pianeti sono stelle.


    [image: img08]


    ∴ Tutti i pianeti sono corpi che brillano costantemente.


    Entrambi i sillogismi hanno la stessa conclusione e la stessa forma logica, ma il secondo sillogismo ha premesse false. Aristotele sosteneva che le premesse di una spiegazione soddisfacente devono essere vere. Perciò escludeva dalla classe delle spiegazioni soddisfacenti quei sillogismi validi che hanno conclusioni vere ma premesse false.


    Il requisito in base a cui le premesse devono essere vere è uno dei quattro requisiti extralogici che Aristotele imponeva per le premesse delle spiegazioni scientifiche. Gli altri tre requisiti sono che le premesse siano indimostrabili, meglio note della conclusione, e siano le cause dell’attribuzione fatta nella conclusione.3


    Sebbene avesse sostenuto che le premesse di ogni spiegazione scientifica adeguata dovrebbero essere indimostrabili, è chiaro sin dal contesto della sua presentazione che Aristotele si preoccupava solamente di affermare che ci devono essere alcuni princìpi all’interno di ciascuna scienza che non possono essere dedotti da princìpi più elementari. L’esistenza di alcuni princìpi indimostrabili all’interno di una scienza è necessaria per evitare un regresso all’infinito nelle spiegazioni. Di conseguenza, non tutte le conoscenze contenute in una scienza sono suscettibili di dimostrazione. Aristotele riteneva che le leggi più generali di una scienza e le definizioni che stabiliscono i significati degli attributi adatti a quella scienza fossero indimostrabili.


    Il requisito in base a cui le premesse devono essere “meglio note” delle conclusioni riflette la convinzione aristotelica che le leggi generali di una scienza devono essere autoevidenti. Aristotele sapeva che un ragionamento deduttivo non può fornire un’informazione maggiore di quella implicata dalle sue premesse, e asseriva che i princìpi primi della dimostrazione devono essere per lo meno altrettanto evidenti quanto le conclusioni che da essi si ricavano.


    Il più importante dei quattro requisiti è quello dell’esistenza di un rapporto causale. È possibile costruire sillogismi validi con premesse vere in un modo tale che le premesse manchino di asserire la causa dell’attribuzione che viene fatta nella conclusione. È istruttivo confrontare i due seguenti sillogismi sui ruminanti:


    Sillogismo del fatto ragionato


    Tutti i ruminanti con lo stomaco munito di quattro cavità sono


 animali privi degli incisivi superiori.


    Tutti i buoi sono ruminanti con lo stomaco munito di quattro cavità.


    [image: img09]


    ∴ Tutti i buoi sono animali privi degli incisivi superiori.


    Sillogismo del fatto


    Tutti i ruminanti con lo zoccolo diviso sono animali privi degli incisivi superiori.


    Tutti i buoi sono ruminanti con lo zoccolo diviso.


    [image: img10]


    ∴ Tutti i buoi sono animali privi degli incisivi superiori.


    Aristotele avrebbe detto che le premesse del sillogismo del fatto ragionato qui riportato enunciano la causa del fatto che i buoi sono privi degli incisivi superiori. La capacità dei ruminanti di immagazzinare il cibo parzialmente masticato in una cavità dello stomaco e di rigurgitarlo in bocca per un’ulteriore masticazione spiega perché essi non abbiano bisogno, né siano provvisti, di incisivi della mascella superiore. Viceversa, le premesse del corrispondente sillogismo del fatto non enunciano la causa della mancanza degli incisivi superiori. Aristotele avrebbe detto che la correlazione tra la struttura dello zoccolo e la struttura della mascella è di tipo accidentale.


    È necessario a questo punto un criterio per distinguere le correlazioni causali da quelle accidentali. Il filosofo greco riconobbe questa necessità, e suggerì che in una correlazione causale l’attributo 1) è vero di ogni caso del soggetto, 2) è vero precisamente del soggetto e non in quanto parte di un intero maggiore, e 3) è “essenziale per” il soggetto.


    I criteri di relazionamento causale di Aristotele lasciano molto a desiderare. Il primo criterio può essere applicato per eliminare dalla classe delle correlazioni causali qualsiasi relazione alla quale vi siano eccezioni. Ma si potrebbe stabilire una correlazione causale applicando questo criterio solamente nei casi in cui la classe cui il soggetto appartiene può essere elencata integralmente. Comunque, la maggior parte delle correlazioni causali che presentano un certo interesse per lo scienziato ha un ambito di predicazione aperto. Per esempio, che gli oggetti più densi dell’acqua affondino nell’acqua è una relazione che si ritiene valida per tutti gli oggetti passati, presenti e futuri, e non solamente per quei pochi oggetti che sono stati effettivamente immersi nell’acqua. Non si può dimostrare che ogni caso della classe cui il soggetto appartiene abbia questa proprietà.


    Il terzo criterio di Aristotele identifica la correlazione causale e l’attribuzione “essenziale” di un predicato a un soggetto. Questo sposta indietro il problema. Purtroppo Aristotele non formulò un criterio per determinare quali attribuzioni siano “essenziali”. Di certo, propose che “animale” fosse un predicato essenziale di “uomo”, mentre “musicale” non lo è, e che tagliare la gola di un animale è essenzialmente correlato con la sua morte, mentre fare una passeggiata non è essenzialmente correlato allo scoccare di un fulmine.4 Ma una cosa è fornire esempi di predicazione essenziale e di predicazione accidentale, un’altra è stabilire un criterio generale per operare la distinzione.


    La struttura di una scienza


    Sebbene non avesse specificato un criterio per l’attribuzione “essenziale” di un predicato a un soggetto, Aristotele sosteneva che ciascuna scienza ha quale suo ambito un certo genere e un insieme di predicati che la contraddistinguono. Il genere della fisica, per esempio, è la classe dei casi in cui i corpi cambiano le loro posizioni nello spazio. Tra i predicati caratteristici di questa scienza vi sono la “posizione”, la “velocità” e la “resistenza”. Lo Stagirita dava particolare rilievo al fatto che una spiegazione soddisfacente di un fenomeno deve utilizzare i predicati della scienza a cui il fenomeno appartiene. Sarebbe inappropriato, per esempio, spiegare il moto di un proiettile ricorrendo a predicati squisitamente biologici quali “crescita” e “sviluppo”.


    Aristotele riteneva che una scienza particolare fosse un insieme di asserzioni organizzate deduttivamente. Al più alto livello di generalità vi sono i princìpi primi di ogni dimostrazione: i princìpi di identità, di non-­contraddizione e del terzo escluso. Questi sono i princìpi applicabili a tutti i ragionamenti deduttivi. Al livello immediatamente inferiore di generalità vi sono i princìpi primi e le definizioni della scienza particolare. I princìpi primi della fisica, per esempio, comprenderebbero:


    
      Ogni moto è naturale o violento.


      Ogni moto naturale è moto verso un luogo naturale.


      (Per esempio gli oggetti solidi si muovono per natura verso il centro


      della Terra.)


      Il moto violento è causato dall’azione continuativa di un agente.


      (L’azione a distanza è impossibile.)


      Il vuoto è impossibile.

    


    I princìpi primi di una scienza non sono soggetti a deduzione da princìpi più elementari. Essi sono le asserzioni più generali che possono essere fatte riguardo ai predicati propri di quella scienza. In quanto tali, i princìpi primi costituiscono i punti di partenza di qualsiasi dimostrazione all’interno della scienza, e fungono da premesse per la deduzione di quelle correlazioni che si rinvengono a livelli più bassi di generalità.


    Le quattro cause


    Aristotele stabilì un ulteriore requisito delle interpretazioni scientifiche. Richiese che una spiegazione adeguata di una correlazione o di un processo specificasse tutti e quattro gli aspetti dell’azione causale, vale a dire la causa formale, la causa materiale, la causa efficiente e la causa finale.


    Un processo suscettibile di questo tipo di analisi è il cambiamento di colore della pelle di un camaleonte quando si sposta da una foglia verde brillante a un ramo grigio spento. La causa formale è lo schema del processo. Descrivere la causa formale significa stabilire una generalizzazione riguardo alle condizioni nelle quali avviene questo tipo di cambiamento di colore. La causa materiale è quella sostanza che produce il cambiamento del colore della pelle; la causa efficiente è il passaggio dalla foglia al ramo, transizione accompagnata da un cambiamento nella luce riflessa e da un corrispondente cambiamento chimico nella pelle del camaleonte; la causa finale del processo è che il camaleonte possa sfuggire al riconoscimento da parte dei suoi predatori.


    Aristotele insisteva sul fatto che ogni spiegazione scientifica di una correlazione o processo dovrebbe comprendere una spiegazione della sua causa finale, o telos. Le spiegazioni teleologiche sono spiegazioni che impiegano l’espressione “al fine di” o equivalenti. Aristotele richiedeva spiegazioni teleologiche non solamente per la crescita e per lo sviluppo degli esseri viventi, ma anche per i movimenti degli oggetti inanimati. Per esempio, riteneva che la fiamma del fuoco si innalzasse per raggiungere il suo “luogo naturale” (un guscio sferico che è immediatamente interno all’orbita della Luna).


    Le interpretazioni teleologiche non richiedono di presupporre una decisione o una scelta consapevole. Dire, per esempio, che “i camaleonti cambiano colore per sottrarsi al riconoscimento” non significa affermare che vi sia un’attività cosciente da parte dei camaleonti; né significa affermare che il comportamento dei camaleonti realizza qualche “disegno cosmico”.


    Comunque, le interpretazioni teleologiche presuppongono che uno stato di cose futuro determini il modo in cui si sviluppa uno stato di cose presente. Una ghianda si sviluppa nel modo in cui si sviluppa per poter realizzare il suo fine naturale di albero di quercia; una pietra cade per raggiungere il suo fine naturale: uno stato di quiete quanto più vicino possibile al centro della Terra. In ciascun caso, lo stato futuro “attrae”, in un certo senso, la successione di stati che conducono fino a esso.


    Aristotele criticava i filosofi che cercavano di spiegare il cambiamento esclusivamente in termini di cause materiali e di cause efficienti: era particolarmente critico nei confronti dell’atomismo di Democrito e di Leucippo, in cui i processi naturali venivano “spiegati” mediante l’aggregazione e la dispersione di atomi invisibili. La critica aristotelica si fondava soprattutto sul fatto che gli atomisti avevano trascurato le cause finali.


    Aristotele criticava anche quei filosofi naturali pitagorici che ritenevano di avere spiegato un processo ogni volta che avevano trovato un rapporto matematico esemplificato in esso. Secondo Aristotele, l’orientamento pitagorico subiva le conseguenze di un’eccessiva attenzione per le cause formali.


    Si dovrebbe aggiungere, comunque, che Aristotele riconosceva l’importanza delle relazioni numeriche e delle relazioni geometriche nella scienza fisica. In effetti individuò un gruppo di “scienze composite” (astronomia, ottica, armonica e meccanica),* il cui oggetto d’indagine è il rapporto matematico tra gli oggetti fisici.


    La demarcazione della scienza empirica


    Aristotele cercava non solamente di delimitare l’oggetto d’indagine di ciascuna singola scienza, ma anche di distinguere la scienza empirica, nel suo insieme, dalla matematica pura. Ottenne questa demarcazione distinguendo tra la matematica applicata, come quella che viene praticata nelle scienze composite, e la matematica pura, che tratta di numeri e figure in senso astratto.


    Aristotele sosteneva che, mentre l’oggetto di indagine della scienza empirica è il mutamento, l’oggetto d’indagine della matematica pura è ciò che è immutabile. Il matematico puro astrae dalle situazioni fisiche certi aspetti quantitativi dei corpi e le loro relazioni e tratta esclusivamente di questi aspetti. Aristotele riteneva che queste forme matematiche non avessero un’esistenza oggettiva; solo nella mente del matematico le forme sopravvivono alla distruzione dei corpi da cui esse vengono astratte.


    Lo status necessario dei princìpi primi


    Aristotele asseriva che la conoscenza scientifica autentica ha lo status di verità necessaria, e sosteneva che i princìpi primi delle scienze, esattamente formulati, e le loro conseguenze deduttive, non potevano essere altro che veri. Dato che i princìpi primi predicano attributi dei termini che designano una classe, sembrerebbe che il filosofo greco si fosse impegnato a sostenere le seguenti tesi:


    
      	Certe proprietà ineriscono essenzialmente agli individui di certe classi; un individuo non apparterrebbe a una di queste classi se non possedesse le proprietà in questione.


      	In tali casi esiste un’identità di struttura tra le asserzioni universali affermative che predicano un attributo di un termine che designa una classe e l’inerenza non verbale ai membri della classe della proprietà corrispondente.


      	È possibile, per gli scienziati, intuire correttamente tale isomorfismo di linguaggio e realtà.

    


    La posizione di Aristotele è plausibile. Crediamo che l’asserzione “tutti gli uomini sono mammiferi”, per esempio, sia necessariamente vera, mentre “tutti i corvi sono neri” è vera solo accidentalmente. Aristotele potrebbe dire che, malgrado sia impossibile che un uomo sia un non-mammifero, un corvo potrebbe benissimo non essere nero. Ma, come si è osservato poco fa, sebbene fornisca esempi di questo tipo per contrapporre la “predicazione essenziale” e la “predicazione accidentale”, Aristotele trascura di formulare un criterio generale per determinare quali predicazioni siano essenziali.


    Aristotele lasciò in eredità ai suoi successori la convinzione che, in quanto i princìpi primi delle scienze rispecchiano rapporti naturali che non potrebbero essere differenti da quelli che sono, questi princìpi non possono essere falsi. Certamente lo Stagirita non fu in grado di dimostrare la validità di questa sua convinzione. Malgrado ciò, l’asserzione aristotelica secondo cui le leggi scientifiche enunciano verità necessarie ha esercitato una vasta influenza nella storia della scienza.


    * Una doppia riga tra premesse e conclusione viene impiegata per indicare che il ragionamento è di tipo induttivo.


    * Aristotele incluse la meccanica nell’insieme delle scienze composite nei Secondi analitici 76a 23-25 e nella Metafisica 1078a 14-17, ma non menzionò la meccanica nella Fisica 194a 7-11.

  


  
     10. L’induttivismo contro la concezione ipotetico-deduttiva della scienza


    JOHN STUART MILL (1806-1873) ricevette un’istruzione intensiva dal padre James Mill, illustre economista, storico e filosofo. La sua formazione spaziava dal greco, iniziato all’età di tre anni, alla psicologia e alla teoria economica. Mill entrò a far parte della Compagnia delle Indie orientali (1823-1858) e venne eletto al parlamento nel 1865; si impegnò a favore del suffragio femminile e della riforma fondiaria in Irlanda. Pubblicò numerosi libri e saggi a sostegno della filosofia dell’utilitarismo. Mill padre aveva trasmesso al figlio il rispetto per l’importanza di raccogliere e valutare le prove, e John Stuart cercò di articolare alcune tecniche induttive per valutare il nesso tra le conclusioni e l’evidenza empirica. Scoprì che nella metodologia delle scienze sono implicite le regole della dimostrazione della connessione causale. Mill espose i risultati delle sue indagini nella filosofia della scienza nel Sistema di Logica (1843) in cui riconosceva il proprio debito nei confronti di Herschel e Whewell.


    WILLIAM STANLEY JEVONS (1832-1882) fu nominato professore di logica ed economia politica all’Università di Manchester nel 1866, e in seguito insegnò all’University College di Londra. Portò contributi alla logica e alla teoria della probabilità, e fu un pioniere nell’applicazione dei metodi statistici alla meteorologia e all’economia. Jevons si opponeva all’induttivismo di Mill sulla base di una concezione ipotetico-deduttiva della scienza, nella tradizione di Whewell.


    L’induttivismo di Mill


    L’induttivismo è un punto di vista che pone in rilievo l’importanza delle argomentazioni induttive per la scienza. Nella sua forma più ampia è una tesi sia riguardo al contesto della scoperta, sia riguardo al contesto della giustificazione. Per quanto concerne il contesto della scoperta, la posizione induttivista è che l’indagine scientifica è una questione di generalizzazione induttiva a partire dai risultati delle osservazioni e degli esperimenti. Invece, per quanto riguarda il contesto della giustificazione, la posizione induttivista è che una legge o teoria scientifica è giustificata soltanto se l’evidenza empirica a suo favore è conforme a schemi induttivi.


    La filosofia della scienza di John Stuart Mill è un esempio del punto di vista induttivista. Mill avanzò alcune tesi estreme riguardo al ruolo delle argomentazioni induttive sia nella scoperta delle leggi scientifiche sia nella successiva giustificazione di queste leggi.


    Il contesto della scoperta


    I metodi induttivi di Mill. Mill fu un efficace propugnatore di alcuni metodi induttivi che, in precedenza, erano stati discussi, fra gli altri, da Duns Scoto, Ockham, Hume e Herschel: perciò, tali metodi divennero noti come i “metodi di Mill” per l’indagine sperimentale. Il filosofo inglese ne ribadiva con forza l’importanza nella scoperta delle leggi scientifiche, e in effetti, nel corso di una controversia con Whewell, giunse al punto di affermare che ogni legge causale nota alla scienza era stata scoperta «con processi riducibili a uno o all’altro di questi metodi».1


    Mill trattò quattro metodi induttivi,* che possono essere così rappresentati:


    [image: img48.jpg]


    Mill dichiarava che, tra i quattro metodi, quello della differenza è il più importante. Nell’enunciazione riepilogativa di questo schema il filosofo osservava che la circostanza A e il fenomeno a sono correlati causalmente soltanto se i due casi differiscono per una e una sola circostanza.2 Tuttavia se questa restrizione venisse fatta valere, non si potrebbe scoprire alcuna relazione causale per applicazione del metodo della differenza.


    La descrizione di due casi implica un riferimento o a luoghi diversi, o a tempi diversi oppure a entrambi. Tuttavia, dato che non vi è alcuna ragione a priori per escludere dall’elenco delle circostanze la posizione nello spazio e nel tempo, non è possibile che due casi che differiscono circa il verificarsi di un fenomeno differiscano anche in una sola circostanza.


    Un’ulteriore difficoltà è data dal fatto che, nell’enunciazione riepilogativa di questo metodo, tutte le circostanze sono sullo stesso piano. Per esempio, se si intende spiegare come mai della nitroglicerina sia esplosa in un’occasione e in un’altra invece no, si dovrebbero specificare non soltanto i modi in cui la sostanza è stata manipolata, ma anche il numero di nubi nel cielo e la misura dell’attività delle macchie solari. Se tutte le circostanze fossero sullo stesso piano, si potrebbe specificare un caso in maniera adeguata solo descrivendo lo stato dell’intero universo in un determinato momento.


    Mill era ben consapevole di questo aspetto, e riconosceva che l’utilità della differenza in quanto metodo di scoperta dipende dall’assunto secondo cui, in qualsiasi particolare indagine, basta considerare solo un piccolo numero di circostanze. Comunque, il filosofo affermava che questo assunto è, a sua volta, giustificato dall’esperienza. Mill dichiarava che, in un gran numero di casi, lo schema del metodo della differenza viene soddisfatto, anche se l’indagine viene circoscritta a un piccolo numero di circostanze.


    Può anche darsi che le cose stiano così. Allora, però, la scoperta di relazioni causali implica più che una mera specificazione di valori che corrispondono allo schema. Per usare questo metodo nell’indagine scientifica, occorre formulare un’ipotesi riguardo a quali circostanze potrebbero essere rilevanti per il verificarsi di un dato fenomeno. E questa ipotesi riguardo alle circostanze rilevanti deve essere formulata prima dell’applicazione dello schema. Perciò l’affermazione di Mill, secondo cui l’applicazione del metodo della differenza è sufficiente a scoprire relazioni causali, deve essere respinta. D’altra parte, una volta che sia stata formulata una supposizione secondo cui una determinata circostanza è legata a un determinato fenomeno, il metodo della differenza specifica una pregevole tecnica per valutare tale supposizione per mezzo di esperimenti controllati.


    Mill riteneva che il metodo della differenza fosse lo strumento più importante per la scoperta di relazioni causali. Le sue rivendicazioni a favore del metodo della concordanza erano più modeste: affermava infatti che il metodo della concordanza è uno strumento utile per la scoperta di leggi scientifiche, anche se riconosceva che questo metodo è soggetto a importanti limitazioni.


    Una prima limitazione è data dal fatto che il metodo è efficace nella ricerca di relazioni causali solamente a condizione che sia stato fatto un accurato inventario delle circostanze rilevanti. Se una circostanza rilevante presente in ogni caso è stata tralasciata, l’applicazione del metodo della concordanza può fuorviare il ricercatore. Perciò l’applicazione della concordanza, al pari dell’applicazione della differenza, può essere coronata dal successo solo sulla base di precedenti ipotesi riguardo alle circostanze rilevanti.


    Un’ulteriore limitazione del metodo della concordanza è data dalla possibilità che all’origine del fenomeno vi sia una pluralità di cause. Mill riconosceva che un particolare tipo di fenomeno può essere l’effetto di circostanze diverse in occasioni diverse. Nello schema riportato poc’anzi, per esempio, è possibile che B abbia causato a nei casi 1 e 3, e che D abbia causato a nel caso 2. Poiché questa possibilità esiste, se ne potrebbe concludere solamente che è probabile che A sia la causa di a. Mill notava che stimare la verosimiglianza della presenza di una pluralità di cause è una funzione della teoria della probabilità, e metteva in rilievo che, per una correlazione data, questa probabilità può essere diminuita includendo casi aggiuntivi nei quali le circostanze vengono ulteriormente variate anche se la correlazione permane.


    Mill riteneva che la possibilità di una pluralità di cause non può sollevare alcun dubbio sulla verità delle conclusioni raggiunte per mezzo del metodo della differenza, e dichiarò che, per ogni particolare argomentazione avanzata in virtù della differenza,


    
      è certo per lo meno che in questo caso A è stato o la causa di a, o una parte indispensabile della sua causa, anche se la causa che lo produce in altri casi possa essere del tutto differente.3

    


    [image: img49.jpg]


    La causalità multipla secondo Mill.


    Ma che cosa significa parlare di una causa “in questo caso”? Mill aveva già definito che una “causa” è una circostanza o un insieme di circostanze che vengono seguite, invariabilmente e incondizionatamente, da un effetto di un dato tipo. Sembrerebbe che la posizione di Mill nel passo appena citato implichi che una singola applicazione del metodo della differenza può stabilire che ogni caso in cui si verifica una circostanza debba essere seguito da un fenomeno corrispondente. Si direbbe proprio che le cose stiano così, malgrado Mill avesse riconosciuto la possibilità che qualche altro insieme di circostanze venga anch’esso seguito dal fenomeno in questione. Questa conclusione riguardo a ciò che Mill intendeva dire è suffragata della sua affermazione secondo cui


    
      la pluralità delle cause […] non solo non diminuisce la fiducia dovuta al metodo della differenza, ma non rende nemmeno necessario un maggior numero d’osservazioni o d’esperimenti; due casi, l’uno positivo e l’altro negativo, sono ancora sufficienti per la più completa e rigorosa induzione.4

    


    In seguito William Stanley Jevons avrebbe sottolineato che Mill aveva compiuto un salto ingiustificato da un’asserzione su ciò che avviene in un singolo esperimento a una generalizzazione in base a cui ciò che avviene in un esperimento avverrà anche in altri esperimenti.5


    La causalità multipla e il metodo ipotetico-deduttivo. Negli studi sulla storia della filosofia della scienza è prassi corrente contrapporre le concezioni di Mill e Whewell. Spesso Mill viene presentato come un pensatore che identifica la scoperta scientifica con l’applicazione degli schemi induttivi, Whewell come uno che concepisce la scoperta scientifica nei termini di una libera invenzione di ipotesi.


    [image: img50.jpg]


    Il parallelogramma delle forze.


    Non c’è dubbio che Mill avanzò alcune rivendicazioni imprudenti a favore dei propri metodi induttivi. Certamente questi metodi non sono i soli strumenti di scoperta nella scienza. Eppure, malgrado i commenti indirizzati contro Whewell su questo argomento, Mill riconosceva chiaramente il valore della formazione delle ipotesi nella scienza. È un peccato che autori successivi abbiano esageratamente esaltato le imprudenti rivendicazioni avanzate da Mill nel corso della sua polemica con Whewell.


    Nel corso di una disamina della causalità multipla, Mill restrinse considerevolmente il campo di applicabilità dei propri metodi induttivi. Negli esempi di causalità multipla è coinvolta più di una causa nella produzione di un effetto. Mill suddivideva gli esempi di causalità multipla in due classi: esempi in cui le varie cause continuano a produrre i rispettivi effetti separati, ed esempi in cui risulta un effetto diverso da quelli che verrebbero prodotti separatamente. Mill suddivideva poi ulteriormente quest’ultima classe in esempi in cui l’effetto risultante è la “somma vettoriale” delle cause presenti ed esempi in cui l’effetto risultante differisce per genere dagli svariati effetti delle cause separate.


    Mill riteneva che la «coesistenza reciproca degli effetti separati» potesse essere analizzata con successo grazie ai quattro metodi induttivi, e riteneva che lo stesso valesse per gli «effetti risultanti diversi per genere». Osservava inoltre che in quest’ultimo tipo di situazione il ricercatore può mettere in correlazione l’effetto con la presenza o l’assenza di determinate circostanze e poi applicare i metodi della concordanza e della differenza.


    Mill credeva che la situazione fosse alquanto diversa nel caso della «composizione delle cause». Questo genere di causalità multipla non è riconducibile all’indagine per mezzo dei quattro metodi induttivi. A tale proposito lo studioso citava il caso del moto causato da due forze impresse. Il risultato è il movimento lungo la diagonale di un parallelogramma, i cui lati hanno lunghezze proporzionali all’entità delle forze.


    Non si tratta qui di cause congiunte che danno origine a un effetto diverso per genere dagli effetti separati delle rispettive cause. Ciascuna componente causale separata trova attuazione, ma in modo tale da produrre un rinforzo o una cancellazione degli effetti. Ciò rimane vero anche nell’equilibrio dinamico, in cui l’effetto ultimo delle forze è la quiete.


    Un’importante considerazione riguardo alla composizione delle forze è che il contributo delle varie forze in azione non può essere determinato a partire dall’informazione riguardo al moto risultante. C’è un insieme indefinito di forze che potrebbe produrre un moto risultante dato.


    Mill giunse alla conclusione che i suoi metodi induttivi erano inefficaci nei casi di composizione delle cause: non si può procedere induttivamente dalla conoscenza che un effetto risultante si è verificato alla conoscenza delle cause che lo compongono. Per questo motivo il filosofo raccomandava che nell’indagine della causalità composta venisse impiegato un “metodo deduttivo”.


    Mill delineò un metodo deduttivo in tre fasi: 1) la formulazione di un insieme di leggi; 2) la deduzione di un’asserzione sull’effetto risultante da una particolare combinazione di queste leggi; e 3) la verificazione. Mill preferiva che ogni legge venisse ricavata per induzione da uno studio delle cause rilevanti che agiscono separatamente, ma ammetteva anche l’uso di ipotesi non ricavate induttivamente dai fenomeni. Le ipotesi sono supposizioni riguardo alle cause, e possono essere prese in considerazione da uno scienziato nei casi i cui non è agevole ottenere per induzione le singole leggi.


    Mill concordava con Whewell che l’impiego di ipotesi è giustificato se le loro conseguenze deduttive concordano con le osservazioni; comunque stabilì requisiti molto rigorosi per la verificazione completa delle ipotesi. Da un’ipotesi verificata pretendeva non solo che le sue conseguenze deduttive fossero in accordo con le osservazioni, ma anche che nessun’altra ipotesi implicasse i fatti che dovevano essere spiegati. Mill affermava che la verificazione completa di un’ipotesi richiede l’esclusione di ogni possibile ipotesi alternativa.


    Nella scienza, secondo Mill, la verificazione completa viene in alcuni casi raggiunta; ma a tale riguardo citava solamente una circostanza: l’ipotesi di Newton di una forza centrale pari all’inverso del quadrato della distanza tra il Sole e i pianeti. Il filosofo inglese affermava che Newton aveva dimostrato non solamente che le conseguenze deduttive di quest’ipotesi si accordavano con i moti osservati dei pianeti, ma altresì che nessun’altra legge della forza poteva spiegare questi moti.6 Tuttavia né Mill né Newton dimostrarono che le alternative esaminate esaurivano le possibili spiegazioni dei moti dei pianeti.


    Mill credeva che questo fosse un caso di causalità multipla in cui era stata ottenuta una verificazione completa. Era comunque consapevole della difficoltà di escludere ipotesi alternative e, in altri casi, era quanto mai cauto nella valutazione dello status di ipotesi e teorie. Affermava, per esempio, che quantunque la teoria ondulatoria di Thomas Young e Augustin Jean Fresnel avesse molte conseguenze deduttive confermate, tale conferma non equivaleva a una verificazione, e suggeriva che, in futuro, avrebbe potuto essere formulata una teoria che avrebbe spiegato non solamente i fenomeni spiegati nel momento attuale dalla teoria ondulatoria, ma anche quei fenomeni di assorbimento ed emissione che non venivano spiegati dalla teoria.7 In piena coerenza con i rigorosi requisiti del suo concetto di verificazione, Mill mantenne un atteggiamento di ammirevole apertura mentale nei confronti delle teorie del suo tempo.


    Mill attribuiva al metodo deduttivo un ruolo importante nella scoperta scientifica, e dichiarava che nei suoi confronti


    
      la mente umana va debitrice dei suoi trionfi più cospicui nell’investigazione della natura. A esso dobbiamo tutte le teorie che riuniscono fenomeni vasti e complicati sotto poche leggi semplici, che, considerate come leggi di quei grandi fenomeni, non sarebbero mai state scoperte studiandoli direttamente.8

    


    A tale riguardo Mill e Whewell erano d’accordo: entrambi erano convinti che la grande sintesi newtoniana fosse il frutto di un metodo ipotetico-­deduttivo. Stando così le cose, si deve concludere che Mill non propugnò una posizione esclusivamente induttivista riguardo al contesto della scoperta scientifica.


    Il contesto della giustificazione


    Sebbene non riducesse l’indagine scientifica all’applicazione di schemi induttivi, Mill rilevava che la giustificazione delle leggi scientifiche poteva essere realizzata soddisfacendo gli schemi induttivi, e riteneva che la funzione della logica induttiva fosse quella di fornire regole per la valutazione dei giudizi riguardanti la connessione causale. Secondo Mill, un’asserzione riguardante una connessione causale può essere giustificata dimostrando che l’evidenza osservativa a suo favore si conforma a specifici schemi induttivi.


    Relazioni causali e relazioni accidentali. Mill sosteneva che un importante obiettivo della scienza è la dimostrazione delle connessioni causali. Il filosofo fondava la disamina di questo obiettivo sull’analisi della concezione humeana secondo cui le relazioni causali non sono altro che congiunzioni sequenziali costanti di due tipi di eventi. Mill riconosceva che se Hume aveva ragione a identificare relazione causale e congiunzione costante, allora tutte le sequenze invariabili si sarebbero trovate sullo stesso piano. Tuttavia, secondo Mill, alcune sequenze invariabili sono causali mentre altre non lo sono. Per esempio, l’aggiunta di un pezzo di sodio in un bicchiere d’acqua è la causa della vistosa produzione di bolle nell’acqua. Ma il giorno non è causa della notte, a dispetto dell’esperienza che abbiamo maturato fino a oggi, la quale rivela che questa sequenza è invariabile. Perciò Mill distingueva sequenze causali e sequenze accidentali, e ribadiva che una relazione causale è una sequenza di eventi che è tanto invariabile, quanto incondizionata, e perciò ammetteva la possibilità che alcune sequenze invariabili fossero non-causali.


    Mill riconosceva che la distinzione tra sequenze causali e sequenze non causali ha valore solamente se è possibile trovare un modo per stabilire che alcune sequenze sono incondizionate, e sosteneva che una sequenza incondizionata è una sequenza che non soltanto è stata invariabile nella nostra esperienza passata, ma continuerà altresì a essere tale, «sinché dura la presente costituzione delle cose».9 Mill spiegava che con «presente costituzione delle cose» intendeva riferirsi a quelle «leggi ultime della natura (quali che siano) in quanto distinte dalle leggi derivate e dalle collocazioni».10


    Il filosofo inglese proponeva che lo status di una sequenza invariabile potesse essere deciso prendendo in considerazione che cosa accadrebbe se venissero alterate le condizioni nelle quali la sequenza si verifica normalmente. Se risultasse che queste condizioni possono essere alterate in un modo che è coerente con le “leggi ultime” e se l’effetto non dovesse presentarsi, allora la sequenza risulterebbe essere una sequenza condizionata. Nel caso del giorno e della notte, per esempio, Mill osservava che le condizioni rilevanti di questa sequenza comprendono la rotazione diurna della Terra, la radiazione solare e l’assenza dell’interposizione di corpi opachi; dato che il mancato soddisfacimento di una qualsiasi di queste condizioni non avrebbe violato le leggi definitive della natura, la sequenza giorno-notte è una sequenza condizionata.


    L’utilità generale di questo approccio è gravemente limitata dal fatto che Mill non specificò quali leggi fossero le “leggi ultime della natura”. Il filosofo non proseguì ulteriormente le sue indagini in questa direzione; tuttavia restava convinto del fatto che le sequenze causali differiscono dalle sequenze accidentali e che questa differenza può essere rivelata entro l’ambito dell’esperienza. Quel che occorre, secondo la concezione milliana, è una teoria della dimostrazione che stipuli la forma delle argomentazioni induttive valide. Una siffatta teoria consentirebbe a un filosofo della scienza di determinare quali generalizzazioni formulate a partire dall’esperienza enuncino relazioni causali.


    In talune occasioni, Mill elevò tutti e quattro i suoi schemi induttivi a regole della dimostrazione della connessione causale. In momenti di maggiore prudenza, tuttavia, circoscrisse la dimostrazione della connessione causale a quelle argomentazioni che soddisfano il metodo della differenza.


    Giustificazione dell’induzione. Per stabilire che qualsiasi argomentazione, la quale abbia la forma del metodo della differenza, dimostra la connessione causale, Mill avrebbe dovuto dimostrare che la connessione è a un tempo invariabile e incondizionata. Mill era convinto di poterlo fare. In ogni modo i filosofi della scienza sono generalmente d’accordo sul fatto che Mill non riuscì a dimostrare il suo punto di vista. Le sue argomentazioni portate a sostegno di questa affermazione erano basate su due premesse, ma sia dell’una sia dell’altra premessa lo studioso non riuscì a stabilire la verità.


    La prima premessa è che gli esempi positivi e negativi che corrispondono allo schema della differenza differiscano in un’unica circostanza rilevante. Tuttavia, come si è osservato poc’anzi, Mill non fu in grado di stabilire questo punto; il massimo che gli riuscì fu dimostrare che in molti casi si era osservata la presenza di sequenze invariabili, sebbene si fosse preso in considerazione solo un numero limitato di circostanze. Questo però non è sufficiente a dimostrare che non vi potrebbero essere ulteriori circostanze rilevanti per il verificarsi o meno del fenomeno.


    La seconda premessa è un principio di causalità universale, il quale statuisce che per ogni fenomeno c’è un qualche insieme di circostanze antecedenti in base alle quali esso è invariabilmente e incondizionatamente consequenziale. Mill pretendeva che la verità della legge di causalità venisse stabilita su basi empiriche, e riconosceva che, nell’avanzare questa pretesa, si trovava di fronte a un paradosso. Il paradosso è che, se la legge di causalità deve essere provata attraverso l’esperienza, allora deve essa stessa costituire la conclusione di un’argomentazione induttiva. Ma ogni argomentazione induttiva che dimostri le proprie conclusioni presuppone la verità della legge della causalità. Mill ammetteva che la sua dimostrazione pareva implicare un circolo vizioso, e riconosceva che non gli sarebbe stato possibile dimostrare la legge di causalità per mezzo di un’argomentazione induttiva impiegando il metodo della differenza. Così facendo avrebbe introdotto un’argomentazione circolare, dato che occorre la legge di causalità per giustificare lo stesso metodo della differenza.


    Mill pensava che avrebbe potuto evitare questa argomentazione circolare grazie a una tesi riguardante le argomentazioni induttive per enumerazione semplice; affermava che


    
      la precarietà del metodo per enumerazione semplice è in proporzione diversa all’ampiezza della generalizzazione. Il processo è illusorio e insufficiente, esattamente in proporzione alla specialità e limitatezza dell’estensione del soggetto dell’osservazione. Man mano che la sfera si amplia, questo metodo non scientifico diviene sempre meno atto a indurre in errore. Le verità più universali, per esempio la legge di causazione […] [è] debitamente e soddisfacentemente provata con questo metodo soltanto.11

    


    Perciò, mentre la generalizzazione “tutti i corvi sono neri” è precaria (basti pensare alla scoperta di cigni neri), la generalizzazione “per ogni evento di un dato tipo c’è un insieme di circostanze rispetto alle quali esso è invariabilmente e incondizionatamente conseguente” non lo è.


    Mill riteneva che la legge di causalità fosse una generalizzazione di ampiezza tale che ogni sequenza di eventi offre l’opportunità di un controllo della sua verità. Riteneva anche che nessuna eccezione a questa legge sia nota; secondo lui, ogni apparente eccezione «sufficientemente esposta alla nostra osservazione» è stata ricondotta o all’assenza di una circostanza antecedente normalmente presente, oppure alla presenza di una circostanza normalmente assente.12 Partendo da questi presupposti il filosofo inglese giungeva alla conclusione che, dato che ogni sequenza di eventi è un controllo della legge di causalità, e poiché ogni sequenza indagata ha confermato la legge, la legge stessa è una verità necessaria.


    Mill pretendeva così di avere dimostrato che un’argomentazione induttiva mediante enumerazione semplice a partire da premesse empiriche dimostra che la legge di causalità è una verità necessaria. La sua “dimostrazione” però non è efficace; nessun appello all’esperienza, al modo in cui le cose sono, dimostra che le cose non potrebbero essere diverse. Persino se Mill avesse potuto riscuotere un completo successo per la sua pretesa secondo cui non vi è mai stata alcuna eccezione valida alla legge di causalità, ciò non proverebbe affatto che la legge sia una verità necessaria. Ora, Mill esige che la legge di causalità sia una verità necessaria per poter giustificare la propria pretesa secondo cui le argomentazioni che corrispondono al metodo della differenza dimostrano connessioni causali.


    La concezione ipotetico-deduttiva di Jevons


    La tesi induttivista di Mill sul contesto della giustificazione fu immediatamente sfidata da Jevons. Questi ribadì che per giustificare un’ipotesi si devono fare due cose: dimostrare che tale ipotesi non è incoerente rispetto ad altre leggi ben confermate e dimostrare che le sue conseguenze si accordano con ciò che è stato osservato.13 Tuttavia, dimostrare che un’ipotesi ha conseguenze che sono in accordo con l’osservazione significa ricorrere ad argomentazioni deduttive. Così Jevons respinse la pretesa di Mill secondo cui la giustificazione di ipotesi avviene mediante il soddisfacimento di schemi induttivi. In questo modo, Jevons ribadì l’importanza che era stata attribuita al controllo deduttivo da Aristotele, Newton, Herschel e molti altri.


    * Mill esaminò anche un quinto metodo, denominato “Metodo congiunto della concordanza e della differenza”, nel quale questi due metodi vengono combinati in un unico schema.

  


  
     11. Positivismo matematico e convenzionalismo


    GEORGE BERKELEY (1685-1753) nacque in Irlanda da una famiglia inglese. Compì i suoi studi al Trinity College di Dublino, presso il quale in seguito insegnò. Devoto anglicano, Berkeley fu nominato diacono di Derry nel 1724. Qualche tempo dopo cercò di fondare un collegio a Bermuda, progetto che fallì per mancanza di fondi. Nel 1734 assunse l’incarico di vescovo di Cloyne. La filosofia antimaterialista di Berkeley è esposta nel Trattato sui princìpi della conoscenza umana (1710) e nei Tre dialoghi tra Hylas e Philonus (1713). I suoi scritti successivi comprendono The Analyst (L’analitico, 1734), una critica della versione newtoniana del calcolo differenziale, e il De Motu (Sul movimento, 1721), una critica positivista della fisica di Newton.


    ERNST MACH (1838-1916), fisico, studiò a Vienna e fornì contributi nel campo della meccanica, dell’acustica, della termodinamica e della psicologia sperimentale, oltre che nell’ambito della filosofia della scienza. Promosse una crociata contro l’intrusione delle interpretazioni “metafisiche” in fisica. Contro il punto di vista secondo cui la scienza dovrebbe cercare di descrivere qualche “realtà oggettiva”, per esempio gli atomi, dietro le apparenze, Mach sosteneva che la scienza dovrebbe puntare a una descrizione economica delle relazioni tra i fenomeni.


    HENRI POINCARÉ (1854-1912) nacque a Nancy da una famiglia illustre. Suo cugino Raymond fu presidente della Repubblica durante la Prima guerra mondiale. Poincaré studiò all’École des Mines per diventare ingegnere minerario, ma nel corso degli studi i suoi interessi si rivolsero alla matematica pura e applicata. Dopo un breve periodo all’Università di Caen, fu chiamato alla facoltà di matematica dell’Università di Parigi (1881). Poincaré diede importanti contributi alla matematica pura e alla meccanica celeste. Il suo articolo del 1906 sull’elettrone anticipò alcuni dei risultati raggiunti da Einstein con la teoria della relatività ristretta. Gli scritti di Poincaré sulla filosofia della scienza (La scienza e l’ipotesi, del 1902 e Il valore della scienza, del 1905) sottolineano il ruolo delle convenzioni nella formulazione delle teorie scientifiche.


    KARL R. POPPER (1902-1994) fu professore di logica e metodo scientifico alla London School of Economics. Nel suo importante saggio Logica della scoperta scientifica (l’edizione tedesca è del 1934, quella inglese del 1959), Popper criticò il tentativo del Circolo di Vienna di formulare un criterio di significato empirico per le asserzioni, e propose invece che la scienza empirica venisse demarcata dalla pseudoscienza con un criterio che prendesse in considerazione la metodologia utilizzata. Popper riconfermò e sviluppò queste tesi in Congetture e confutazioni (1963). Durante la Seconda guerra mondiale pubblicò La società aperta e i suoi nemici, un attacco a Platone, Hegel, Marx e a tutti i pensatori che avrebbero voluto imporre alla storia leggi inflessibili.


    Il positivismo matematico di Berkeley


    Uno dei primi critici della filosofia della scienza newtoniana fu George Berkeley, un pensatore che era assurto a una certa notorietà per avere avanzato alcune argomentazioni volte a dimostrare che le “sostanze materiali” non esistono. Nella sua critica, Berkeley accusò Newton di non riuscire a tenere conto dei suoi stessi avvertimenti. Newton infatti aveva rilevato che una cosa è formulare correlazioni matematiche che riguardano le forze, e una cosa completamente diversa è scoprire che cosa le forze siano “in se stesse”. Berkeley riteneva che Newton avesse avuto ragione a distinguere le sue teorie matematiche sulla rifrazione e la gravitazione da qualsiasi ipotesi sulla “reale natura” della luce e della gravità; quello che però lo disturbava era che l’autore dei Principia, con il pretesto di formulare “quesiti”, parlava delle forze come se fossero qualcosa di più che termini in equazioni. Berkeley affermava che le “forze” in meccanica erano analoghe agli epicicli in astronomia, vale a dire costruzioni matematiche utili per calcolare i moti dei corpi. Tuttavia, secondo Berkeley, sarebbe stato un errore attribuire a queste costruzioni un’esistenza reale nel mondo.


    Berkeley affermava che tutto il contenuto della meccanica newtoniana è espresso da un insieme di equazioni, integrate dall’affermazione secondo cui i corpi non si muovono da soli. Berkeley era pienamente disposto ad accogliere la pretesa di Newton secondo cui i corpi non hanno il potere di muoversi da sé: nel contempo però avvertiva che i riferimenti di Newton alle “forze d’attrazione”, alle “forze di coesione” e alle “forze di dissoluzione” si prestano a fuorviare il lettore. Queste “forze” altro non sono che entità matematiche. Berkeley dichiarò che


    
      le entità matematiche non hanno una stabile essenza nella natura delle cose; ed esse dipendono dalla nozione del definiente; per cui la medesima cosa può essere spiegata in diverso modo.1

    


    Così facendo, Berkeley propugnava una concezione strumentalista delle leggi della meccanica; riteneva che queste leggi non siano altro che dispositivi di calcolo per la descrizione e la previsione dei fenomeni, e ribadiva che né i termini che compaiono nelle leggi né le dipendenze funzionali espresse dalle leggi stesse debbono essere riferiti a qualcosa che esista in natura. In particolare Berkeley rilevava che non abbiamo alcuna conoscenza degli oggetti a cui si riferiscono termini quali “forza d’attrazione”, “azione” e “impulso”. Noi sappiamo soltanto che, in determinate condizioni, i singoli corpi si muovono in certi modi. Cionondimeno, Berkeley ammetteva che termini quali “forza d’attrazione” e “impulso” hanno un’utilizzazione importante in meccanica, in virtù del fatto che compaiono in teorie che ci consentono di predire sequenze di eventi.


    Berkeley si opponeva a quella concezione che paragona la scienza alla cartografia. Le leggi e le teorie scientifiche non sono come carte geografiche; in una carta geografica, ogni indicazione designa una caratteristica del terreno, e l’adeguatezza della rappresentazione fornita dalla carta geografica, inoltre, può essere accertata in maniera ragionevolmente semplice e immediata. Questo tuttavia non accade con alcuna teoria scientifica: infatti non si può dire che ogni termine di una teoria designi un oggetto, una proprietà o una relazione nell’universo conoscibile in maniera indipendente.


    L’accentuazione strumentalista di Berkeley è coerente con la sua tesi metafisica secondo cui l’universo contiene soltanto due generi di entità, idee e intelletti, e anzi forse è derivata da essa. La sua enunciazione sintetica di questa posizione è che «essere è percepire o essere percepiti». Sulla base di questo punto di vista, gli intelletti sono i soli agenti causali. Le forze non possono essere efficaci sotto il profilo causale.


    Inoltre, secondo Berkeley, non è possibile stabilire alcuna distinzione tra “qualità primarie”, che sono proprietà oggettive dei corpi, e “qualità secondarie”, che esistono solo nell’esperienza percettiva del soggetto. Galilei, Cartesio e Newton avevano accettato la distinzione tra qualità primarie e qualità secondarie, e avevano sostenuto che estensione, posizione e moto sono qualità primarie. Berkeley, comunque, negava che vi fossero qualità primarie dei corpi, e ribadiva che estensione e moto sono qualità sensibili assolutamente sullo stesso piano di calore e luminosità. Qualsiasi cognizione abbiamo riguardo all’estensione e al moto dei corpi ci è data nella nostra esperienza percettiva.


    Berkeley riteneva che non abbia senso parlare, come aveva fatto Newton, di movimenti nello spazio assoluto. Lo spazio non è qualcosa che esiste a prescindere o indipendentemente dalla nostra percezione dei corpi. Inoltre, rilevava che se nello spazio non vi fossero corpi, allora non vi sarebbe alcun modo di fissare degli intervalli spaziali. Perciò concludeva che se in questa situazione non è possibile fissare gli intervalli spaziali, è anche privo di senso parlare di uno “spazio” vuoto di qualsiasi corpo.


    Berkeley, inoltre, rilevava che se tutti i corpi tranne uno fossero annientati, allora non si potrebbe attribuire alcun moto a questo corpo. Questo perché ogni moto è relativo. Parlare del moto di un corpo significa parlare delle sue mutevoli relazioni con altri corpi. Il moto di un unico corpo all’interno di uno spazio assoluto è inconcepibile.


    Nemmeno l’esperimento del secchio, ideato da Newton, stabilisce l’esistenza dello spazio assoluto. Berkeley osservava infatti giustamente che il moto dell’acqua nel secchio non è un “moto veramente circolare”, in quanto esso è composto non solo dal moto del secchio, ma anche dalla rotazione e rivoluzione della Terra intorno al Sole. Berkeley era pervenuto così alla conclusione che questo moto, descritto da Newton come rotazione rispetto allo spazio assoluto, può essere riferito invece ai corpi nell’universo diversi dal secchio stesso.2


    Nell’applicazione della sua teoria della meccanica, Newton era stato costretto a sostituire alle distanze nello spazio assoluto gli intervalli spaziali relativi. Berkeley sosteneva che i riferimenti di Newton ai moti nello spazio assoluto avrebbero potuto essere eliminati dalla fisica senza impoverire in alcun modo tale disciplina. Affermava che, mentre la “forza d’attrazione” e l’“impulso” sono utili invenzioni matematiche, lo “spazio assoluto” è un’invenzione inutile e dovrebbe essere eliminata dalla fisica, e raccomandava di considerare le stelle fisse quali punti che definiscono il quadro di riferimento per la descrizione dei moti.


    Mach e la riformulazione della meccanica


    Nella seconda metà del XIX secolo, Ernst Mach elaborò una critica della filosofia della scienza newtoniana sorprendentemente simile a quella formulata da Berkeley. Mach condivideva la concezione strumentalista di Berkeley delle leggi e delle teorie scientifiche, e dichiarava che «tutta la scienza ha lo scopo di sostituire, ossia di economizzare esperienze mediante la riproduzione e l’anticipazione di fatti nel pensiero».3


    Secondo Mach, le leggi e le teorie scientifiche sono implicite sintesi dei fatti; esse ci consentono di descrivere e anticipare i fenomeni. Un valido esempio è costituito dalla legge della rifrazione di Snel. Mach osservò che in natura vi sono vari esempi di rifrazione, e che la legge di rifrazione è una «regola compendiosa» in vista della ricostruzione mentale di questi fatti.4


    Quale principio regolativo dell’impresa scientifica, Mach suggeriva un principio di economia. «La scienza» scriveva «potrebbe perciò essere considerata un problema di minimo, consistente nell’esporre i fatti quanto più completamente è possibile con la minima fatica intellettuale.»5


    Gli scienziati dovrebbero cercare di formulare relazioni che riassumono un gran numero di fatti. Mach sottolineava che un modo particolarmente efficace di conseguire l’economia della rappresentazione è la formulazione di teorie comprensive in cui le leggi empiriche vengono dedotte da pochi princìpi generali.


    Il fisico austriaco condivideva altresì la convinzione di Berkeley secondo cui è un errore assumere che i concetti e le relazioni della scienza corrispondano a ciò che esiste in natura. Mach ammetteva, per esempio, che le teorie sugli atomi possono essere utili nella descrizione di certi fenomeni, ma ribadiva che ciò non fornisce alcuna prova dell’esistenza degli atomi in natura.


    Al pari di Berkeley, Mach si rifiutava di postulare un regno della “realtà” costituito da qualità primarie, atomi o cariche elettriche, dietro il regno dell’apparenza. Il suo fenomenismo era risoluto quanto quello di Berkeley. Mach dichiarò che


    
      nell’indagine sulla natura abbiamo a che fare soltanto con la conoscenza del nesso delle apparenze le une con le altre. Ciò che rappresentiamo a noi stessi dietro alle apparenze esiste solamente nel nostro intelletto, e per noi ha solo il valore di una memoria tecnica o di una formula, la cui forma, essendo arbitraria e irrilevante, varia molto facilmente a seconda del punto di vista della nostra cultura.6

    


    Mach cercò di riformulare la meccanica newtoniana da un punto di vista fenomenista; sperava di mostrare, per mezzo di questa riformulazione, che la meccanica può essere spogliata delle speculazioni “metafisiche” sui moti nello spazio e nel tempo assoluti. La riformulazione prese la forma di una suddivisione delle proposizioni fondamentali della meccanica in due classi: le generalizzazioni empiriche e le definizioni a priori.


    Secondo Mach, le generalizzazioni empiriche basilari della meccanica sono: 1) che i corpi disposti l’uno di fronte all’altro inducono l’uno nell’altro, in determinate circostanze che devono essere determinate per mezzo della fisica sperimentale, accelerazioni contrarie nella direzione della loro congiungente; 2) che il rapporto tra le masse di due corpi è indipendente dallo stato fisico dei corpi; e 3) che le accelerazioni che ciascun corpo A, B, C, … induce nel corpo K sono indipendenti le une rispetto alle altre.


    A queste generalizzazioni empiriche, Mach aggiungeva le definizioni di «rapporto tra le masse» e «forza». Il “rapporto tra le masse” dei due corpi è «il rapporto inverso delle accelerazioni preso con segno negativo» e “forza” è il «prodotto di massa per accelerazione».7


    Mach considerava le generalizzazioni empiriche alla stregua di verità contingenti che vengono confermate dalle prove sperimentali: esse verrebbero falsificate se i risultati degli esperimenti dovessero risultare diversi da quelli finora osservati.


    Il fisico austriaco sottolineava che le generalizzazioni, così come si presentano nella sua riformulazione, diventano empiricamente significative solamente quando vengono specificate le procedure per la misurazione degli intervalli spaziali e temporali. Mach proponeva che gli intervalli spaziali venissero misurati relativamente a un sistema di coordinate definito dalle stelle “fisse”, eliminando così qualsiasi riferimento allo spazio assoluto, e inoltre ribadiva che, siccome non ha senso parlare di un moto definendolo «uniforme in se stesso», i riferimenti al tempo assoluto devono essere eliminati. Secondo Mach, gli intervalli temporali devono essere misurati mediante processi fisici.


    Ma anche nel caso che si riescano a trovare procedure fisiche soddisfacenti per determinare gli intervalli spazio-temporali, si potrebbe obiettare che Mach non ha dimostrato che le generalizzazioni empiriche della sua riformulazione sono esposte alla falsificazione. La formula «in determinate circostanze che devono essere determinate per mezzo della fisica sperimentale», che compare nella prima generalizzazione, cela un problema. Il fisico cerca di controllare la generalizzazione per sistemi isolati che non sono influenzati da mutamenti esterni ai sistemi stessi. Tuttavia, nel caso che non vengano rilevate «accelerazioni contrarie nella direzione della loro congiungente», ciò potrebbe anche essere considerato una dimostrazione non della falsità della generalizzazione, bensì del fatto che i due corpi sono stati isolati in maniera incompleta rispetto a influssi perturbanti. Un fisico che fosse interessato a mantenere a tutti i costi la generalizzazione in questione potrebbe usarla alla stregua di una convenzione per determinare se un sistema di corpi abbia oppure no le prerogative di un sistema isolato. In quanto convenzione, questa relazione non sarebbe passibile né di conferma né di confutazione.


    La logica della disconferma secondo Duhem


    Il punto di vista convenzionalista ricevette ulteriore appoggio dall’analisi della disconferma delle ipotesi compiuta da Pierre Duhem. Duhem sottolineò che la predizione del verificarsi di un certo fenomeno viene fatta a partire da un insieme di premesse che includono leggi e asserzioni riguardo alle condizioni antecedenti.


    Si consideri un caso nel quale la legge “tutte le cartine di tornasole blu diventano rosse quando vengono immerse in soluzione acida” viene controllata immergendo un lembo di cartina in un liquido. Potremo prevedere che la cartina diventerà rossa sulla base del seguente argomento deduttivo:


    L In tutti i casi in cui un pezzo di cartina di tornasole


    viene immerso in una soluzione acida, esso diventa rosso.


    C Un pezzo di cartina tornasole viene immerso in una soluzione


    acida.


    [image: img51.jpg]


    ∴ E Il pezzo di cartina diventa rosso


    Questo argomento è valido: se le premesse sono vere, allora anche la conclusione deve essere vera. Di conseguenza, se la conclusione è falsa, una o più di una delle premesse deve essere falsa. Ma se la cartina non diventa rossa, quello che viene falsificato è la congiunzione di L e C, e non L stessa. Si potrebbe continuare ad affermare L, rivendicando che o non era presente alcuna tintura di tornasole, oppure che la cartina non è stata immersa in una soluzione acida. Naturalmente può anche darsi che vi siano mezzi indipendenti per accertare la verità dell’asserzione riguardo alle condizioni antecedenti. Ma l’osservazione in base a cui E non si verifica non può, di per sé, falsificare L.


    Duhem era interessato principalmente a casi più complicati, in cui nella previsione di un fenomeno risulti coivolto un certo numero di ipotesi. Sottolineò che, perfino se le condizioni antecedenti di tali casi sono state correttamente enunciate, la mancata osservazione del fenomeno predetto falsifica solamente la congiunzione delle ipotesi. Per ripristinare l’accordo con l’osservazione, lo scienziato è libero di alterare una qualsiasi delle ipotesi che si presentano nelle premesse. Può decidere, per esempio, di mantenere così com’è una particolare ipotesi, e sostituire o modificare le altre ipotesi dell’insieme. Adottare una strategia del genere significa attribuire a quella particolare ipotesi lo status di una convenzione per la quale la questione della verità o falsità non si pone.


    Ma sebbene abbia indicato il modo in cui un’ipotesi potrebbe essere trasformata in una convenzione non annullabile, Duhem non compilò un elenco di specifiche ipotesi che avrebbero dovuto essere interpretate come convenzioni e nulla più. Duhem credeva che, in presenza di un risultato sperimentale disconfermante, la decisione riguardo a quali assunzioni di una teoria debbano essere modificate andrebbe lasciata al ponderato giudizio degli scienziati. Inoltre indicò che la condizione necessaria per l’emissione di un giudizio ponderato è un atteggiamento spassionato e oggettivo.


    In certi casi può darsi che vi siano buone ragioni per operare cambiamenti in un certo assunto di una teoria piuttosto che in un altro. Questo varrebbe, per esempio, se un primo assunto dovesse presentarsi in un certo numero di teorie confermate, mentre un secondo assunto comparisse solamente nella teoria presa in considerazione. Eppure nella logica della disconferma non c’è nulla che consenta di individuare le parti erronee di una teoria.


    Duhem applicò la sua analisi della logica della disconferma all’idea di “esperimento cruciale”. Francesco Bacone aveva suggerito esperimenti cruciali, o “istanze cruciali”, che decidono in maniera conclusiva fra due teorie in competizione. Nel XIX secolo si supponeva generalmente che la determinazione sperimentale, da parte di Léon Foucault, che la velocità della luce è maggiore nell’aria che nell’acqua, fosse un esperimento cruciale. Il fisico Jean-François Arago, per esempio, dichiarava che l’esperimento di Foucault aveva dimostrato non solo che la luce non è un fascio di particelle emesse, ma anche che la luce è un moto ondulatorio.


    Duhem rilevò che Arago si sbagliava per due motivi. Anzitutto l’esperimento di Foucault falsifica soltanto un insieme di ipotesi. All’interno delle teorie corpuscolari di Newton e Laplace, la predizione che la luce viaggi più velocemente nell’acqua che nell’aria è dedotta soltanto da un gruppo di proposizioni. L’ipotesi dell’emissione, che paragona la luce a uno sciame di proiettili, è solamente una di queste premesse. Ci sono, inoltre, proposizioni che riguardano le interazioni dei corpuscoli emessi e i mezzi attraverso i quali essi viaggiano. I sostenitori della teoria corpuscolare, quando si trovarono dinanzi i risultati dell’esperimento di Foucault, avrebbero potuto decidere di mantenere l’ipotesi dell’emissione e di fare alcune correzioni alle altre premesse della teoria corpuscolare. In secondo luogo, anche se sulla base di altre ragioni fosse certo che ogni assunzione della teoria corpuscolare è vera, eccezion fatta per l’ipotesi dell’emissione, l’esperimento di Foucault non proverebbe ancora che la luce è un moto ondulatorio. Né Arago né alcun altro scienziato potrebbe dimostrare che la luce deve essere o uno sciame di corpuscoli emessi o un moto ondulatorio. Ci potrebbe essere una terza alternativa. Duhem sottolineò che un esperimento sarebbe “cruciale” solo se eliminasse in maniera risolutiva ogni possibile insieme di premesse esplicative, salvo uno. Ebbe quindi ragione a insistere sul fatto che non possono esserci esperimenti del genere.8


    Il convenzionalismo di Poincaré


    Fu Henri Poincaré a spiegare nel modo più convincente le implicazioni di una concezione convenzionalista dei princìpi generali della scienza. Poincaré separò la pretesa di Whewell, secondo cui certe leggi scientifiche giungono a essere verità a priori, dall’epistemologia kantiana a cui Whewell si appellava per giustificare lo status a priori di queste leggi. Per Poincaré la questione dell’esistenza di un insieme di idee immutabili che in certo qual modo investono le leggi scientifiche di uno status necessario non si pone affatto. Secondo Poincaré, il fatto che una legge scientifica sia ritenuta vera, indipendentemente da qualsiasi richiamo all’esperienza, riflette meramente l’implicita decisione degli scienziati di usare la legge come convenzione che specifica il significato di un concetto scientifico. Se la legge è vera a priori, cio è dovuto al fatto che è stata enunciata in maniera che nessuna evidenza empirica possa valere contro di essa.


    I due impieghi delle leggi della meccanica


    La legge di inerzia, per esempio, non è soggetta a conferma o confutazione diretta da parte dell’evidenza empirica. Nella formulazione di Poincaré, il «principio di inerzia generalizzato» specifica che l’accelerazione di un corpo dipende solo dalla sua posizione, e dalle posizioni e velocità dei corpi vicini.9 Poincaré aveva osservato che un controllo decisivo di questo principio avrebbe richiesto che, dopo un certo periodo di tempo, ogni corpo dell’universo riassumesse la posizione e la velocità che aveva assunto in un qualche particolare momento antecedente. Ma un controllo del genere non può essere eseguito. Il massimo che si possa fare è un esame del comportamento di un gruppo di corpi “ragionevolmente isolati” dal resto dell’universo. Non c’è bisogno di dire che la mancata osservazione dei moti previsti all’interno di un sistema che si suppone isolato non falsificherebbe il principio di inerzia generalizzato. Le eventuali discrepanze verrebbero attribuite all’incompleto isolamento del sistema. I calcoli potrebbero essere ripetuti, tenendo conto delle posizioni e delle velocità di corpi aggiunti al sistema. Non c’è limite al numero di revisioni di questo genere che potrebbero essere eseguite.


    Poincaré concludeva che il principio di inerzia generalizzato potrebbe essere considerato una convenzione che statuisce il significato dell’espressione “moto inerziale”. Da questo punto di vista, “moto inerziale” significa “moto di un corpo tale che la sua accelerazione dipende solo dalla sua posizione e dalle posizioni e velocità dei corpi vicini”. Per definizione, qualsiasi corpo il cui moto non venga calcolato correttamente a partire dai dati sulla sua posizione e sulle posizioni e velocità di un insieme di corpi vicini, non è un corpo in moto inerziale.


    Comunque, sebbene ritenesse che il principio di inerzia generalizzato venga (e possa essere) usato come una convenzione che definisce implicitamente l’espressione “moto inerziale”, Poincaré credeva anche che il principio potesse essere usato come una generalizzazione empiricamente significativa, valida approssimativamente per i sistemi “quasi isolati”, e sviluppò un’analisi simile dello status cognitivo delle altre due leggi newtoniane del moto. Se da un lato queste leggi funzionano come definizioni convenzionali di “forza” e di “massa”, dall’altro, date le procedure per misurare spazio, tempo e forza, esse sono generalizzazioni confermate con una certa approssimazione per sistemi “quasi isolati”.


    Perciò sarebbe inesatto attribuire al matematico francese la concezione secondo cui le leggi scientifiche generali non sono altro che convenzioni che definiscono i concetti fisici fondamentali. Queste leggi hanno una legittima funzione in quanto convenzioni, ma hanno anche una legittima funzione in quanto generalizzazioni. Commentando le leggi della meccanica, Poincaré dichiarò che esse


    
      ci si presentano sotto due aspetti differenti. Da una parte, sono delle verità fondate sull’esperienza e verificate in maniera approssimata per quanto riguarda i sistemi quasi isolati. Dall’altra, sono dei postulati applicabili all’insieme dell’universo e considerati rigorosamente veri.10

    


    Poincaré notava che nel corso dello sviluppo della scienza alcune leggi arrivano a esibire questi due aspetti. Inizialmente tali leggi vengono impiegate esclusivamente come generalizzazioni sperimentali: per esempio una legge potrebbe enunciare un rapporto fra due termini A e B. Se tengono presente che il rappporto vale solo in maniera approssimativa, gli scienziati possono introdurre un termine C che, per definizione, ha con A il rapporto che viene espresso dalla legge. L’originaria legge sperimentale è stata ora suddivisa in due parti: un principio a priori che enuncia un rapporto tra A e C, e una legge sperimentale che enuncia un rapporto tra B e C.11


    Quando i termini “moto inerziale”, “forza” e “massa” vengono definiti implicitamente dalle leggi del moto di Newton, essi sono termini dello stesso tipo di C. Poincaré riteneva che fosse una questione di convenzione che questi termini venissero accolti in quanto definiti dalle leggi di Newton. Non vi sono prove empiriche a dimostrazione del fatto che il rapporto enunciato fra i termini A e C è falso. Questo tuttavia non equivale a dire che la scelta della definizione sia arbitraria. Poincaré ribadiva che l’introduzione di convenzioni nella teoria fisica è giustificata solo se si dimostra fruttuosa nella ricerca successiva.12


    La scelta di una geometria per descrivere lo “spazio fisico”


    Poincaré sosteneva che anche la scelta di quale geometria pura venga impiegata per descrivere relazioni spaziali tra i corpi è una questione di convenzione. Comunque prevedeva che gli scienziati avrebbero continuato a optare per la geometria euclidea, in quanto è quella più semplice da applicare.


    Nel XIX secolo, il matematico Carl Gauss eseguì un esperimento volto a confermare la descrizione euclidea delle relazioni spaziali. Gauss misurò la somma degli angoli di un triangolo formato dai raggi di luce emessi da tre vette di montagne lontane e scoprì che, nei limiti dell’accuratezza della sua attrezzatura di rilevamento, non vi era alcuna deviazione dal valore euclideo di 180°.


    Ma anche se Gauss avesse riscontrato una deviazione sensibile rispetto ai 180°, ciò non avrebbe dimostrato che la geometria euclidea è inapplicabile alle relazioni spaziali sulla superficie della Terra. Qualsiasi deviazione rispetto al valore euclideo avrebbe potuto essere attribuita a una “flessione” dei raggi luminosi utilizzati per effettuare le osservazioni.


    Poincaré richiamò l’attenzione sul fatto che l’applicazione di una geometria pura all’esperienza comporta necessariamente ipotesi su fenomeni fisici come la propagazione di raggi luminosi, le proprietà di pertiche di misurazione e simili, e sottolineò che l’applicazione di una geometria pura all’esperienza, al pari di ogni teoria fisica, ha una componente astratta e una componente empirica. Quando una geometria fisica non è in accordo con le osservazioni, l’accordo può essere ripristinato o sostituendo a essa una geometria pura differente (un diverso sistema di assiomi) oppure modificando le ipotesi fisiche associate. Poincaré credeva che, messi di fronte a una simile scelta, gli scienziati avrebbero invariabilmente scelto di modificare le ipotesi fisiche e di mantenere la più conveniente geometria pura euclidea.13


    Tuttavia, come ha messo in rilievo Hempel, in certi casi una maggiore semplicità d’insieme può essere ottenuta adottando una geometria non-­euclidea e lasciando immutate le ipotesi fisiche associate. Secondo Hempel, limitando le considerazioni di complessità alle sole geometrie pure Poincaré sbagliava. Quello che conta è la complessità della congiunzione di una geometria pura e delle ipotesi fisiche associate.14


    Popper e la falsificabilità come criterio del metodo empirico


    Karl Popper decise di prendere sul serio la prospettiva convenzionalista. Osservò che è sempre possibile conseguire l’accordo fra una teoria e le osservazioni. Se un certo risultato osservativo è incoerente con le conseguenze della teoria, vi sono alcune strategie che possono essere seguite per “salvare” la teoria. L’evidenza osservativa può essere ricusata del tutto, oppure può essere spiegata aggiungendo ipotesi ausiliarie o modificando le regole di corrispondenza.*15 Queste strategie possono introdurre uno sconcertante grado di complessità in un sistema teorico. Cionondimeno è sempre possibile trovare il modo di eludere l’evidenza falsificante.


    Secondo Popper, il metodo empirico propriamente detto consiste nell’esporre costantemente una teoria alla possibilità di essere falsificata. Il filosofo concludeva che per combattere il convenzionalismo bisogna decidere di non impiegare i suoi metodi e, coerentemente con questa conclusione, proponeva un insieme di regole metodologiche per le scienze empiriche. La regola suprema è un criterio di adeguatezza per tutte le altre regole, proprio come l’imperativo categorico di Kant è un criterio di adeguatezza per le norme morali. Questa regola suprema dice che tutte le regole del metodo empirico «devono essere progettate in maniera tale da non proteggere dalla falsificazione nessuna asserzione della scienza».16


    Sulla questione dell’aggiunta di ipotesi ausiliarie a una teoria, per esempio, Popper suggeriva che venissero ammesse soltanto quelle ipotesi che aumentano il grado di falsificabilità della teoria. Sotto questo profilo contrapponeva il principio di esclusione di Pauli e l’ipotesi della contrazione di Fitzgerald e Lorentz.17 Il principio di Pauli era un’aggiunta alla teoria atomica di Niels Bohr e Arnold Sommerfeld. Wolfgang Pauli aveva postulato che in un dato atomo non vi sono due elettroni con lo stesso insieme di numeri quantici. Due elettroni di un atomo, per esempio, possono differire per quantità di moto angolare orbitale, oppure per lo spin. L’aggiunta di questo principio di esclusione alla teoria della struttura atomica allora vigente aveva reso possibili ulteriori predizioni riguardanti gli spettri atomici e le combinazioni chimiche. L’ipotesi della contrazione di Lorentz, d’altro canto, non aumentava il grado di falsificabilità della teoria dell’etere a cui era stata collegata. Lorentz ipotizzava che tutti i corpi sulla Terra subiscano una lieve contrazione nella direzione del moto della Terra attraverso l’etere circostante. Grazie a questa ipotesi era in grado di spiegare, nei termini della teoria dell’etere, il risultato dell’esperimento di Michelson e Morley. Michelson e Morley avevano mostrato che la velocità della luce nel corso di un itinerario di andata e ritorno è la stessa in tutte le direzioni sulla superficie terrestre. Questo risultato sperimentale era in contraddizione con la teoria dell’etere, secondo la quale la velocità della luce nel corso di un viaggio di andata e ritorno avrebbe dovuto risultare minore nella direzione del moto della Terra attraverso l’etere, rispetto a un percorso effettuato in una direzione perpendicolare a questo moto. L’ipotesi della contrazione di Lorentz ripristinava l’accordo fra la teoria dell’etere e l’esperimento, ma realizzava una procedura ad hoc. Non si potevano formulare ulteriori previsioni in base alla teoria dell’etere corredata da questa ipotesi ulteriore. Popper citava l’ipotesi di Lorentz come esempio di un’ipotesi ausiliaria che dovrebbe essere esclusa dalla scienza empirica in virtù del criterio di falsificabilità.


    Un’ipotesi che sia esposta alla possibilità della falsificazione soddisfa il criterio di demarcazione di Popper. Essa ha presentato le credenziali per essere ammessa nel dominio del discorso scientifico. Per essere accettabile, un’ipotesi deve soddisfare un ulteriore requisito: deve superare i controlli progettati per confutarla.


    Popper distingueva i controlli dai meri esempi. Un controllo è un serio tentativo di confutazione; esso implica un confronto tra una conseguenza deduttiva di un’ipotesi e un’“asserzione base” che registra un’osservazione.* Un’“asserzione base” descrive il verificarsi di un evento intersoggettivamente osservabile in una regione definita dello spazio e del tempo.


    Popper riconosceva che le asserzioni base non sono incorreggibili. Può darsi che ci sbagliamo riguardo al verificarsi degli eventi. Cionondimeno, è necessario considerare vere alcune asserzioni base se si vuole sottoporre a controllo un’ipotesi. Perciò vi è un elemento di convenzionalismo nel controllo delle ipotesi. Popper scrisse che


    
      la base empirica delle scienze oggettive non ha in sé nulla di “assoluto”. La scienza non posa su un solido strato di roccia. L’ardita struttura delle sue teorie si eleva, per così dire, sopra una palude. È come un edificio costruito su palafitte. Le palafitte vengono conficcate dall’alto, giù nella palude: ma non in una base naturale o “data”; e il fatto che desistiamo dai nostri tentativi di conficcare più a fondo le palafitte non significa che abbiamo trovato un terreno solido. Semplicemente, ci fermiamo quando siamo soddisfatti e riteniamo che almeno per il momento i sostegni siano abbastanza stabili da sorreggere la struttura.18

    


    Popper suggeriva che l’accettabilità di una legge o di una teoria fosse determinata dal numero, dalla diversità e dalla severità dei controlli che ha superato. Come spiegazione qualitativa, questa è una ricostruzione convincente. La maggior parte dei filosofi della scienza concorda sul fatto che un controllo della legge di rifrazione che comprenda vari angoli di incidenza e svariate coppie di mezzi è più adeguato di un controllo ristretto all’interfaccia aria-acqua con un angolo di incidenza di 30°. Parimenti, vi è un generale consenso riguardo al fatto che la scoperta compiuta in occasione della spedizione organizzata per osservare l’eclissi del 1919, secondo cui la luce delle stelle lontane viene deviata dal Sole, fu un controllo severo della teoria della relatività generale.19


    È facile citare esempi di controlli severi. Tuttavia è difficile misurare la severità dei controlli. Questo Popper era disposto a riconoscerlo, anche se osservò che la severità dipendeva dall’ingegnosità dell’allestimento di un esperimento, dall’accuratezza e dalla precisione dei risultati raggiunti, e dall’estensibilità dei nessi che collegano l’ipotesi sottoposta a controllo ad altri assunti teorici.


    Nondimeno, Popper cercò di elaborare una misura quantitativa dell’accettabilità facendo riferimento al concetto di «verisimilitudine» (approssimazione alla verità). Popper riteneva che le asserzioni derivabili da una teoria possono essere suddivise tra quelle che sono vere (e che costituiscono il suo «contenuto di verità») e quelle che sono false (il suo «contenuto di falsità»). Assumendo che i contenuti di verità e di falsità delle teorie T1 e T2 siano confrontabili, Popper enunciò la seguente definizione di «verisimilitudine comparativa»:


    
      T2 è più vicina alla verità, ovvero corrisponde ai fatti meglio di T1 se e solo se: a) il contenuto di verità, ma non il contenuto di falsità, di T2, supera quello di T1, b) il contenuto di falsità di T1, ma non il suo contenuto di verità, supera quello di T2.20

    


    La definizione di Popper è inappropriata. Pavel Tich21 e David Miller22 hanno dimostrato che se tanto T1 quanto T2 sono falsi, allora né la condizione (a) né la condizione (b) possono essere soddisfatte. Ma lo scopo dell’introduzione della verisimilitudine è di permettere di affermare che una teoria falsa (per esempio la teoria dell’attrazione gravitazionale di Newton) è «più vicina alla verità» di un’altra teoria falsa (per esempio la teoria della caduta libera di Galilei). Popper ammetteva che la sua definizione iniziale di «verisimilitudine comparata» era inadeguata. Purtroppo i successivi tentativi di Popper e di altri per emendare la definizione non sono stati coronati da successo.23


    Popper vedeva la storia della scienza come una successione di congetture, confutazioni, congetture riviste e ulteriori confutazioni. La procedura scientifica vera e propria consiste nell’esporre le congetture ai controlli più severi che si possano escogitare. Se una congettura supera un controllo, allora è stata «corroborata». Popper affermava che la corroborazione è un’approvazione «retrospettiva». L’ottenimento della corroborazione non giustifica la convinzione che un’ipotesi sia vera, o approssimativamente vera. Popper si era coerentemente opposto all’appello alle argomentazioni induttive per giustificare le ipotesi. Secondo il suo punto di vista, non è corretto affermare che, se l’ipotesi H ha superato i controlli t1 … tn, allora è probabile che H superi il controllo tn + 1.


    Il filosofo, comunque, si richiamava spesso a un’analogia tratta dalla teo­ria dell’evoluzione organica. Una teoria ben corroborata ha dimostrato la sua «idoneità [fitness] a sopravvivere». Questa analogia evoluzionistica crea una tensione all’interno della filosofia antinduttivista della scienza di Popper. Per una teoria è importante superare i controlli (questo infatti è ciò che stabilisce la sua idoneità evolutiva nella storia della scienza), ma il superamento dei controlli non conferisce alcun beneficio epistemologico. Non si può argomentare induttivamente che il superamento dei controlli giustifica una credenza nella verità approssimata di una teoria. Però allora è poco chiaro perché si dovrebbe scegliere, in vista delle ulteriori applicazioni, una teoria ben corroborata anziché una teoria confutata. Se l’inferenza induttiva non è consentita, allora le due seguenti indicazioni


    
      	applicare T2, perché è verosimile che una teoria che ha avuto successo in passato abbia successo anche in futuro anziché fallire;


      	applicare T1, perché una teoria che ha fallito in precedenza potrebbe clamorosamente tornare a mostrare la sua validità,

    


    si trovano sullo stesso piano. Popper era consapevole di questa difficoltà. La sua risposta fu di accettare «un alito di induttivismo», basandosi sull’assunto che «la realtà, pur essendo sconosciuta, è per alcuni aspetti simile alla descrizione che ne offre la scienza».24 Data questa assunzione realista,


    
      possiamo argomentare che sarebbe una coincidenza altamente improbabile che una teoria come quella di Einstein riuscisse a prevedere correttamente misurazioni estremamente precise non previste dalle precedenti teorie a meno che in essa non sia contenuta “un po’ di verità”.25

    


    I critici di Popper hanno affermato che ammettere questo “alito di induttivismo” equivale ad abbandonare completamente la posizione antinduttivista.26


    * Le regole di corrispondenza sono regole semantiche o “voci del dizionario” che collegano gli assiomi di una teoria ad asserzioni di grandezze empiricamente determinate.


    * Più precisamente, è la conseguenza deduttiva della congiunzione di ipotesi, asserzioni riguardo alle condizioni rilevanti ed eventualmente ipotesi ausiliarie, che viene confrontata con un resoconto osservativo.

  


  
     12. La filosofia della scienza del ricostruzionismo logico


    PERCY WILLIAMS BRIDGMAN (1882-1962), fisico, vincitore del premio Nobel, svolse ricerche d’avanguardia sulle proprietà della materia sottoposta a pressioni elevate. I suoi rilevamenti sperimentali comprendevano le proprietà elettriche e termiche di varie sostanze a pressioni estremamente elevate, dell’ordine di 100.000 atmosfere. Nel 1939 precluse l’accesso ai suoi laboratori di Harvard per lo studio dell’alta pressione ai cittadini dei paesi totalitari, un atto che suscitò controversie nella comunità accademica. Bridgman fu l’artefice di un orientamento metodologico noto con il nome di “operazionismo”, che mette in rilievo le operazioni eseguite per assegnare dei valori ai concetti scientifici.


    CARL HEMPEL (1905-1997), filosofo di origine tedesca, studiò a Göttingen, Heidelberg e Berlino. Membro del gruppo di Berlino, che sosteneva le finalità e i punti di vista del Circolo di Vienna nei primi anni trenta, nel 1937 si trasferì negli Stati Uniti, e insegnò a Yale e a Princeton. Scrisse importanti saggi sulla logica della spiegazione scientifica e sulla struttura delle teorie. Un certo numero di questi saggi è raccolto nel volume Aspects of Scientific Explanation (Aspetti della spiegazione scientifica, 1965).


    ERNEST NAGEL (1901-1987), nato in Cecoslovacchia, emigrò negli Stati Uniti nel 1911, dove trascorse quasi tutta la sua carriera accademica come professore di filosofia alla Columbia University. Nagel fu uno dei primi filosofi americani a prendere posizione favorevole nei confronti del lavoro del Circolo di Vienna. Il suo libro La struttura della scienza. Problemi di logica nella spiegazione scientifica (1961) contiene penetranti analisi della logica della spiegazione scientifica, dell’universalità nomica, della causalità della struttura, e dello status cognitivo delle teorie.


    Una gerarchia di livelli del linguaggio


    Dopo la Seconda guerra mondiale, la filosofia della scienza venne costituendosi quale disciplina accademica autonoma, provvista di specifici programmi per i corsi di laurea e di una stampa periodica specializzata. Questa professionalizzazione avvenne, in parte, perché i filosofi della scienza credevano che si sarebbero potuti conseguire risultati importanti, e che da essi la scienza avrebbe tratto considerevoli vantaggi.


    La filosofia della scienza del dopoguerra è stata il tentativo di realizzare il programma proposto da Norman Campbell. Nei suoi Foundations of Science (I fondamenti della scienza, 1919),1 Campbell osservava che i recenti studi sui fondamenti della matematica prodotti da Hilbert, Peano e altri avevano chiarito la natura dei sistemi assiomatici. Questo sviluppo aveva avuto una considerevole importanza per gli studi matematici a venire. Campbell ipotizzava che uno studio dei “fondamenti” della scienza empirica potesse avere valore simile per la pratica della scienza. I “fondamenti” che Campbell discusse comprendono la natura della misurazione e la struttura delle teorie scientifiche.*


    I filosofi della scienza che cercavano di elaborare la loro disciplina in maniera analoga agli studi sui fondamenti della matematica accettavano la distinzione proposta da Hans Reichenbach tra il contesto della scoperta scientifica e il contesto della giustificazione.2 Essi concordavano sul fatto che il dominio vero e proprio della filosofia della scienza è il contesto della giustificazione. Inoltre cercavano di riformulare le leggi e le teorie scientifiche entro gli schemi della logica formale, di modo che le questioni riguardanti la spiegazione e la conferma potessero essere affrontate come problemi di logica applicata.


    Il grande risultato ottenuto dal ricostruzionismo logico fu un nuovo modo di intendere il linguaggio della scienza, il quale comprende una gerarchia di livelli, alla cui base stanno le asserzioni che registrano le letture degli strumenti, e al cui vertice stanno le teorie.


    I filosofi della scienza ricostruzionisti trassero alcune importanti conclusioni circa la natura di questa gerarchia:


    
            

      

      



                  	       LIVELLI DI LINGUAGGIO NELL SCIENZA







            	       Livello




      	       Contenuto




      	       Esempio







            	       Teorie




      	       Sistemi deduttivi in cui le leggi sono teoremi




      	       Teoria cinetica molecolare







            	       Leggi




      	       Rapporti invarianti (o statistici) tra concetti scientifici




      	       Legge di Boyle (“P ∝ 1/V”)







            	       Valori dei concetti




      	       Asserzioni che assegnano dei valori ai concetti scientifici




      	       “P = 2,0 atm”


 “V = 1,5 l”







            	       Dati sperimentali primari




      	       Asserzioni riguardo a letture di indicatori, menischi, contatori et al.




      	       “La lancetta indica 3,5”








    


    
      	Ogni livello è un’“interpretazione” del livello sottostante.


      	Il potere predittivo delle asserzioni aumenta via via che si procede dalla base verso il vertice.


      	La principale divisione entro il linguaggio della scienza è quella tra un “livello osservativo”, che comprende i tre livelli più bassi della gerarchia, e un “livello teorico”, il livello più elevato della gerarchia. Il livello osservativo contiene asserzioni riguardanti “osservabili” come “pressione” e “temperatura”; il livello teorico contiene asserzioni riguardanti “non-­osservabili” come “geni” e “quark”.


      	Le asserzioni del livello osservativo forniscono una base di controllo per le asserzioni del livello teorico.

    


    Operazionismo


    In analisi risalenti al 1927, Bridgman aveva sottolineato che ogni concetto bona fide scientifico deve essere riconducibile a procedure sperimentali che ne determinano i valori.3 Bridgman era rimasto colpito dalla disamina del concetto di “simultaneità” elaborata da Einstein.


    Einstein aveva analizzato le operazioni implicate nel giudicare che due eventi sono simultanei, e aveva osservato che una determinazione di simultaneità presuppone un trasferimento di informazione, per mezzo di qualche segnale, dagli eventi in questione a un osservatore. Tuttavia il trasferimento di informazione da un punto a un altro richiede un lasso di tempo finito. Perciò, nell’eventualità che gli eventi in questione si verifichino in sistemi che sono in movimento l’uno rispetto all’altro, i giudizi di simultaneità dipendono dai moti relativi dei sistemi e dell’osservatore. Dato un particolare insieme di moti, l’osservatore Lince sul sistema 1 può giudicare che l’evento x sul sistema 1 e l’evento y sul sistema 2 sono simultanei, mentre l’osservatore Falco sul sistema 2 può giudicare altrimenti. Si badi bene che non c’è alcun punto di vista privilegiato da cui determinare che Lince ha ragione e Falco ha torto, o viceversa. Einstein ne concludeva che la simultaneità è un rapporto tra due o più eventi e un osservatore, non un rapporto oggettivo tra eventi.


    Bridgman dichiarò che sono le operazioni in virtù delle quali vengono assegnati dei valori a fornire significato empirico a un concetto scientifico. Osservò anche che le definizioni operative collegano i concetti ai dati sperimentali primari tramite lo schema


    (x) [Ox ⊃ (Cx ≡ Rx)]*


    A partire da una definizione operativa e dai dati sperimentali primari appropriati, si può dedurre un valore del concetto. Si consideri un caso in cui la presenza di un corpo elettricamente carico è determinata mediante operazioni con un elettroscopio:


    [image: img52.jpg]


    dove


    Nx = x è un caso in cui un oggetto viene portato in prossimità di un elettroscopio neutro,


    Ex = x è un caso in cui l’oggetto è elettricamente carico


    e


    Dx = x è un caso in cui le foglie dell’elettroscopio divergono.


    Dato che Na e Da sono dati sperimentali primari, questo argomento deduttivo permette allo scienziato di risalire, per così dire, dai dati sperimentali primari, il livello del “direttamente osservato”, al livello dei concetti scientifici (vedi lo schema sotto).


    Bridgman ribadiva che se per un certo concetto non si può specificare alcuna definizione operativa, allora il concetto non ha significato empirico e va escluso dalla scienza. Tale fu il destino della «simultaneità assoluta», e Bridgman raccomandava un’esclusione simile per lo “spazio assoluto” e per la teorizzazione di Clifford secondo cui, man mano che il sistema solare si sposta attraverso lo spazio, sia gli strumenti di misurazione sia le dimensioni degli oggetti misurati manifestano il medesimo tasso di contrazione.4


    [image: tab05.jpg]


    Eppure, sebbene avesse ribadito che devono essere stabiliti dei nessi tra le asserzioni riguardanti i termini teorici e il linguaggio osservativo in cui vengono registrati i risultati delle misurazioni, Bridgman riconosceva che i nessi possono essere effettivamente complessi. Uno degli esempi da lui forniti è il concetto di «sforzo in un corpo elastico deformato». Lo sforzo non può essere misurato direttamente, ma può essere calcolato per mezzo di una teoria matematica a partire da misurazioni effettuate sulla superficie del corpo. Perciò, per il concetto di sforzo, le operazioni eseguite includono operazioni “con carta e matita”. Nessuna materia. Dato il rapporto formale tra “sforzo” e “deformazione”, e dati i risultati delle operazioni strumentali eseguite sulla superficie del corpo, segue deduttivamente un valore dello sforzo. Questo è sufficiente a conferire allo sforzo la qualifica di concetto ammissibile dal punto di vista operazionista.


    Nei suoi scritti del dopoguerra, Bridgman sottolineò due limiti dell’analisi operazionista.5 Un limite è che non si possono specificare tutte le circostanze presenti quando viene eseguita un’operazione. Bisogna arrivare a un compromesso tra il requisito della ripetibilità intersoggettiva e l’auspicabilità di una completa elaborazione delle condizioni in cui viene eseguita un’operazione.


    Gli scienziati hanno credenze antecedenti riguardo a quali fattori siano ri