centro studi asia

Epistemologia della scienza e della meditazione

Un confronto tra razionalità occidentale e tradizione orientale

Solo sul fondamento dello stupore,
ossia della manifestatezza del Niente,
sorge il “perché?”

M. Heidegger

Sommario

Può il metodo fenomenologico della meditazione essere considerato un metodo scientifico? A questo quesito intende rispondere il presente saggio,
soffermandosi sull’idea di scienza nel neopositivismo logico, e quindi esaminando le critiche che ad essa  sono state mosse nel corso del ‘900. In seguito sono analizzati i contributi di Popper, di Poincaré, di Duhem e di Quine, autori nei quali l’epistemologia della scienza si è andata precisando e articolando. Nuovi modi di intendere lo statuto epistemologico della scienza sono stati sviluppati da Kuhn, che considera gli aspetti sociali della conoscenza scientifica, e da Lakatos che, criticando Popper, si interroga su quale sia la linea di demarcazione tra un programma di ricerca scientifico e uno non scientifico.

Da questo avvincente percorso si possono trarre elementi per analizzare con rigore, alla luce della critica epistemologica del ‘900, il metodo di fenomenologia applicata proprio della meditazione.

1. Il Neopositivismo Logico

Il neopositivismo logico nasce in Austria con il Circolo di Vienna e in Germania con la Scuola di Berlino negli anni venti. L’obiettivo di questo movimento è quello di definire in modo rigoroso quel che si intende per conoscenza scientifica, intesa come conoscenza attendibile del reale. Tra i fondatori troviamo Rudolf Carnap, Herbert Feigl, Hans Reichenbach e Carl Hempel.

I neopositivisti dividono il processo della conoscenza in due fasi: il contesto della scoperta e quello della giustificazione. Il primo è lasciato allo studio degli psicologi, poiché non è riducibile a schemi logici (la scoperta si basa fondamentalmente su un’intuizione che sembra sfuggire a qualsiasi analisi di tipo logico). La seconda fase, invece, è quella che determina il valore conoscitivo della scoperta stessa, e può essere ricondotto ad una relazione logica fra l’ipotesi e i dati sperimentali. Per i neopositivisti una teoria è scientifica se rispetta determinati canoni relativamente alla giustificazione delle ipotesi che propone.

Alla base del pensiero neopositivista ci sono tre elementi basilari che ora analizzeremo:

  • il significato dei termini fondamentali utilizzati dalle teorie scientifiche;
  • il modello nomologico-deduttivo della spiegazione e il modello ipotetico-deduttivo della giustificazione;
  • l’assiomatizzazione delle teorie.


Il significato dei termini fondamentali

La conoscenza deve essere posta in relazione con l’esperienza, affinché si possa affermare la sua attendibilità. Alla base della conoscenza non ci sono le idee, concetti troppo vaghi, ma il linguaggio, che può essere controllato in modo più preciso.

Alla base della piramide della conoscenza scientifica si trovano gli enunciati protocollari, o osservativi, che possono ricevere una verifica direttamente dall’esperienza. Esempi di enunciati di questo tipo sono: “Ora percepisco una macchia blu” (Carnap), oppure “Il sole splende” (Neurath). La verità o falsità di questi enunciati viene raggiunta immediatamente, tramite un diretto confronto con l’esperienza.

Gli altri enunciati scientifici sono quelli che possono essere ridotti tramite l’analisi logica agli enunciati protocollari. In questo modo il loro significato è “l’insieme delle condizioni che, se si registrano, stabiliscono la verità dell’enunciato”. In altre parole se un enunciato è vero quando si verificano determinate condizioni osservabili, l’insieme di tali condizioni rappresenta proprio il significato di tale enunciato.

Ad esempio, vediamo come l’affermazione “In assenza di attrito tutti i corpi cadono con la stessa accelerazione” può essere scomposta in enunciati protocollari. “In assenza di attrito” vuol dire sostanzialmente “Nel vuoto”, in assenza di un mezzo in cui l’oggetto cade. A sua volta “Nel vuoto” significa che ci si trova in una situazione in cui la pressione ambiente è nulla, che a sua volta si può riportare all’enunciato “Il manometro segna una pressione nulla” che è un enunciato osservativo. Analogamente il termine “accelerazione” dovrà essere riportato ad una sua definizione operativa, una definizione, cioè, nella quale sia esplicito anche il processo tramite il quale la stessa accelerazione può essere misurata.

Il significato dei singoli termini, dunque, è contestuale; un termine non può avere significato di per sé, ma solo all’interno di un enunciato.

Un’altra distinzione fondamentale a livello linguistico è quella fra enunciati analitici ed enunciati sintetici; i primi non hanno contenuto empirico, si fondano solo sul principio di non contraddizione e la loro verità può non dipendere dal confronto con l’esperienza; alcuni esempi possono essere “I corpi sono estesi”, “Tutti gli scapoli non sono sposati”, “Se piove allora piove”, “Due più tre è uguale a cinque”. Per i neopositivisti sono analitiche tutte le proposizioni della matematica e della logica. Gli enunciati sintetici, invece, possiedono un contenuto empirico e quindi la loro veridicità risiede nella conferma o smentita da parte dell’esperienza; si consideri come esempio “Oggi piove” o “I corpi sono pesanti”. Tutti gli enunciati della scienza sono sintetici e fra essi bisogna distinguere quelli cosiddetti osservativi, che possono essere verificati immediatamente, e tutti gli altri, che tramite analisi logica sono ridotti ai primi.

L’importanza di questa differenza consiste nel fatto che la matematica e la logica sono formate da enunciati analitici che sono veri indipendentemente dall’esperienza, e che quindi costituiscono un linguaggio di base tramite il quale esprimere in modo rigoroso i concetti scientifici. La disciplina scientifica più fondamentale, la fisica, si esprime tramite formule matematiche, e tutte le proposizioni scientifiche utilizzano le regole della logica formale. Le proposizioni analitiche rappresentano una sorta di base, di fondamento epistemologico tramite il quale costruire una conoscenza certa.

Il modello nomologico-deduttivo

Cosa vuol dire spiegare un evento? Per i neopositivisti la spiegazione consiste nella derivazione dell’evento in questione a partire da leggi scientifiche e da asserzioni relative a fatti empirici noti (condizioni iniziali). Lo schema potrebbe essere così descritto:

L1, L2, L3, … Ln
C1, C2, C3, … Cn
---------------------
Quindi, E

Un’asserzione di legge, quindi, sarà nella forma “Se x accade, allora y accade”. Un esempio di legge è “Se un essere umano viene privato della vitamina C per un certo numero di giorni, contrarrà lo scorbuto”. Qui la condizione iniziale è rappresentata dall’essere privato della vitamina C per un certo numero di giorni; la legge, allora rappresenta la spiegazione. Tuttavia non tutte le asserzioni di questo tipo possono essere considerate leggi; affermare che “Se lancio un sasso contro la finestra, questa si rompe”, può essere considerata una spiegazione? Affinché una spiegazione sia soddisfacente, le leggi devono essere inserite all’interno di un contesto più ampio: una teoria. Una teoria permette di chiarire ogni elemento che concorre alla spiegazione dell’evento; nell’esempio della finestra la teoria spiegherà perché il vetro è più fragile di un muro, la velocità minima con cui deve essere lanciato il sasso e la sua massa, perché il vetro effettivamente si rompa, e così via.

Oppure, supponiamo che nel portafoglio io tenga solo banconote da 10 €; allora l’asserzione “Se una banconota si trova nel mio portafoglio, allora è una banconota da 10 €”. La possiamo considerare una legge? Il fatto che una banconota si trovi nel mio portafoglio rappresenta una spiegazione del fatto che sia da 10 €? Evidentemente no, poiché capiamo che non esiste un rapporto di necessità fra il trovarsi nel mio portafoglio ed essere una banconota da 10 €.

Se nell’esempio della finestra la spiegazione era insoddisfacente perché parziale, l’esempio della banconota non possiamo considerarlo una spiegazione poiché non rappresenta una relazione di necessità, ma solo un fatto contingente e legato ad una nostra ostinazione.

Distinguere, quindi, un’asserzione generale vera da una spiegazione non è così semplice; l’unica differenza sembra che le seconde si trovino all’interno di una teoria. Cosa si intenda più precisamente con “teoria” lo vedremo più oltre.

Questo, comunque, è il modello nomologico-deduttivo (N-D), per il quale, quindi, una spiegazione corrisponde ad una deduzione a partire da alcune leggi.

Spiegazione equivale, per i neopositivisti, a previsione. Se si conoscono le leggi e le condizioni iniziali, un evento può essere spiegato, ma anche previsto; l’unica differenza è che l’evento spiegato è passato, quello previsto è futuro.

Questo è il tipo di spiegazione deterministico.

Il problema che ora emerge è come ottenere leggi scientifiche; ovvero come distinguere asserzioni vere da asserzioni false. La procedura per sviluppare leggi scientifiche è chiamata dai neopositivisti metodo ipotetico-deduttivo (I-D). Esso si può schematizzare nel modo seguente:

P  ->  I  ->  D  ->  V

Dal Problema (P) si passa all’Ipotesi (I) e da qui c’è la Deduzione (D) di conseguenze dell’ipotesi che vengono poste al vaglio tramite una Verifica (V). Un esempio si ha nelle scoperte sulla febbre puerperale da parte di Ignaz Philipp Semmelweis negli anni ‘40 dell’ottocento. Egli aveva notato che molte donne che partorivano nel suo ospedale contraevano una malattia fatale chiamata “febbre puerperale”; il tasso di mortalità era maggiore quando si occupavano del parto i medici piuttosto delle levatrici (Problema). Quando un collega che si era ferito nel corso di un’autopsia aveva contratto una malattia fatale molto simile alla febbre puerperale, avanzò l’ipotesi che la malattia dipendesse dal contatto con “la materia organica putrefatta” (Ipotesi). Semmelweis basandosi sulla sua ipotesi introdusse delle misure profilattiche che consistevano nella disinfezione delle mani e degli strumenti dei medici che dovevano esaminare le pazienti; e previde che con queste precauzioni la percentuale di febbri puerperali sarebbero diminuite (Deduzione). La previsione si rivelò vera, offrendo una prova in favore della verità dell’ipotesi (Verifica).

Il problema del metodo I-D è che con esso non si può mai stabilire definitivamente la verità di una teoria; infatti, per quanti esempi positivi si possano trovare, ne potrà sempre esistere uno che contraddice la teoria. Da questo punto di vista esiste una asimmetria nella verifica: per verificare che un enunciato generale sia vero sono necessarie moltissimi esperimenti (talvolta anche infiniti); per dimostrarne la falsità è sufficiente un caso negativo.

Tuttavia i neopositivisti sostengono che maggiori sono le prove raccolte a sostegno di un’ipotesi, più fiducia si può avere nella sua verità.

Questo modo di procedere porta, però a dei paradossi; ad esempio il paradosso del corvo si basa sull’asserzione nomica:

per ogni x, se x è F, allora x è G

che è equivalente all’asserzione:

per ogni x, se x non è G, allora x non è F.

Se poniamo F come “corvo” e G come “nero”, allora la legge “Tutti i corvi sono neri “ è equivalente alla legge “Tutti gli oggetti che non sono neri non sono corvi”. Per verificare la verità del primo asserto bisogna guardare il colore dei corvi, ma per verificare il secondo, che è equivalente al primo, è sufficiente stare seduti nella stanza dove ci si trova e osservare che gli oggetti non neri non sono corvi.

L’assiomatizzazione delle teorie

Secondo i neopositivisti le teorie possono essere organizzate in strutture deduttive, nelle quali, partendo da pochi assiomi, si possono derivare tutte le leggi della teoria stessa. L’esempio per eccellenza di questo tipo di teorie è la geometria euclidea, che rappresenta un unico sistema coerente e organizzato gerarchicamente di proposizioni che sintetizzano tutta la conoscenza geometrica dell’antichità.

I postulati sono affermazioni autoevidenti, che non hanno bisogno di dimostrazione; a partire da quelli e utilizzando la logica formale si possono derivare tutte le altre proposizioni (teoremi) della teoria. I vantaggi nell’assiomatizzazione di una teoria consistono nel maggior rigore con cui i termini utilizzati all’interno della teoria sono definiti, e la chiarezza delle connessioni che uniscono un teorema a tutti gli altri.

Inoltre nel momento in cui una scienza, ad esempio l’astronomia, sia assiomatizzata, i suoi postulati possono essere, a loro volta, teoremi di altre scienze più fondamentali. In questo modo si può pensare ad un vero e proprio processo di riduzione teorica di una scienza ad un’altra; portando tale processo fino in fondo si realizzerebbe l’unificazione di tutte le scienze, che si fonderebbero su quella che viene considerata dai neopositivisti la scienza più fondamentale: la fisica. La fisica, quindi, spiegherebbe, in ultima analisi la biologia, la chimica, ma anche la fisiologia o la psicologia.

Un ultimo aspetto che vale la pena sottolineare, è che secondo il neopositivismo logico la scienza ha carattere cumulativo: rappresenta un percorso progressivo che avvicina sempre più l’uomo alla vera conoscenza del reale.

Intermezzo sulla logica

Nella logica formale moderna, che si può far risalire a Frege, bisogna distinguere due piani fondamentali: quello sintattico e quello semantico. Il primo è quello dei segni e delle regole che permettono di operare con gli stessi segni. Il secondo ambito è quello dei significati; una determinata formula logica di per sé non ha alcun significato, lo acquisisce nel momento in cui i singoli segni vengono interpretati, sono cioè associati ad un termine dotato di significato. Ad esempio la formula

x + y = 0 -> (x=0 , y=0 )

è vera se x e y rappresentano numeri naturali, ma non lo è se x e y sono numeri relativi.

Notiamo che i termini “vero” e “falso” hanno senso solamente nell’ambito di una interpretazione della formula, solo in un contesto semantico. Dal punto di vista sintattico possiamo solo parlare di “derivabilità” o “dimostrabilità” di una formula, a partire dagli assiomi scelti.

Alla base della logica formale si trovano i tre principi della logica aristotelica:

  • principio di identità: A=A;
  • principio di non contraddizione: non è possibile che valga A e -A
  • principio del terzo escluso: non possono valere contemporaneamente A e -A.

Inoltre come principio di inferenza c’è il modus ponens:

A
A -> B
---------------------
B

che afferma che data una proposizione A, se da A si può dedurre B, allora si può affermare B.

Questo principio in genere è accettato universalmente come base di un ragionamento deduttivo; tuttavia ecco un paradosso dovuto a Lewis Carroll, che si basa proprio su tale principio[1].

Supponiamo di avere le seguenti proposizioni:

A)     Due elementi che sono uguali ad un terzo sono uguali fra loro.
B)     I due lati di questo triangolo sono uguali al terzo.
Z)     I due lati di questo triangolo sono uguali fra loro.

Da A e B segue Z, questa è la regola di deduzione; supponiamo anche che A e B siano accettate come vere, allora anche Z deve essere vera. La cosa interessante è che non è necessario accettare A e B come vere, per accettare la sequenza delle tre proposizioni come vera; da un punto di vista logico quel che si può sostenere è che nel caso in cui A e B siano vere, allora si può dedurre che anche Z sarà vera.

Tuttavia supponiamo di avere a che fare con uno scettico, che non è convinto che da A e B si possa dedurre Z, come lo si potrà convincere logicamente? Per accettare Z come vera bisogna prima accettare la seguente proposizione:

C)     Se A e B sono vere allora anche Z è vera.

Quindi ora abbiamo la seguente sequenza di proposizioni:

A)     Due elementi che sono uguali ad un terzo sono uguali fra loro.
B)     I due lati di questo triangolo sono uguali al terzo.
C)     Se A e B sono vere allora anche Z è vera.
Z)     I due lati di questo triangolo sono uguali fra loro.

Accettare Z a questo punto significa accettare la proposizione

D)     Se A, B e C sono vere allora anche Z è vera.

Evidentemente anche D sarà da aggiungere all’elenco delle altre proposizioni e certamente con ciò non si potrà arrivare logicamente all’accettazione di Z.

Questo “scherzo” di Lewis Carrol evidenzia bene il fatto che la logica, ad un’analisi dei suoi presupposti, si basa in ultimo sull’intuizione. Nel caso appena visto o si accetta con un salto intuitivo - e quindi in qualche modo irrazionale - il principio di inferenza, oppure si costruiranno sempre più proposizioni che non arriveranno a raggiungere logicamente la tesi.

Come conclude Trudeau:

Per quanto i matematici aspirino a tener completamente fuori dai propri sistemi l’intuizione, che non viene considerata affidabile, le intuizioni di base penetrano ovunque; la stessa logica è basata sull’intuizione, e può essere contaminata dall’inaffidabilità di questa.

Per noi occidentali, l’apprendimento della logica avviene, sia pure in modo informale, contemporaneamente a quello della lingua madre. In questo senso la logica è simile ad un paio di occhiali colorati che, quasi inconsapevolmente, portiamo fin dall’infanzia e mentre raggiungiamo quella che, per i nostri standard, è la nostra maturità intellettuale questi occhiali colorano ogni cosa, e perciò è naturale che tendiamo a vedere delle conferme ovunque volgiamo lo sguardo. […] Per quello che ne sappiamo, potrebbe esserci qualcosa di “sbagliato” nelle nostre lingue o addirittura nei nostri cervelli.[2]

2. Le critiche al neopositivismo logico

Critica di Popper al verificazionismo

Il criterio di verificabilità, già oggetto di varie critiche, viene decisamente rifiutato da Karl Popper il quale sostiene che tramite la verifica non è possibile dimostrare neanche la verità probabile di un enunciato. Infatti il numero di casi che in genere possono essere effettivamente osservati è trascurabile rispetto alla totalità dei casi a cui un enunciato si riferisce, e dunque si può dimostrare solo ad un minimo livello di probabilità che quell’enunciato è vero. Se, infatti, enunciati come “Tutte le viti della mia macchina sono arrugginite” richiedono un numero finito di controlli, un’asserzione del tipo “Tutti i corvi sono neri” implicano un numero illimitato di controlli; quindi anche un numero finito di verifiche positive non è significativo per convalidare l’asserzione.

L’alternativa che egli propone è di concentrarsi più che sulla verificabilità di un enunciato, sulla sua falsificabilità. Abbiamo già accennato come sia decisamente più semplice dimostrare la falsità di un enunciato universale: basta trovare un caso nel quale esso non funziona. Dal punto di vista della logica si tratta del modus tollens:

Se H, allora P
Non P
-------------------
Quindi, non H.

Popper ridefinisce i criteri corretti affinché una ricerca possa considerarsi scientifica; egli sintetizza il suo metodo affermando che lo scienziato deve procedere tramite congetture e confutazioni. Le congetture sono le ipotesi che il ricercatore propone; come i neopositivisti, anche Popper non si preoccupa del contesto della scoperta, ma solamente del contesto della giustificazione. Quindi non è importante come si arrivi ad un’ipotesi, ciò che conta è che tale ipotesi possa essere  confutata da un esperimento. Popper rimane impressionato dalla spedizione che nel maggio del 1919 Eddington compie alle isole Principe per misurare durante un’eclisse la deviazione della luce a causa della massa del Sole. Il risultato dell’esperimento fu coerente con le previsioni della teoria della relatività generale di Einstein, che dopo tale conferma divenne estremamente popolare. Quello che si risolse come un trionfo poteva essere una falsificazione della teoria, se i risultati delle osservazioni di Eddington fossero stati diversi. Proprio il rischio che una teoria ha di essere messa in errore è la caratteristica di una teoria scientifica. Anzi, più una teoria esclude, più essa è potente, più contiene informazioni, più cose ci dice sulla realtà del mondo. Una teoria, per contro,  per la quale andasse bene qualunque cosa non sarebbe minimamente significativa.

Ciò che caratterizza le teorie scientifiche è la possibilità di sottoporle a esperimenti cruciali.

Una buona teoria, oltre ad accordarsi con i fatti empirici già noti, deve avere due ulteriori caratteristiche:

  • dovrebbe discendere “da qualche idea unificante, semplice , nuova ed efficace”; non deve essere, cioè, una teoria ad hoc, non deve contenere elementi inseriti per spiegare specificamente determinati fenomeni, ma la spiegazione deve derivare da principi più generali, più ampi;
  • dovrebbe avere nuove implicazioni; dalla teoria si dovrebbero prevedere risultati di esperimenti non ancora effettuati; proprio da queste previsioni, proprio dal rischio di essere falsificata la teoria può dirci qualcosa di nuovo.

Popper, quindi, da una parte non accetta il metodo I-D basato sulla verifica induttiva e dall’altra mantiene le distanze dal convenzionalismo, poiché in esso vede il pericolo della giustificazione di qualunque sistema teorico, lasciando cadere quella spinta critica che dovrebbe essere caratteristica della scienza.

Egli si propone di risolvere i due problemi fondamentali dell’epistemologia: il problema dell’induzione (che era stato affrontato precedentemente da Hume) e il problema della demarcazione fra scienza e pseudoscienza (affrontato precedentemente da Kant).

Popper propone di risolvere il primo sostituendo la falsificazione alla verificazione, e il secondo distinguendo le proposizioni scientifiche non in base al loro significato (per i neopositivisti le proposizioni metafisiche sono prive di senso in quanto non possono essere ricondotte ad asserzioni empiriche), ma in base alla possibilità che siano controllate empiricamente (le proposizioni metafisiche sono inconfutabili).

E’ interessante osservare il rapporto fra Popper la metafisica: mentre i neopositivisti rifiutano le proposizioni non empiriche come non dotate di significato, Popper distingue fra scienza e metafisica, ma al tempo stesso rivendica l’importanza che ha la metafisica nello sviluppo di un programma di ricerca. Come esempio storico, oltre alla grande importanza che sempre ha avuto la filosofia nello sviluppo delle teorie cosmologiche, si può citare la teoria lunare delle maree, che in origine era una teoria astrologica che poi venne incorporata da Newton nella sua concezione della gravitazione universale; oppure il concetto di azione a distanza che lo stesso Newton inserì nella sua trattazione della meccanica celeste, e che era rifiutato dai cartesiani  suoi contemporanei.

Le idee metafisiche suggeriscono metodi per esplorare il mondo, possono rappresentare la fonte da cui emergono le dottrine empiriche, sono importanti da un punto di vista euristico.

Un altro tema sul  quale Popper si distacca dai neopositivisti è il ruolo del soggetto nella costruzione di una teoria scientifica: per i neopositivisti il soggetto è un puro osservatore, non influenza individualmente lo sviluppo della teoria; semplicemente registra le percezioni, considerate come informazioni dirette sulla realtà. Una conseguenza di ciò è che il processo scientifico è completamente astorico; la scienza neopositivista è un progresso lineare verso la totale decifrazione della realtà. Per Popper, invece, il ruolo del ricercatore nel momento in cui propone l’ipotesi è un ruolo creativo e dunque legato al singolo individuo. Individui diversi possono proporre ipotesi diverse; la scienza evolve secondo strade non lineari, poiché è influenzata dalle situazioni storiche e dalle personalità individuali che partecipano alla sua costruzione.

In questo modo Popper supera l’idea di scienza come insieme di proposizioni che, tramite accumulazione, si espande sempre più. La scienza è chiamata, piuttosto, a fare sempre più audaci congetture, stimolate dai fallimenti incontrati.

D’altra parte Popper mantiene significativi punti di contatto con i neopositivisti, come l’attenzione al contesto della giustificazione piuttosto che a quello della scoperta, il modello N-D basato su leggi e condizioni iniziali, e il riferimento alla logica formale come strumento di analisi della ricerca scientifica.

Critica al modello N-D

Uno dei problemi del metodo N-D è che esso può spiegare solamente eventi deterministici; una generalizzazione potrebbe permettergli di prendere in considerazione anche eventi che accadono spesso, cioè con probabilità maggiore del 50%. Una legge deterministica è del tipo “Se … allora …” ed esprime un rapporto di necessità; una legge probabilistica ha la forma “Se … probabilmente allora …”, ed esprime una relazione probabile. Tuttavia, se l’evento è poco probabile, come contrarre un tumore al polmone dopo aver fumato, allora questa strategia non funziona.

Una critica all’idea di spiegazione neopositivistica parte proprio da questo suo limite; un modo per poter introdurre una spiegazione anche per eventi poco probabili è quello di far riferimento al concetto di causa. Per il neopositivismo l’analisi causale dei fenomeni non era particolarmente significativa; proprio poiché il neopositivismo si basa sul linguaggio, nell’ambito del linguaggio e della logica il concetto di causa non può essere definito in modo efficiente, o distinto chiaramente rispetto ad una generalizzazione. Se si concepisce la spiegazione come ricerca di cause, allora si riescono a trattare anche eventi poco probabili. Infatti, se fra due eventi c’è una relazione di necessità, allora questa può essere considerata una relazione causale; ma se l’evento è raro, allora si possono trovare delle cause parziali dell’effetto in esame. Un modo per identificare le cause parziali è quello di introdurre il concetto di rilevanza statistica, che mette in evidenza la dipendenza fra più eventi. Ad esempio consideriamo la probabilità di essere un fumatore e la probabilità di morire prima dei 70 anni; quindi consideriamo la probabilità di essere un fumatore e di morire prima dei 70 anni, se quest’ultima probabilità è maggiore del prodotto delle altre due, allora diciamo che i due eventi non sono indipendenti, ma che fra loro esiste una correlazione statistica. Possiamo così concludere che il fumo è una delle cause di morte prima di 70 anni.

Se vogliamo analizzare due esempi citati precedentemente tramite il concetto di causa, il sasso contro la finestra rappresenta una causa della sua rottura (non può essere l’unica poiché se scagliamo un sasso contro un muro questo non si rompe), e il trovarsi nel mio portafoglio non può essere la causa per cui la banconota è da 10 € (posso pensare che qualcuno metta una banconota di 20 € nel mio portafoglio, si tratta di un evento, allora, in qualche misura casuale).

Poincaré e Duhem

Per Poincaré gli assiomi della geometria euclidea sono delle convenzioni; in origine i concetti della geometria derivano dall’osservazione empirica e dal confronto con l’esperienza, ma in un secondo momento alcune ipotesi sono generalizzate e si creano dei principi. A seconda dei principi che si considerano si hanno diverse geometrie; per Kant i teoremi della geometria euclidea rappresentano affermazioni sintetiche a priori: esprimono il rapporto fra gli oggetti e lo spazio, ed hanno quindi contenuto empirico, ma nello stesso tempo sono schemi necessari, innati nell’uomo per interpretare la realtà, e quindi, in questo senso, sono a priori. Tuttavia verso la metà dell’ottocento i matematici si rendono conto che i postulati su cui si fonda la geometria euclidea possono essere modificati in modo da ottenere diverse geometrie non-euclidee. Sorge il problema, allora, di capire quale fra queste geometrie è quella vera, è quella che esprime le proprietà dello spazio reale. Poincaré sostiene che tale questione non può avere una risposta univoca; la luce, infatti, si propaga in linea retta; ma se sperimentalmente osservassimo che la luce percorre una traiettoria non rettilinea, avremmo a disposizione due possibilità: sostenere che la geometria dello spazio non è euclidea per cui le traiettorie di minima lunghezza non sono rette nel senso euclideo, oppure descrivere le proprietà dello spazio con la geometria euclidea, ma modificare le leggi dell’ottica.

Alla base di questa ambiguità c’è il fatto che possiamo misurare solo rapporti fra oggetti e non abbiamo accesso diretto alle relazioni fra gli oggetti e lo spazio. Comunque, ciò che conta ai fini dell’epistemologia è che il ricercatore ha un margine di scelta: egli ha la libertà di interpretare i dati empirici supponendo che la geometria dello spazio sia euclidea o non-euclidea. Alla base di ogni descrizione si trova una scelta convenzionale, non arbitraria, ma dettata da criteri di convenienza e di semplicità.

Discorso analogo potrebbe essere fatto, ad esempio, per la meccanica; il principio di inerzia, infatti, non è un verità a priori, poiché possiamo pensare delle alternative ad esso, ma non è neanche un fatto empirico che può essere smentito da qualche esperimento contrario.

Un esempio storico in cui si vede come un esperimento non conduce alla confutazione di una teoria riguarda la scoperta del pianeta Nettuno. Nel 1781 era stato scoperto, da parte di Herschel, il pianeta Urano, tuttavia la sua orbita aveva delle irregolarità che non riuscivano ad essere spiegate dalla teoria newtoniana. Fra le ipotesi che erano state avanzate c’era la presenza di un fluido cartesiano, la presenza di un satellite o un evento catastrofico come l’impatto con una cometa. Tra il 1845 e il 1846, però, due astronomi, John Couch Adams e Jean-Urbain Le Terrier, indipendentemente, scoprono che le irregolarità nell’orbita di Urano potrebbero essere spiegate dalla presenza di un altro pianeta che si trova su un’orbita esterna. Il 23 settembre 1846, puntando il telescopio dove i calcoli teorici indicavano la presenza di un corpo celeste, viene scoperto Nettuno. Dunque, da un punto di vista epistemologico questo episodio evidenzia che:

a) non basta un esperimento contrario per falsificare una teoria; si possono modificare varie ipotesi secondarie in modo da non toccare il nucleo della teoria;
b) mantenere valida una teoria anche contro l’osservazione empirica può essere una posizione che permette un ulteriore progresso della scienza.

Questo esempio evidenzia una pratica comune nella scienza che già Duhem aveva riconosciuto: ciò che viene controllato empiricamente non è mai una singola ipotesi, ma “un insieme teorico”.

Un altro esempio si può trovare nella scoperta che Galileo compie delle fasi di Venere, che sono presentate come la prova che il sistema copernicano è più veritiero di quello tolemaico. In realtà sarebbe stato sufficiente modificare l’orbita di Venere, facendo ruotare il pianeta intorno al Sole (come già aveva suggerito Ticho Brahe), per spiegarne le fasi con il sistema tolemaico. Probabilmente ciò che è più importante non è tanto la spiegazione in sé del fenomeno, quanto il fatto che il fenomeno non è spiegato tramite delle ipotesi ad hoc.

Critica di Quine alla verificazione dell’enunciato singolo

Come abbiamo visto, la distinzione fra asserzioni analitiche e sintetiche è essenziale per il neopositivismo; Willard V.O. Quine negli anni cinquanta, dimostra che tale distinzione è impropria. Consideriamo, ad esempio, l’asserzione “Tutti gli scapoli non sono sposati”; si tratta di una proposizione analitica poiché evidentemente non ha nessun contenuto empirico e la sua veridicità può essere verificata indipendentemente dal confronto con l’esperienza; infatti “scapolo” vuol dire “non sposato”, e dunque si può verificare che la proposizione è vera puramente in base al significato dei termini in essa contenuti. L’asserzione citata è vera poiché “scapolo” è un sinonimo di “non sposato” riferito ad un maschio adulto, i due termini hanno lo stesso significato. Quindi il concetto di analiticità si basa su quello di significato; ma affermare che il significato è lo stesso, significa utilizzare dei criteri di analiticità.

E’ evidente, quindi, che i concetti di analiticità e di significato non sono chiaramente distinguibili, ma l’uno è strettamente connesso con l’altro. La conseguenza è che non esiste il mondo delle proposizioni analitiche, vere senza riferimenti alla realtà, distinto dal mondo delle proposizioni sintetiche, il cui significato è determinato, in ultima analisi,  dallo stato delle cose.

Se la distinzione fra proposizioni analitiche e sintetiche cade, allora non c’è più un fondamento extra-empirico sul quale basare tutta la conoscenza.  Viene ad incrinarsi, inoltre, anche la riduzione delle proposizioni alle asserzioni osservative, poiché tale riduzione è compiuta usando gli strumenti analitici della logica formale.

Quine dissolve, così, i due dogmi dell’empirismo: la distinzione fra enunciati analitici ed enunciati sintetici, e il riduzionismo degli enunciati teorici ad enunciati osservativi. Nelle sue parole:

Il dogma del riduzionismo sopravvive nella convinzione che ciascuna proposizione individuale, presa da sé e isolata dalle altre, si possa confermare o infirmare. Il mio parere, al contrario, […] è che le nostre proposizioni sul mondo esterno si sottopongono al tribunale dell’esperienza sensibile non individualmente, ma solo come un insieme globale.

Una singola proposizione non può avere significato, il significato per Quine, è dato dall’intera rete di relazioni nel quale essa si trova; il significato di una proposizione è legato più o meno direttamente al significato di tutte le proposizioni che formano l’ambito della conoscenza.

Una conseguenza estremamente importante di questa immagine della scienza è che non è possibile verificare una singola proposizione, ma il confronto sperimentale coinvolge, almeno in principio, sempre tutta la rete di relazioni.

Da qui discende la nota tesi di Duhem-Quine: in fisica le ipotesi non possono essere controllate isolatamente, ma solo come componenti di un sistema teorico.

Quine ha una visione olistica della conoscenza, che tuttavia non lo porta a rifiutare l’empirismo; egli, piuttosto, rinuncia all’“esilio cosmico” dell’epistemologia, la quale dovrebbe determinare i criteri di scientificità ponendosi al di fuori del mondo naturale. Al contrario, l’epistemologia non può fondare la scienza dal di fuori, ma deve assumerne i risultati per spiegarne la validità, in questo consiste la sua naturalizzazione

La relazione della teoria scientifica con la sua evidenza osservazionale è tortuosa, complessa, sconcertante. L’enunciato teorico consueto non ha un contenuto separato e identificabile, ma si connette piuttosto con altri enunciati formando una massa di teoria che è sostenuta dalle osservazioni solamente come un tutto. […] L’epistemologia naturalizzata affronta il problema di rintracciare in qualche modo il contenuto empirico attraverso questo labirinto di enunciati teorici. La strategia che si suggerisce per questo lavoro è una ricostruzione, in parte veridica e in parte forse congetturale, del processo mediante il quale il linguaggio della teoria potrebbe essere stato appreso.

Con la tesi di Duhem-Quine le singole ipotesi non possono essere verificate (e neanche falsificate) tramite i risultati sperimentali. Consideriamo, ad esempio, la legge L che afferma “Ogni volta che si appende ad un filo un peso superiore al peso caratteristico del filo, questo si spezza”, e le condizioni iniziali C1: “Il peso caratteristico di questo filo è 1 kg”; e C2: “Il peso caratteristico di questo filo è 1kg”. Infine consideriamo l’osservazione O: “Al filo è stato appeso un peso di 2 kg e il filo non si è rotto”; O contraddice L, e sarebbe una falsificazione per L, ma in realtà ci sono altre possibilità per accettare O senza necessariamente rifiutare L. Ad esempio si può pensare che il peso caratteristico dipenda dall’umidità del filo, e quindi nella circostanza dell’esperimento il peso caratteristico effettivo sia 2 kg; oppure la pesatura per definire il peso caratteristico era sbagliata; o ancora, il filo è in realtà un superfilo, e i superfili non si rompono mai.

Questo significa che non possono esistere esperimenti cruciali, come supponeva Popper, poiché un risultato sperimentale non necessariamente metterà in crisi un’intera teoria. La scelta di quale asserzione rifiutare rappresenta una scelta in qualche misura arbitraria del ricercatore; sebbene in linea di principio potrebbe essere messa in discussione qualunque proposizione che appartenga alla rete della conoscenza, in pratica verranno rigettate le proposizioni che si trovano più vicino ai margini della rete, cioè le proposizioni più direttamente connesse con l’esperienza. Le asserzioni più interne sono anche quelle più lontane dall’esperienza diretta, e riguardano la struttura matematica e logica della conoscenza; queste saranno messe in discussione più difficilmente. Nelle parole di Quine:

Tutte le nostre cosiddette conoscenze o convinzioni, dalle più fortuite questioni di geografia o di storia alle leggi più profonda della fisica atomica o financo della matematica pura e della logica, tutto è un edificio fatto dall’uomo che tocca l’esperienza lungo i suoi margini. O, per mutare immagine, la scienza nella sua globalità è come un campo di forza i cui punti limite sono l’esperienza. Un disaccordo con l’esperienza alla periferia provoca un riordinamento all’interno del campo; si devono rassegnare certi valori di verità ad alcune nostre proposizioni. Una nuova valutazione di certe proposizioni implica una nuova valutazione di altre a causa delle loro reciproche connessioni logiche – mentre le leggi logiche sono soltanto, a loro volta, certe altre proposizioni del sistema, certi altri elementi del campo. Una volta data una nuova valutazione di una certa proposizione dobbiamo darne un’altra anche a certe altre, che possono essere proposizioni logicamente connesse con la prima o esse stesse proposizioni di connessioni logiche. Ma l’intero campo è determinato dai suoi punti limite, cioè l’esperienza, in modo così vago che rimane sempre una notevole libertà di scelta per decidere quali siano le proposizioni di cui si debba dare una nuova valutazione alla luce di una certa particolare esperienza contraria.

Il ricercatore è chiamato ad una scelta pragmatica: modificare una parte di teoria in modo da far sì che il margine del sistema si mantenga sempre in accordo con l’esperienza; e il criterio di scelta relativamente a quali asserzioni accettare o rifiutare, è semplicemente l’efficacia esplicativa.

Critica alla percezione diretta degli oggetti

Uno degli elementi su cui si basa il neopositivismo è l’osservazione diretta dei fenomeni, che permette una conoscenza immediata della realtà. Tuttavia tale immediatezza viene messa in discussione e con essa è criticata anche la pretesa oggettività delle osservazioni.

Secondo Hanson, infatti, non vediamo il mondo originariamente come insieme di linee e punti, che in un secondo momento sono interpretati come immagini, ma ogni visione del mondo rappresenta immediatamente un modo particolare di leggerlo; non esiste un punto di vista neutrale, esterno, non influenzato da nessuna teoria. Se consideriamo l’esempio delle figure ambigue, come l’anatra/coniglio, nel momento in cui vediamo un’immagine, in noi si precisa una organizzazione percettiva particolare, e “non si vede la medesima cosa e poi la si interpreta in modo diverso”, ma piuttosto “si vede qualcosa di diverso”. La realtà è sempre un po’ costruita da chi la guarda; nel disegno già citato riusciamo a vedere o l’anatra o il coniglio, non esiste la vera immagine, non esiste un’unica immagine oggettiva, ma solo sguardi che scelgono fra due alternative. 

 
anatra/coniglio 

Sinteticamente si potrebbe dire: “L’osservazione è carica di teoria”.

L’osservatore, dunque, non è più neutrale; la visione che abbiamo della realtà è influenzata dalla teoria che impregna il nostro sguardo; nelle parole di Hanson: 

Consideriamo Keplero: immaginiamo che egli si trovi su una collina e che osservi il sorgere del Sole in compagnia di Tycho Brahe. […] Tycho vede un Sole mobile, Keplero […] un Sole statico.  

Lo stesso sole all’alba è visto in modo diverso da un tolemaico e da un copernicano; anzi in qualche modo potremmo dire che essi osservano due oggetti diversi.

Se si dissolve il sogno dell’oggettività, tuttavia non si cade necessariamente nella soggettività più assoluta; se la teoria influenza la nostra osservazione, comunque non la determina completamente. L’esperimento può ancora contrastare con la teoria e quindi creare problemi di ordine interpretativo. Due conseguenze dell’indebolimento del grado di realtà associato all’osservazione, sono:

  • il riconoscimento delle proposizioni scientifiche a livello intersoggettivo (e non oggettivo);
  • la difficoltà di mettere in correlazione più punti di vista: teorie diverse corrispondono anche a contesti interpretativi diversi, così che diventa estremamente complesso, se non impossibile, il confronto fra termini e concetti che appartengono a differenti teorie. Questo problema è chiamato dell’incommensurabilità delle teorie

3. Nuovi modi di intendere la filosofia della scienza

Kuhn e la sociologia della scienza

  

Se per i neopositivisti la scienza ha una struttura cumulativa, per Thomas Kuhn la scienza evolve non seguendo schemi lineari, ma alternando periodi di scienza normale con periodi rivoluzionari. La scienza normale è caratterizzata dalla presenza di un paradigma, che consiste in una teoria, ma anche in un modo di fare ricerca, in istruzioni per affrontare e risolvere problemi. Durante i periodi di scienza normale domina un paradigma ben determinato, e tutti i ricercatori fanno riferimento ad esso; un paradigma permette la condivisione di termini e di concetti fondamentali, e rende possibile un linguaggio comune all’interno della comunità degli scienziati. Il modello planetario tolemaico o quello copernicano sono, ad esempio, due diversi paradigmi; trovarsi all’interno di un paradigma significa vedere i problemi aperti da un’ottica ben precisa, significa anche evidenziare alcuni problemi piuttosto che altri.

Durante la scienza normale il paradigma dominante non viene messo in discussione, il nucleo fondante di una teoria non può essere criticato; si cerca, invece, di adattare la teoria alla base empirica modificandola negli aspetti meno profondi. Non c’è, secondo Kuhn, né una verifica della teoria – come sostenevano i neopositivisti – né, tantomeno, una ricerca della falsificazione – come sosteneva Popper. Lo scienziato, pur, di non rigettare la teoria dominante, mette anche da parte i dati sperimentali non coerenti col contesto teorico. Per questo la teoria newtoniana della gravitazione non è messa in crisi dai dati osservativi del perielio di Mercurio, che non concordano con la teoria, anche se solo in una piccola ma significativa misura.

Infine una teoria non viene rigettata se non ce n’è a disposizione una migliore. 

Ai periodi di scienza normale si succedono periodi di rivoluzioni scientifiche; quando il numero di problemi irrisolti all’interno di un paradigma inizia ad aumentare, si entra in una fase instabile, nella quale diverse teorie iniziano a convivere, senza che una prevalga sull’altra. Alla fine una teoria prevarrà sulle altre e si affermerà come un nuovo paradigma; tuttavia secondo Kuhn diverse teorie affrontano anche diversi problemi, e attraverso di esse si vedono mondi diversi. Quindi non è possibile confrontare razionalmente fra loro più teorie, poiché bisognerebbe farlo usando una sorta di meta-linguaggio che però, come sostiene Hanson, non esiste. La scelta fra una teoria e l’altra, quindi, è un problema che trova soluzione utilizzando criteri fondamentalmente irrazionali. Un paradigma si afferma per questioni culturali, religiose, filosofiche, estetiche, che poco hanno in comune con un metodo razionalmente chiaro e condiviso. Uno dei criteri proposti da Kuhn è il carattere progressivo di una teoria: più una teoria si presenta in grado di risolvere problemi futuri, oltre che presenti chiaramente, più facilmente sarà scelta per rappresentare il nuovo paradigma. 

In questa nuova fase la filosofia della scienza cambia completamente obiettivi; se prima essa doveva definire i criteri per giudicare la scientificità di una teoria, per convalidarne la sua adeguatezza al reale, ora la filosofia della scienza assume un ruolo completamente diverso. Poiché il rapporto fra teoria e realtà inizia a diventare più sfumato e mobile, la filosofia della scienza descrive come funziona la scienza da un punto di vista effettivo, concreto, tenendo conto di analisi sia storiche che sociologiche. La filosofia della scienza non dice più allo scienziato quel che deve fare, a quali criteri si deve ispirare; piuttosto osserverà lo scienziato o la comunità di scienziati al lavoro, per descrivere come storicamente la scienza si sviluppa.

Così come i fenomeni tendono sempre a sfuggire alla teoria, come il modello risulta sempre un po’ troppo schematico rispetto alla ricchezza dell’evento reale, così ci rende conto sempre più come il processo storico-culturale chiamato “scienza”, tende sempre a sfuggire ad ogni descrizione troppo rigida e normativa.

Lakatos e i programmi di ricerca  

Lakatos, partendo da Popper, distingue fra falsificazionismo ingenuo e falsificazionismo sofisticato. Per il primo l’esperimento si confronta con una teoria, per il secondo, invece, l’esperimento si confronta con due teorie rivali. Consideriamo l’esempio della scoperta, da parte di Galileo, delle fasi di Venere; essa non rappresenta una falsificazione del modello tolemaico, poiché, come abbiamo già visto, con una appropriata modifica questo modello poteva comunque rimanere valido. Nel momento, invece, in cui ci sono due teorie rivali, come il sistema tolemaico contro quello copernicano, allora la scoperta di Galileo diventa una corroborazione del modello copernicano ed una falsificazione di quello tolemaico. Infatti per il primo si tratta della conferma di una conseguenza immediata del fatto che Venere sia un pianeta interno che ruota intorno al Sole, per il secondo, invece, supporre che Venere ruoti intorno al Sole rappresenterebbe un’ipotesi ad hoc. Come scrive Lakatos: 

Una teoria scientifica T è falsificata se e solo se è stata proposta un’altra teoria T’ con le seguenti caratteristiche: (1) T’ ha un contenuto empirico addizionale rispetto a T: cioè essa predice fatti nuovi, ossia fatti improbabili alla luce di T o addirittura vietati da quest’ultima; (2) T’ spiega il precedente successo di T, cioè, tutto il contenuto non confutato di T è incluso (entro i limiti dell’errore osservativo) nel contenuto di T’; e (3) parte del contenuto addizionale di T’ è corroborato. 

La logica della scoperta, tuttavia, si trova davanti ad un paradosso, il “paradosso dell’aggiunzione”: di fronte ad un’anomalia, cioè ad un dato sperimentale che contraddice la teoria, ci sono due atteggiamenti possibili. Si può salvare la teoria - magari una teoria ampia e più volte corroborata - con una piccola correzione (atteggiamento dello scienziato conservatore), oppure si può cercarne un’altra completamente nuova, più solida e semplice. Scegliere fra un atteggiamento e l’altro non è una questione semplice; per Duhem si tratta di utilizzare il “buon senso”; per Lakatos, invece, il buon senso di Duhem appare troppo vago e irrazionale; è troppo vicino a quelle che oggi sono chiamate la retorica e la sociologia della scienza, e cerca perciò dei criteri di tipo razionale.

Non basta una sola teoria per poter parlare di metodo scientifico, è il confronto e l’avvicendarsi delle teorie che formano la scienza; ogni nuova teoria spiegherà qualche anomalia in più rispetto alla precedente, e quindi avrà un maggiore contenuto empirico. Tuttavia, in che senso si può parlare di  continuità fra queste diverse teorie? Ovvero, in altre parole, cos’è che caratterizza l’impresa scientifica, rispetto ad altre forme di descrizione o spiegazione della realtà? Per Lakatos la continuità è data dal programma di ricerca; in esso si trovano le ipotesi metafisiche che caratterizzano il metodo scientifico, e che si esprimono sotto forma di regole euristiche. Si possono avere euristiche negative, che spiegano quali vie di ricerche evitare, ed euristiche positive, che indicano quali vie seguire. La storia della scienza è anche la storia di metafisiche rivali, che si trovano all’interno di programmi in competizione.

Un programma definisce qual è il nucleo duro della teoria e qual è la cintura protettiva, cioè tutte quelle asserzioni che assorbiranno l’urto delle anomalie. Di fronte alle anomalie alcune ipotesi di fondo non saranno mai messe in discussione; la cintura protettiva, invece, composta da ipotesi ausiliarie, teorie osservative, condizioni iniziali, definizioni, ecc., verrà modificata in modo da adeguare l’intera teoria ai risultati sperimentali. 

L’euristica positiva consiste in un insieme parzialmente espresso di proposte e di suggerimenti su come cambiare e sviluppare le “varianti confutabili” del programma di ricerca, su come modificare e complicare la cintura protettiva “confutabile”. [Essa] aiuta lo scienziato a non perdersi nell’oceano delle anomalie; […] traccia un programma che configura una catena di modelli sempre più complicati che simulano la realtà: l’attenzione dello scienziato è rivolta a costruire i suoi modelli seguendo le istruzioni che sono stabilite nella parte positiva del suo programma. 

Il processo scientifico consiste nella costruzione di una serie di modelli teorici, la maggior parte dei quali si sa già che saranno sostituiti da altri più adeguati. La confutazione di uno di questi modelli non inficia il programma di ricerca, poiché tali confutazioni sono di fatto previste. Non si possono giudicare le singole teorie se scientifiche o meno, ma solo i programmi di ricerca. Da qui Lakatos introduce la sua Metodologia dei Programmi di Ricerca Scientifici (MPRS); di fronte ad un’anomalia, poiché il numero di ipotesi nascoste è infinito, si può reagire con un numero infinito di diverse strategie. Dunque le confutazioni popperiane perdono la loro centralità, poiché anche le migliori teorie crescono in un “mare di anomalie”, e contano, invece, soprattutto i successi.

Il problema della demarcazione fra scienza e non scienza, slitta quindi, dall’analisi delle teorie, alla distinzione fra programmi progressivi e programmi regressivi. Il marxismo è scientificamente inaccettabile per Lakatos, non perché non abbia fatto predizioni “falsificabili”, e neanche perché tali predizioni sono state smentite dai fatti; ma piuttosto poiché di fronte alle anomalie i marxisti non sono riusciti a modificare la teoria in modo tale che tenesse conto di fatti nuovi. I newtoniani, invece, di fronte alle anomalie dell’orbita di Urano, hanno previsto un fatto nuovo, la presenza di un nuovo pianeta, Nettuno, che è stato effettivamente osservato.

E’ interessante osservare che Lakatos non pone nessun limite di tempo per decidere se un programma è progressivo o regressivo. In questo modo non esiste un criterio ben preciso per decidere se portare avanti un programma che presenta molte anomalie, e che in futuro potrebbe condurre ad una teoria ben corroborata oppure ad una teoria che non riesce a spiegare nulla di più dei suoi presupposti. Quindi solo a posteriori si può giudicare un programma di ricerca scientifico. 

Una riflessione generale

  

Dopo le critiche epistemologiche del ‘900 possiamo sintetizzare alcuni elementi che caratterizzano la  nuova immagine della scienza:

  • la conoscenza scientifica non riproduce la vera struttura del mondo, le teorie sono intrise di elementi culturali, le leggi contengono elementi metafisici e convenzionali;
  • la scienza non si sviluppa semplicemente in modo cumulativo, la conoscenza non segue percorsi lineari; nello sviluppo delle teorie ci sono momenti di discontinuità, nei quali si pone anche il problema dell’incommensurabilità fra diversi linguaggi e contesti;
  • gli esperimenti continuano a rappresentare una parte essenziale del processo di conoscenza scientifico, ma il loro ruolo non è più quello di verificare la  teoria, né si può ancora parlare di esperimenti cruciali che sono in grado di falsificare l’intera teoria. Il rapporto fra teoria ed esperimento è più complesso e strutturato: un progetto di ricerca scientifica può essere portato avanti anche fra molte anomalie;
  • non si parla più di oggettività delle leggi scientifiche, nel senso di leggi che sono già presenti nel mondo e che devono solo essere scoperte. Le leggi, come gli oggetti della conoscenza scientifica, sono costruiti “ritagliando pezzi che acquistano significato, individuando elementi che ci appaiono semplici, isolando catene di eventi che secondo una certa ottica si mostrano correlati – all’interno di una realtà che appare come un flusso fenomenico continuo e disordinato privo di strutture significative di per sé. […] Se si riconosce, e mi pare che non ci sia altra alternativa, che il metodo universale per arrivare alla ‘verità’ non esiste, il massimo di ‘oggettività’ della conoscenza raggiungibile è assicurato soltanto dal carattere intersoggettivo del giudizio di validità pronunciato dai depositari del sapere”[3];
  • il criterio di demarcazione fra scienza e non scienza è un criterio razionale? Popper e Lakatos, anche se in modi diversi, lo sostengono, mentre Kuhn e Feyrabend lo mettono in dubbio. E’ comunque difficile sostenere che elementi come il buon senso di Duhem, o aspetti soggettivi come il senso estetico non svolgano nessun ruolo nel sostenere una teoria rispetto ad un’altra;
  • la logica non è l’unico strumento attraverso il quale si esprima la scientificità di una teoria; il programma di Frege, poi ripreso da Russell, di ridurre tutta la matematica alla logica è fallito, a maggior ragione la scienza non può basare la propria capacità argomentativa solamente sulla logica. Soprattutto nei momenti di cambiamento delle “regole del gioco” si afferma il ricorso ad argomenti retorici;
  • rimane il postulato del realismo ontologico; si suppone che, nelle parole di Marcello Cini:

“esista oggettivamente  indipendentemente dalla mente umana una realtà che è una totalità strutturata ma precategoriale. Fin dal primo momento, perciò il processo conoscitivo proietta le sue categorie sulla realtà per ordinarla estraendone oggetti e relazioni. Inizia in questo modo la costruzione di un rapporto circolare fra soggetto e oggetto nel quale il primo inquadra il secondo all’interno di immagini concettuali formulate in precedenza, e il secondo impone a quelle immagini vincoli che possono costringere il primo a ristrutturarle o a crearne di nuove. Insomma i ‘fatti’ sono sempre carichi di ‘teoria’, ma la ‘teoria’ deve accordarsi con i ‘fatti’. E’ una catena di causalità circolare condizionata dalla sua stessa storia, che porta via via l’oggetto ad arricchirsi non soltanto di dettagli che ne riflettono la natura intrinseca, ma a caratterizzarsi anche per le sembianze e le proprietà che gli sono state attribuite in precedenza dal soggetto. […] Insomma, una cosa è in un certo senso un modello di un’idea, ma un’idea è, in un certo senso un modello di una cosa”[4]. 

4. La meditazione come strumento di ricerca  

Il problema della coscienza

La coscienza rappresenta uno degli ambiti di ricerca più frequentati dalla scienza contemporanea. Una particolare attenzione, inoltre, è rivolta a quello che è considerato il “problema difficile”, che riguarda la natura della “coscienza fenomenica” o dei “qualia”. I qualia sono gli elementi che caratterizzano l’esperienza associata agli eventi mentali; essi rappresentano, in altre parole, quel che si prova, ad essere un individuo cosciente. Come dice Nagel: 

[…] la convinzione che i pipistrelli abbiano un’esperienza soggettiva consiste essenzialmente nel credere che a essere un pipistrello si prova qualcosa.[5] 

La peculiarità dei qualia è quella di essere elementi specificamente legati all’esperienza personale, così che rappresenta un arduo compito analizzarli in terza persona riuscendo a coglierne il carattere distintivo.

Da un punto di vista epistemologico abbiamo già sottolineato come la scienza non ha mai rinunciato al realismo ontologico[6]: la realtà - almeno in quanto ente ancora indistinto dal punto di vista cognitivo - esiste indipendentemente dall’osservatore, esiste come realtà oggettiva. Una conseguenza di questa impostazione metodologica è che nel processo di conoscenza/costruzione del mondo il soggetto conoscente rimane al di fuori del sistema che sta studiando; egli è solo un osservatore distaccato, e si mantiene nettamente separato dal suo oggetto di analisi. Così la conoscenza scientifica, assumendo un carattere impersonale, minimizza i rischi di rimanere influenzata da elementi soggettivi contingenti ed irriproducibili.

Il fatto di porre l’osservatore[7] al di fuori del sistema può essere letto come parte del processo di schematizzazione della realtà, che la scienza utilizza per limitare la complessità del suo oggetto di studio. Quando, ad esempio, si studia il comportamento termodinamico di un gas che si trova in laboratorio, si suppone che questo non sia influenzato dal moto delle galassie che si trovano ai confini dell’universo visibile. Questo tipo di considerazioni semplificatrici sono normali nella scienza, ed anche necessarie, poiché, a causa dell’estrema complessità dei fenomeni, non sarebbe possibile studiare contemporaneamente le reciproche interazioni fra tutti i costituenti dell’universo.

In un esperimento di laboratorio, come in genere non si tiene conto delle possibili influenze delle galassie lontane, così non si considera, ai fini del risultato sperimentale, l’umana complessità dello sperimentatore.

Ora dobbiamo chiederci, però, se la netta divisione fra osservato ed osservatore, fra sistema da analizzare e scienziato, è compatibile con lo studio della coscienza e in particolare dell’esperienza. Se l’esperienza è intrinsecamente caratterizzata dall’essere un fatto privato, come può essere oggettivata senza comprometterne l’autenticità? Soprattutto, se l’osservatore rimane fuori dal sistema, cosa rimane dentro il sistema “coscienza”? Evidentemente la coscienza di chi non sta osservando il sistema stesso, forse la coscienza di un altro, di un individuo diverso dall’osservatore stesso; oppure un’immagine, una ricostruzione razionale della coscienza stessa. In ogni caso la coscienza sarebbe, in questo modo, studiata dall’esterno, e di essa sicuramente andrebbero perduti proprio i qualia, quegli elementi che sono specificamente legati all’esperienza personale. 

Fenomenologia e meditazione

  

La critica di un metodo di indagine, tuttavia, ha in genere poca possibilità di successo quando non è accompagnata da un metodo di indagine alternativo.

Complementarmente al metodo della riduzione materialistica della coscienza portato avanti dalle neuroscienze, Francisco Varela propone una riduzione fenomenologica:  

L’approccio fenomenologico prende le mosse dalla natura irriducibile dell’esperienza cosciente: l’esperienza vissuta è ciò da cui partiamo. […] Il modo di pensare naturale o ingenuo dà per scontati parecchi assunti impliciti o tradizionali, sia sulla natura di chi sia il soggetto di un’esperienza, sia sui suoi oggetti intenzionali. Il punto archimedeo della fenomenologia è di sospendere tali assunti abituali e di promuovere un’analisi di nuovo tipo, donde il noto slogan di Husserl ‘Torniamo alle cose stesse!’. […]

Di solito si fa l’errore di credere che sospendere il nostro modo abituale di pensare significhi arrestare il flusso di pensieri, il che non è possibile. Il punto è invece quello di invertire la direzione del movimento del pensiero, che abitualmente è orientato al contenuto, verso il sorgere dei pensieri stessi.[8]  

Tramite un metodo di ricerca fenomenologico la distanza fra l’osservatore e l’osservato non rimane rigida, ma “si apre un campo di fenomeni in cui diventa sempre meno ovvio come distinguere tra soggetto e oggetto”[9].

La fenomenologia si avvicina, così, alla meditazione, come pratica di ricerca interiore sviluppata in una tradizione orientale antica di millenni. Come dice Franco Bertossa “La meditazione ci porta al cuore dell’esperienza di stare essendo ora come coscienza”[10].

Meditare è una pratica complessa, che comporta la realizzazione di varie fasi[11], la più importante delle quali è indicata dal termine sanscrito dhyana, che vuol dire “applicare stabilmente la mente su di sé”. Dhyana ha bisogno di “soffermarsi per vedere meglio [ed] esige quiete, silenzio interiore, immobilità, mente concentrata e una domanda che interrompe un automatismo e crea una distanza, una sospensione, che abbiamo chiamato ‘spazio’”[12].

Uno spazio interiore sospeso nel quale mettere “tra parentesi” l’abituale classificazione degli elementi che abitano la coscienza per realizzare “un ritorno al mondo come viene esperito nella sua immediatezza percepita”[13]. 

Due critiche al metodo fenomenologico

  

Alla luce degli sviluppi dell’epistemologia del ‘900, può un programma di ricerca di questo tipo essere considerato scientifico? Questa è la domanda della quale ora ci occuperemo.

Come abbiamo visto, un criterio ben definito e universalmente riconosciuto per delimitare la scienza dalla non-scienza non c’è, ma comunque qualche considerazione può essere fatta. La prima, e forse più importante critica che può essere avanzata nei confronti di un programma di ricerca fenomenologico basato sulla meditazione, è quella di essere poco affidabile, perché troppo intriso di elementi soggettivi. Sicuramente ciò che caratterizza il metodo fenomenologico è il superamento della distinzione netta fra osservatore ed osservato, e rappresenta allo stesso tempo la sua forza (e la sua novità), ma anche, dal punto di vista della scienza tradizionale, il suo punto debole. Cosa rimane del metodo scientifico se rinunciamo al realismo ontologico? Non si rischia di cadere in un relativismo nel quale il criterio di verità di un enunciato diventa puramente soggettivo, legato solamente ad un’impressione individuale

Per prima cosa bisogna chiarire che un processo fenomenologico non si riduce ad un atto di introspezione, al semplice “guardarsi dentro” ed osservare pensieri, emozioni e percezioni presenti. Un’osservazione fenomenologica consiste nel risalire dai significati ordinari ed abituali che popolano la nostra mente, a significati più originari. Questo processo si può compiere solo grazie ad una grande attenzione, ad un continuo rilanciare la domanda su ciò che effettivamente si sta osservando e ritornando continuamente in uno stato di sospensione. Come dice Buddha in un celebre brano che riassume il suo insegnamento: 

[…] tu devi esercitarti: in ciò che vedi ci deve essere solo ciò che [da te] è stato visto, in ciò che odi solo ciò che è stato udito, in ciò che pensi solo ciò che è stato pensato, in ciò che conosci solo ciò che è stato conosciuto.[14] 

Vale la pena anche riportare la nota del traduttore italiano, Pio Filippani-Ronconi, a questo brano: 

Il punto è di un’importanza capitale, perché il Buddha vi impartisce l’essenza del suo insegnamento, che, nel caso esposto, consiste nell’isolare le percezioni – puramente obiettive – dalla risonanza puramente soggettiva delle sensazioni. 

Appare chiaro, dunque, che la ricerca fenomenologica non si ferma alle impressioni soggettive, ma va oltre esse, evidenziando gli aspetti coscienziali più originari.  Si individuano, così, elementi cognitivi relativi alla coscienza che possono essere definiti strutturali, poiché sono indipendenti dai mutevoli contenuti della coscienza stessa. Ciò permette, una volta fissato il metodo di indagine, una comunicazione intersoggettiva fra coloro che conducono esperimenti fenomenologici.

Con la fenomenologia ci siamo allontanati dalla speranza di un’oggettività garantita dalla separazione fra soggetto e oggetto, ma siamo giunti comunque alla possibilità di una comunicazione intersoggettiva. Alla fine, da questo punto di vista, non abbiamo perso nulla, poiché all’interno della stessa scienza tradizionale la critica epistemologica ha riconosciuto che non possono esistere affermazioni oggettive relative alla realtà. E’ abbastanza chiaro, ormai, che la realtà non è riducibile a categorie che abbiano una validità  atemporale e indipendente da ogni contesto culturale. Un elemento essenziale della costruzione scientifica è un accordo intersoggettivo all’interno della comunità degli scienziati sul metodo, sulle pratiche scientifiche e sulle assunzioni metafisiche da porre alla base della scienza. 

Una seconda critica, legata alla prima, non accetterebbe la perdita della certezza che proviene dal metodo deduttivo e dalla dimostrazione; la rinuncia al realismo ontologico e alla separazione netta fra soggetto e oggetto toglie alla logica formale quel ruolo primario che essa ha in un contesto teorico dominato da inferenze deduttive. In un processo di ricerca fenomenologica, dove i confini fra soggetto e oggetto sfumano e dove si applica il dubbio sistematico sugli stessi elementi coscienziali che permettono la conoscenza, l’utilizzo di un linguaggio logico formale risulta inadeguato. Il criterio di certezza si sposta da un sistema organizzato di simboli e regole di manipolazione ad un’intuizione originaria che si manifesta come certezza.

Di fronte alla volontà di sostituire una deduzione formale con un’intuizione interiore la critica nei confronti del metodo fenomenologico può rafforzarsi ulteriormente, poiché sembra di compiere un passo indietro, e passare dalla razionalità scientifica ad una visione irrazionale che ci ricorda una cultura basata sul pregiudizio e la superstizione.

Una reazione di questo tipo sarebbe, però, inopportuna; la stessa logica, come abbiamo visto nel paragrafo ad essa dedicato, si fonda alla fine, su un’intuizione originaria. Se i postulati possono essere considerati convenzionali, il principio di inferenza, il modus ponens, che ha un ruolo assolutamente centrale nella costruzione di un apparato logico-formale, è accettato universalmente senza nessuna dimostrazione, poiché per dimostrarlo lo si utilizzerebbe. Non solo: se si volesse sostenere che è un principio non valido, per argomentare la propria posizione contraria, comunque lo si utilizzerebbe.

Di fatto ci troviamo all’interno di un linguaggio nel quale già argomentiamo utilizzando determinate regole, altrimenti non potremmo sostenere un discorso ad un metalivello sulla validità o meno della logica. Se ogni forma di certezza ci venisse dalla logica formale, allora proprio questa affermazione non sarebbe certa perché staremmo argomentandola al di fuori della stessa logica[15]. Se, insomma, sosteniamo l’importanza della logica, allora implicitamente accettiamo che ci possano essere argomentazioni che precedono la logica stessa.

Di fatto il linguaggio precede la logica, e non sembra che il ragionamento trovi il suo rigore nel suo adeguamento alla logica, quanto, piuttosto, è la logica che nasce da un processo di ricerca di rigore a partire dal linguaggio stesso.

All’interno del linguaggio sappiamo riconoscere ciò che è valido e ciò che non lo è (dire che la logica è uno strumento per ottenere deduzioni certe è proprio un esempio di questo uso che facciamo del linguaggio). Chiamiamo, allora, intuizione proprio ciò che ci fa riconoscere la correttezza di un ragionamento; usiamo il termine intuizione proprio perché non è riducibile alla logica, anzi è tramite questa intuizione che riconosciamo il valore della logica.

Quindi, senza togliere nessun merito alla logica, dobbiamo riconoscere che alla base di essa si trova qualcosa che ad essa non si può ridurre, e tuttavia rappresenta per noi un criterio di certezza e permette la sensazione dell’esser convinti (o del non essere convinti).

Si potrà poi discutere quali siano i limiti di questa intuizione, per evitare di accettare qualunque affermazione tramite un’impressione di certezza. Questi sono problemi che vanno affrontati ed approfonditi, ma non si può negare l’esistenza e la validità di una intuizione originaria che permette sia la certezza che il dubbio. Ritornare a questa intuizione, avvicinarsi il più possibile ad essa, questo è uno degli obiettivi della ricerca fenomenologica. 

Conclusione

  

Il metodo fenomenologico può essere considerato un metodo scientifico alla luce della nuova immagine di scienza che emerge dopo un secolo di dibattiti epistemologici? Abbiamo osservato che la fenomenologia rompe uno degli assunti impliciti più importanti e caratteristici della scienza fin dalle sue origini: il realismo ontologico. Ha senso parlare di scienza anche dopo una rinuncia così importante? Una risposta potrebbe essere: perché non si potrebbe ancora parlare di scienza, dopo che abbiamo assistito a rotture, a rivoluzioni, come quella della meccanica quantistica durante i primi venti anni del ‘900?

Oggi i concetti fondamentali della meccanica quantistica sono stati assorbiti dalla comunità scientifica, ma non possiamo dimenticare che il passaggio dal determinismo al probabilismo, o il passaggio da una realtà conoscibile con precisione arbitraria ad una realtà dotata di limiti di conoscibilità intrinseci, si sono realizzati solo dopo numerosi e intensi dibattiti; alcuni scienziati sono morti senza accettare pienamente la nuova immagine di scienza, malgrado tutte le conferme sperimentali.

La scienza quindi ha già attraversato cambiamenti radicali; rinunciando alla separazione fra soggetto e oggetto forse potremo parlare di un’altra scienza, o di un modo diverso di fare scienza. Il metodo fenomenologico, comunque, oltre a permettere una comunicazione intersoggettiva, garantisce la connessione con il reale tramite gli esperimenti: esperimenti che si compiono nella mente: il laboratorio mobile che ognuno porta con sé. 

Ripetiamo la domanda: il metodo fenomenologico può essere considerato un metodo scientifico? Se proviamo ad applicare il criterio che ci propone Lakatos, allora un progetto di ricerca si rivela scientifico se risulta progressivo: sa risolvere nuovi problemi, oltre ad inquadrare quelli vecchi, e non si chiude nei dogmi ma rimane aperto alla conferma come alla parziale confutazione.

Ma ancora non basta, poiché qualunque programma di ricerca ha bisogno di un certo tempo per svilupparsi ed irrobustirsi; solo dopo che il nuovo metodo sarà diventato sufficientemente strutturato, allora ci si potrà voltare indietro per analizzarlo. 

a cura di Paolo Pendenza
redazione asia.it

Bibliografia 

Bertossa F. (2001), “Il telescopio inverso”, A.S.I.A. Antiche e moderne vie all’Illuminazione, 17, p. 1. 

Bertossa F. e Benfenati B. (1998), “Qual è l’essenza dello yoga?”, A.S.I.A. Antiche e moderne vie all’Illuminazione, 8, p. 2. 

Bertossa F. e Ferrari R. (2003), “Cervello e autocoscienza. La mente tra neuroscienze e fenomenologia”, Rivista di estetica, n.s., 21, XLII, pp. 24-48. 

Bitchel W. (1988), Philosophy of Science: An Overview for Cognitive Science, Lawrence Erlbaum Associates, Inc. (traduzione italiana: Filosofia della scienza e scienza cognitiva, Laterza, Bari, 2001). 

Canone Buddhista, a cura di Pio Filippani-Ronconi, UTET, Torino, 1994. 

Cini M. (1994), Un paradiso perduto, Feltrinelli, Milano. 

Giorello G. (1999), Introduzione alla filosofia della scienza, Bompiani, Milano. 

Hamilton A.G. (1988), Logic for Mathematicians, Cambridge University Press. 

Nagel T. (1974), “What Is It to Be a Bat”, Philosophical Review, 88, pp. 435-450, (traduzione italiana: “Che cosa si prova ad essere un pipistrello”, in Hofstadter D. e Dennett D., L’io della mente, Adelphi, Milano, 1985, pp. 379-391). 

Trudeau R. (1987), The non-Euclidean revolution, Birkhäuser, Boston (traduzione italiana: La  rivoluzione non euclidea, Bollati Boringhieri, Torino, 1991). 

Varela F.J. (1997), “Neurofenomenologia”, in Pluriverso, II, 2, pp. 16-39.



 



[1] Citato in Trudeau R. (1987), traduzione italiana, p. 21 e seguenti.
[2] Trudeau (1987), traduzione italiana, p. 24.
[3] Cini, 1994, p. 214; citazione da Cini M., Il gioco delle regole; corsivo mio.
[4] Cini, 1994, p. 183; corsivi miei.
[5] Nagel (1974), p. 381 dell’edizione italiana.
[6] Vale la pena distinguere il realismo ontologico, per il quale solo la realtà precategoriale ha realtà oggettiva, dal realismo metafisico, per cui i singoli oggetti esistono indipendentemente dall’osservatore e c’è solo una descrizione vera del mondo.
[7] Non bisogna confondere l’osservatore in quanto soggetto caratterizzato da un punto di vista psicologico ed emozionale, che è quello che qui ci interessa, dall’osservatore ideale, astratto, al quale talvolta si fa riferimento nella meccanica quantistica o nella relatività. Quest’ultimo è rappresentato a volte da un sistema di riferimento specifico, altre volte da un apparato di misura macroscopico.
[8] Varela (1997), pp. 23, 24, 26; corsivo mio.
[9] Varela (1997), p. 29.
[10] Bertossa F. (2001).
[11] Per una sintetica descrizione del metodo meditativo applicato ad una ricerca fenomenologia si guardi Bertossa F. e Ferrari R. (2003), p. 36 e seguenti.
[12] Bertossa F. e Benfenati B. (1998).
[13] Varela (1997), p. 26.
[14] Canone Buddista, Vol. 1, Udana, Cap. I “Bodhi”, p. 160.
[15] Si potrebbe obiettare che la logica si fonda su se stessa, che la logica trova in se stessa i motivi della propria certezza. Sembra, però, che il teorema di incompletezza di Gödel lo impedisca, poiché dimostra che per un sistema formale sufficientemente potente la verità non coincide con la dimostrabilità;  per quanto si ampli un sistema formale, esistono proposizioni che sono vere ma non dimostrabili. Dunque la verità non può essere ridotta alla dimostrabilità, ma piuttosto è la seconda che ha bisogno di appoggiarsi alla prima.


Facebook Twitter Youtube
Newsletter




Acconsento al trattamento dei miei dati personali.

Videocorsi scaricabili
Dona ora
Iscriviti ad Asia
Articoli
Eventi