la filosofia analitica

che cosa è

L'espressione filosofia analitica, più che una vera e propria corrente, indica uno stile, un metodo comune, che si è andato imponendo nel mondo filosofico anglosassone del XX secolo, le cui linee portanti sono

La filosofia analitica si propone essenzialmente dunque come analisi, analisi del linguaggio, non solo del linguaggio scientifico, come proponeva il neoempirismo logico, ma del linguaggio quotidiano, ordinario.

Si è parlato a questo proposito di una svolta linguistica, un linguistic turn; già Kant aveva proposto che la filosofia invece che analizzare l'essere, il reale extramentale, fonte di interminabili problemi e di inconcludenti diatribe, analizzasse le categorie logiche del pensiero umano (non più occupandosi di come stiano le cose, “in sè”, ma di come noi, inevitabilmente, le conosciamo, in base alla nostra struttura soggettiva); la filosofia analitica in un certo senso spinge oltre il progetto kantiano, da un lato ancora troppo ambizioso e dall'altro vago e discutibile: non si tratta di analizzare presunte categorie logiche radicate in una soggettività trascendentale (che è comunque un elemento ontologico), ma, in modo al contempo più modesto e più incontestabile (perché al di qua da ogni pretesa di definire l'ontologia) le modalità del nostro effettivo pensare, quali sono inequivocamente testimoniate dal nostro modo effettivo di parlare.

coordinate spazio-temporali

La filosofia analitica inizia propriamente in Inghilterra, all'università di Cambridge (il Trinity College), nei primi decenni del '900, grazie all'insegnamento di Moore, Russell e del “secondo” Wittgenstein, e si diffonde poi anche all'università di Oxford, e poi negli Stati Uniti (specie dagli anni della Seconda Guerra Mondiale) e in altri paesi anglofoni (come Australia e Canada).

gli inizi

La filosofia analitica si radica nella tradizione inglese, attenta alla concretezza e incline all'empirismo, lontana dalla tendenza alla generalizzazione tipica delle proposte filosofiche “continentali”. In un certo senso il suo fondatore può essere indicato in Moore, che ha fatto del senso comune la stella polare della sua riflessione.

G.E.Moore (1873/1958)

George Edward Moore Affrontò il problema gnoseologico difendendo il senso comune contro le stranezze della filosofia, e concepì la filosofia come analisi, cioè procedimento di riduzione da enunciati complessi a enunciati semplici (atomici). La filosofia è analisi del linguaggio ordinario, discernendo in esso ciò che è veramente proprio del senso comune da ciò che dovuto all'influenza alterante di particolari filosofie, causa di equivoci e fraintendimenti.

Distinse atto conoscitivo da dato sensoriale e quest'ultimo dall'oggetto: esiste una realtà indipendente dal pensiero, ed è come ce la rappresenta il senso comune, fatta dal mio corpo, da quello degli altri esseri umani e dalla cose materiali; tutta questa realtà va distinta dal dato sensoriale (Sense-Data), a sua volta distinto dall'atto conoscitivo, cioè dalla percezione.

Moore ritenava che l'esistenza di una realtà altra dal pensiero fosse attestata da una evidenza intuitiva, tipica del senso comune.

La sua concezione oscilla tra realismo (conoscenza, nel dato, dell'oggetto stesso), rappresentativismo (conoscenza immediata del dato, da cui si inferisce l'oggetto) e fenomenismo (conoscenza limitata al dato).

Frege, Russell, Wittgenstein

Frege ha influito sulla filosofia analitica per diversi aspetti: indirettamente in quanto ha influenzato Russell e Wittgenstein, che hanno dato un contributo determinante al configurarsi definitivo dell'impostazione analitica, ma anche direttamente proponendo uno stile di filosofare come analisi del linguaggio, teso ad evidenziarne la struttura profonda, al di là delle ambiguità della sua superficie “naturale”.

Russell ha sviluppato il progetto fregeano, radicalizzandolo e dandogli un orientamento più decisamente empirista (la base di ogni conoscenza è quella diretta, by acquaintance) ed elaborando una analisi del linguaggio che lo riconduca ai suoi elementi atomici, eliminando ogni confusione e ambiguità.

Wittgenstein, in particolare nella seconda fase del suo pensiero, ha influito sulla filosofia analitica chiarendo che l'analisi del linguaggio non può pretendere di ricondurlo interamente alla rigorosità del linguaggio proposizionale scientifico: esiste un linguaggio ordinario, quotidiano, fatto anche di esortazioni, esclamazioni, allusioni, e perciò non esaurientemente formalizzabile (a differenza di quanto pretendevano esponenti del neoempirismo logico).

la fioritura

Nei decenni centrali del '900 le università di Cambridge, prima, dove insegnarono Russell e Wittgenstein, e di Oxford, poi, vedono una rigogliosa fioritura della filosofia analitica: tra i nomi più importanti possiamo ricordare quelli di Wisdom, Ryle, Austin, Ayer, Strawson.

Rispetto a Russell, molti di tali autori, soprattutto quelli di Oxford, dove era tradizionale l'interesse per la filosofia classica e Aristotele in particolare, guardano con rispetto e attenzione alla metafisica. Non si tratta di un vero ritorno alla metafisica, in senso classico, come sapere dell'essere, ma della presa d'atto che nel nostro effettivo modo di pensare e di parlare sono inevitabilmente implicate delle convinzioni metafisiche. Tale atteggiamento procede di pari passo con la relativizzazione del principio di verificazione, assolutizzato dai neopositivisti, per il quale solo ciò che è verificabile è sensato (il che portava alla negazione della sensatezza degli asserti metafisici, non empiricamente verificabili).

Così, ad esempio Strawson (1959) sostiene una «metafisica descrittiva», che esprima le strutture concettuali naturali dei linguaggi; così Wisdom (tra l'altro 1965), pur negando alla metafisica un carattere rigoroso, in quanto intessuta di paradossi, la ritiene stimolante per la costruzione di una visione complessiva del mondo, di cui non possiamo fare a meno: in termini molto simili si esprime anche Ayer, nella seconda fase del suo pensiero (dopo il '40).

Ma la tematica centrale è senza dubbio l'analisi del linguaggio ordinario, al cui riguardo possiamo ricordare i lavori di Austin.

Austin

Egli distinse, approfondendo la distinzione aristotelica tra discorsi apofantici e non, e sulla scia della rivalutazione del linguaggio ordinario fatta dal “secondo Wittgenstein”, tra enunciati

A differenza del neoempirismo logico, che focalizzava la sua attenzione solo sul linguaggio proposizionale constatativo, Austin evidenzia la presenza, nell'effettivo parlare, di un linguaggio, il performativo, a quello non riducibile.

Anzi, in una successivo fase di elaborazione, egli ritiene che una componente non meramente constatativa sia presente in ogni atto linguistico, in ogni comunicazione verbale, e distingue perciò non più tra atti, ma negli atti, tre diversi aspetti:

Ryle

Nacque nel 1900 e morì nel 1976. Scrisse numerose opere, tra cui Systematically Misleading Expressions (1932), Categories (1939), Philosophical Arguments (1945), Ordinary Language (1953, forse la più importante), Use, Usage and Meaning (1961).

Spiegò che il linguaggio della scienza non contraddice quello comune, ordinario, ma si pone da un diverso punto di vista, analogamente a come il punto di vista dell'economo di un college che vede i libri della biblioteca del college come capitoli di spesa, è diverso dal punto vista dello studente, che i libri li consulta e li legge (tutto il brano è riportato per esteso nel vol.10 della Storia della filosofia del Reale - Antiseri, p.V, cap. IV).

Ryle tiene poi a distinguere tra «uso ordinario del linguaggio» e «uso del linguaggio ordinario»: il primo è l'uso corrente, quotidiano, non specialistico del linguaggio, mentre il secondo è un uso di un linguaggio anche specialistico e fa un filosofo che affermasse che certe questioni in filosofia concernono l'uso ordinario o regolare di determinate espressioni, non avrebbe dunque da temere il rimprovero di voler limitare queste questioni all'uso di espressioni ordinarie o familiari. Egli potrebbe benissimo ammettere che l’espressione «quantità infinitesimali» non è per niente un'espressione del linguaggio corrente, e sostenere, al contrario, che Berkeley procedeva all'esame filosofico dell’uso ordinario di «quantità infinitesimali», e cioè dell'uso regolare che ne facevano i matematici dell'epoca. Berkeley non esaminava l'uso di un'espressione familiare; egli studiava l'uso regolare o standardizzato di una parola relativamente specializzata. Noi non ci contraddiciamo dicendo che egli esaminava l'uso ordinario di una espressione fuori dell'ordinario. Un certo numero di concetti e di parole di uso comune è necessario anche nelle discipline specialistiche, come le scienze e la filosofia.

Egli sostiene poi che ci debba essere un ragionevole equilibrio tra linguaggio specialistico e e linguaggio comune: non si può scrivere o parlare solo per specialisti, ma entro certi limiti è inevitabile e giusto ricorrere a termini tecnici (cfr. op.cit.).

La sua analisi del linguaggio poi fu tesa ad evidenziare, per neutralizzarli, gli errori categoriali, cioè gli equivoci che nascono dal non tener conto del diverso significato che un termine assume in diversi contesti categoriali; un esempio di tale errore, fatto da Ryle stesso, è quello di un visitatore che dopo aver visitato tutti i settori di una università (le aule, le mense, i chiostri, le biblioteche, i laboratori), si chieda dove stia quella università, come se l'università stesse sullo stesso piano delle sue componenti edilizie, come cioè se essa (che è una istituzione) fosse un membro della stessa classe di quelle, mentre si tratta di due livelli diversi.

Tali errori, in cui incorre spesso il linguaggio ordinario, hanno provocato, nella storia della filosofia, numerosi errori e paradossi, l'esempio più importante dei quali è quello commesso da Cartesio, con il suo dualismo tra res cogitans e res extensa: il filosofo francese infatti, come il visitatore dell'esempio di sopra, dopo aver constatato diversi comportamenti documentabili dell'io, si chiede dov'è l'io, e conclude che sia una realtà a parte rispetto a tali comportamenti, in cui invece, per Ryle, esso si risolve esaurientemente.

La filosofia deve per lui elaborare una cartografia concettuale, che stabilisca i confini e le relazioni dei concetti; a tal proposito occorre elaborare un nuovo sistema di categorie, analogamente a quanto avevano fatto Aristotele e Kant, classificando i termini usati nel linguaggio comune e i loro diversi significati.

negli Stati Uniti

Dagli anni della Seconda Guerra Mondiale l'impostazione analitica attecchì anche nelle università americane, e nella seconda metà del XX secolo proprio lì si svilupparono alcuni dei suoi filoni più vivi e interessanti.

Negli USA la filosofia analitica si è intrecciata al pragmatismo tipico della tradizione americana, come pure ad altre suggestioni filosofiche.

Le tematiche trattate, pur configurandosi sempre come analisi del linguaggio, spaziano su un arco piuttosto ampio, dal rapporto mente/corpo, all'intersoggettività, al problema degli universali e dell'intenzionalità

Quine

Willard van Orman Quine (1908/2000) fu influenzato dal neopositivismo europeo: nel '32 è in Europa, a Vienna conobbe Carnap e frequentò il Wiener Kreis. Nel dopoguerra insegna ad Harvard sino al '78. Viaggiò moltissimo all'estero.

l'epistemologia naturalizzata

Quine ha sostenuto una concezione radicalmente naturalistica, che di fatto riconduce la filosofia alla scienza. Nel senso che non è la filosofia che fonda la scienza, ma questa che indica il percorso alla filosofia.

L'epistemologia naturalizzata è quella che non pretende di giudicare la scienza, ma al contrario riconosce di esserne parte, lasciandosene aiutare. L'epistemologia è un capitolo della psicologia, e studia come dall'input sensoriale nasca questo "output torrenziale" della conoscenza dell'animale uomo.

La filosofia in effetti non ha un oggetto autonomo: non hanno senso le questioni metafisiche sul perché. La più alta forma di conoscenza è la scienza.

l'olismo

Ne I due dogmi dell'empirismo (1951) Quine critica le due tesi neopositiviste

  1. che esistano dei giudizi analitici a-priori (quelli della logica e della matematica), dato che per lui tutte le verità di cui disponiamo sono sintetiche, e ricavate dall'esperienza,
  2. e [il riduzionismo] che si possa verificare un singolo asserto scientifico in base alla pura esperienza, dato che un asserto non è mai paragonato solo con l'esperienza, ma, ancora prima e più ancora, con un sistema teorico, col quale deve risultare coerente.

Questa seconda critica, al riduzionismo del principio di verificabilità, come era inteso dai neopositivisti, ha come risvolto positivo l'olismo (da olon: tutto): un asserto scientifico è tale quando si colloca dentro il contesto più ampio di un sistema teorico complessivo. è una illusione quella di verificare una certa tesi scientifica isolandola dal contesto.

riferimenti

Questa tesi olistica era già stata abbozzata da Duhem, e in qualche modo da Neurath e dal “secondo” Carnap (quello della fase “sintattica”); la critica al concetto di dato, come puro dato sarebbe in seguito stata ripresa da Sellars. In generale una concezione olistica si abbina preferenzialmente a una concezione coerentista della verità, contrapposta al corrispondentismo.

Tematiche trattate dalla filosofia analitica

l'intersoggettività

è un tema sviluppato soprattutto da Davidson, che ritiene fondamentale il principio di carità: non saremmo in grado di interpretare il linguaggio del prossimo se non gli attribuissimo la capacità di discernere il vero. Perciò l'idea di una incommensurabilità fra linguaggi, o una fondamentale discrepanza tra i nostri schemi mentali e quelli di un altro, viene dichiarata priva di senso.

è vero, da un lato che non esistono lingue, intese come complessi di lemmi e di regole esattamente identiche per un numero molto elevato di individui, quelli che parlano quella lingua: in realtà ognuno parla un suo “idioletto”; d'altro lato, tuttavia, abbiamo la capacità di aggirare le storture che ognuno inserisce nella comunicazione linguistica, grazie appunto al principio di carità, cogliendo il senso che ha inteso comunicarci. Il linguaggio infatti è essenzialmente intersoggettivo e comunicativo

Non esiste conoscenza senza pensiero, e non esiste pensiero senza intersoggettività.

l'intenzionalità

Questo tema, implicitamente trattato per primo da Aristotele, ed espressamente svolto dalla Scolastica, per essere poi ripreso da Brentano e Husserl nel '900, è stato fatto oggetto di ricerca da diversi analitici, tra cui soprattutto Searle, Putnam, Anscombe, Dennett.

Per un giudizio

Dell'impostazione analitica è senz'altro apprezzabile lo spirito collaborativo, l'idea di una grande impresa comune, in cui lo sforzo di ogni partecipante non va perso ma viene a contribuire a un'opera che progressivamente si perfeziona. Troppo spesso però gli analitici trascurano chi non appartiene alla loro stessa impostazione (emblematica è la dimenticanza del pensiero di Maritain relativo all'intenzionalità, da lui pur ampiamente e acutamente trattata).

La volontà di chiarire il linguaggio e di eliminarne il più possibile la componente di ambiguità è pure apprezzabile, purché condotta con discernimento: esiste nel linguaggio una inevitabile componente di allusività, e in qualche modo di poeticità: la bellezza (non riducibile alla logica), come ha teologicamente sostenuto von Balthasar, ha una insostituibile rilevanza in ciò che riguarda il senso ultimo della realtà.

Così come occorre non trascurare le componente dell'affettività, così ben sottolineata da Blondel: le verità relative al senso ultimo non possono essere (solo) freddamente analizzate, ma richiedono una adesione simpatetica, che solo la libertà, in ultima analisi, può fornire.

Occorre poi chiarire che l'aspirazione ineliminabile dell'animo umano è alla verità, che non è «ciò che inevitabilmente pensiamo», ma «ciò che davvero esiste». In questo senso ci sembra inaccettabile l'eliminazione della metafisica e la riduzione della filosofia a (riflessione sulla) scienza.