la paura dell’incertezza

Guerre, migrazioni, fine delle utopie. Si può vivere in una fine del mondo permanente? Un anno dopo la morte, ecco l’ultima lezione di Bauman

La fine del tempo, la fine del mondo, la fine dell’universo: un argomento certamente diverso dal solito per me che non sono un esperto del settore. Non pretenderò quindi di informarvi sullo stato attuale dell’arte, dell’astronomia e della cosmogonia, su ciò che gli scienziati pensano a proposito della fine del mondo. Dirò solo che le teorie scientifiche che si sentono mi hanno lasciato molto confuso, data la difficoltà di conciliare visioni molto diverse sul tappeto. […] Non che questo debba preoccuparci nell’immediato, intendiamoci, giacché è stato calcolato che l’universo vivrà almeno un’altra ventina di miliardi di anni e almeno io, che sono irrevocabilmente vecchio, non ho alcuna speranza di arrivarci. Ma torniamo alla domanda iniziale, al perché oggi siamo tutti così inquieti, perché si fanno così tante oscure premonizioni su cosa ci aspetta, tanto che a volte non riusciamo neppure a mettere bene a fuoco la questione in quanto fine del mondo, ma piuttosto come qualcosa di completamente nuovo e sconosciuto e, pertanto, minaccioso. Perché viviamo questa condizione in questa fase della nostra storia? Questa è la domanda da porci. Suggerirei intanto di non avere paura. Anche quando ci divertiamo, andiamo ad una festa con i nostri amici, da qualche parte nel profondo avvertiamo ansia. Non ci sentiamo sicuri: sicuri di riuscire a controllare le nostre vite, sicuri di averne la capacita, i mezzi, l’abilità, le risorse, sicuri di poter vivere in un mondo in cui ciò sia possibile.

Insomma, non riusciamo a dare alle nostre vite la forma che vorremmo, siamo spaventati perché – mi permetto di suggerire – viviamo una condizione di costante incertezza. E cos’è l’incertezza? È la sensazione di non poter prevedere come sarà il mondo quando ci sveglieremo la mattina seguente, è la fragilità e l’instabilità del mondo. Il mondo ci coglie sempre di sorpresa […].

Mi viene da pensare alla Lisbona del 1755: […] dapprima ci fu un terremoto che devastò gran parte della città, dopo di che un incendio distrusse ciò che si era salvato.

L’evento suscitò grandi reazioni e fra gli intellettuali si cominciò a discutere su che senso avesse una tragedia del genere e come Dio potesse permettere una simile strage di innocenti. Alla testa della campagna filosofica si mise Voltaire che sentenziò: «Guardate: la natura è cieca, colpisce con la stessa imparzialità e la stessa indifferenza le persone buone e le persone cattive. Non fa selezioni, non punisce. Distribuisce a caso la sua furia. Se volete un mondo che sia in linea con l’etica umana e la ragione umana, dovete conquistare la natura». […] Oggi, a più di duecento anni di distanza, possiamo vedere come tutti gli sforzi per dominare la natura non abbiano avuto alcun effetto e quei pochi che l’hanno avuto erano in realtà mal concepiti e hanno lasciato traccia del loro operato in milioni di chilometri quadrati di terra sterile e desertica, milioni di vite umane perse, vite di coloro che prima coltivavano quella terra. Non ha funzionato. D’altra parte, altri pericoli – qualsiasi evento comporta degli inconvenienti –, altri disagi si andarono sommando a ciò che era successo. Credo sia stato Freud a riassumere il significato dell’impulso verso la civilizzazione: la pressione della civiltà a correggere e dare nuova forma alla società. […] Tutte le utopie per quanto diverse tra loro avevano una cosa in comune: erano collocate da qualche parte nel futuro. Non ancora esistenti, non ancora conosciute, non ancora esplorate, intuite solo da qualche navigatore solitario. Ma utopia e futuro avevano un significato molto simile. Io penso che stiamo perdendo la fiducia nel futuro. Non crediamo più che sia favorevole, che potrà risolvere i nostri problemi, e se gettate uno sguardo sul nostro mondo contemporaneo vedrete il diffondersi di tradizioni che guardano al passato. Chissà, forse alcune cose le abbiamo abbandonate prematuramente, erroneamente, stupidamente, forse dovremmo tornare a quegli stili di vita. Forse qualcuno fra voi pensa con nostalgia alla vita sotto Hitler, Stalin o qualsiasi altro dittatore del passato; ma non avete fatto esperienza di quello che è stato, perché non è possibile. Il passato è immaginario quanto il futuro. Non siete stati nel futuro e non lo conoscete, ma non siete stati nemmeno nel passato. Potete solo leggere libri sull’argomento, che però difficilmente possono restituire le sensazioni di una vita realmente vissuta nel passato.

Queste sono, a grandi linee, le cause dello stato di incertezza attuale. La fragilità della posizione sociale che ci siamo conquistati dopo una lunga vita di lavoro e che ci troviamo a proteggere, l’impossibilità di prevedere cosa accadrà domani, il sospetto che qualunque cosa porti con sé il futuro non sarà migliore di ciò che c’è oggi, ma forse sarà peggiore, il senso di impotenza. Che se anche conoscessimo tutti i segreti sul funzionamento delle cose, non avremmo le capacita né gli strumenti per impedire alle cose spiacevoli di accadere. […] Scienziati importanti, come ad esempio Ilya Prigogine e Isabelle Stengers, hanno ricevuto il Nobel per aver scoperto che l’universo – non solo il nostro mondo e le cose che ci circondano più da vicino, ma l’intero universo – vive governato da contingenze, accidenti e coincidenze, insomma dal caso.

Non esistono regole. Nella storia del mondo si sono verificate cinque grandi catastrofi che ci hanno portato quasi all’estinzione, che sono andate molto vicine a rendere impossibile questo nostro essere qui ora, in questo edificio, a scambiarci idee. La più grande, durante il periodo permiano, spazzò via il 95% di tutte le creature viventi. Quindi è assolutamente corretto affermare che siamo qui per caso. I nostri progenitori si trovavano in quel minuscolo 5% di creature rimaste al mondo. Affidarsi alla coerenza dell’universo, alla sua stabilità o prevedibilità non è dunque possibile.

Qualsiasi cosa accada nell’universo, accade per caso, sicché la completa eliminazione dell’incertezza non credo sia possibile, ma credo anche che, entro i limiti a noi imposti dall’universo, ci sia ancora tanto da fare. Ad esempio, prevenire il collasso del sistema di credito o la fuga improvvisa di migranti da una delle guerre più sporche e disgustose mai avvenuta davanti ai nostri occhi.

Guerre prevedibili, guerre che possiamo fare in modo non scoppino. E mi permetto di suggerire che queste cose – le piccole cose che possiamo fare nei limiti delle nostre capacità – sono moltissime, tanto da poterci impegnare per l’intera nostra esistenza.

– (Traduzione di Valentina Pianezzi)

Il libro da cui anticipiamo il testo

L’ultima lezione di Zygmunt Bauman (Laterza, con un saggio di Wlodek Goldkorn)

contro la retorica dell’eccellenza

Ho condiviso questo testo ,con il quale concordo pienamente, dal blog di A.Zhok Antropologia filosofica.Contiene una riflessione importante sulla parola chiave del sottotitolo del mio blog surgeryindeed “innovating strategies toward excellence”.Anche io credo che l’insistente richiamo all’eccellenza rappresenti forse un valido slogan dinamico e giovanilistico,buono per persuadere gli ignari di essere di fronte ad istanze innovatrici.E’ il motivo per cui ho scelto questa frase.Ma anche io concordo sulla sfumatura retorica ed autoreferenziale della parola eccellenza, concordo sulla evidenza che nessuna società funziona sulla base di un pugno di eccellenze quanto piuttosto su una maggioranza di persone che fanno bene il loro lavoro.E non voglio entrare qui nella evidenza tutta italiana in cui la massima perversione corruttiva si raggiunge nel definire eccellenza la piu’ bassa mediocrità .Le nostre apicalità sono quasi tutte così.Cio’ nonostante nella pratica chirurgica ,quotidianamente a contatto con il rischio e la metodicità,l’aspirazione al nuovo ,alla nicchia tecnologica, al risultato ineccepibile e mininvasivo costituisce un motore importante per la crescita.Forse la vera parola chiave del mio motto potrebbe quindi essere”toward” piuttosto che “excellence”.Buona lettura.

Luca Felicioni 16 gennaio 2018

Sono oramai diversi anni che in Italia la parola “eccellenza” ha acquisito un’aura particolare, salvifica, quasi escatologica. Ogni uomo politico che conti – anche solo moderatamente – si sente in obbligo di invocare l’orizzonte dell’eccellenza come ciò che conferisce dignità ultima a qualsiasi attività, come modello da estendere ad ogni lavoro, produzione, istituzione.

Questo appello all’eccellenza non è rimasto questione semantica, ma si è tradotto in norme e indirizzi, con particolare riferimento a scuola e università ma estendendosi all’intera sfera del made in Italy (per definizione, naturalmente, un’eccellenza). Il riferimento ideale all’eccellenza si è così tradotto nell’idea che ogni attività lavorativa debba essere concepita un po’ come un campionato sportivo, dove è giusto che nutrano aspirazioni di dignità solo quelli che insidiano la vetta. Di contro, tutti i ‘non eccellenti’ devono solo prendersela con sé stessi se non ottengono riconoscimento. Le varie introduzioni di ‘bonus premiali’ ai docenti della scuola, di aumenti premiali ai docenti universitari, di finanziamenti premiali ai dipartimenti e alle università, o similmente le risorse premiali previste nella ‘riforma della pubblica amministrazione’, ecc. vanno tutte in questa direzione, dove normalità è assimilata a mediocrità, mentre dignità e onorabilità sono riservate alle ‘eccellenze’.

Il problema di questo modello non è che sia ‘meritocratico’ – e che dunque sia avversato da impaludati e retrogradi ‘antimeritocratici’. No. Il problema è che si tratta di un modello di società, e di azione collettiva, fallimentare.

Nessuna società funziona sulla base di un pugno di eccellenze, e per definizione le eccellenze non possono se non essere una minoranza. La nozione di eccellenza è infatti una nozione differenziale: si è ‘eccellenti’ in quanto si è virtuosamente fuori dall’ordinario. L’idea che, per veder riconosciuta la dignità di ciò che si fa, si debba appartenere al novero degli eccellenti è la ricetta per un sicuro naufragio, e lo è proprio sul piano incentivale. Infatti l’appello a questa ‘eccellenza di massa’ naufraga per tre ragioni fondamentali.

La prima è banalmente numerica: se conferisco riconoscimento pubblico (dignità, tutele, benefit) solo all’eccellenza (vera o presunta) creo il terreno per una frustrazione di massa, giacché la maggioranza per definizione verrà privata di riconoscimento. Qui non è solo in causa il fatto che la maggioranza non eccellerà per definizione, ma ancor di più il fatto che ciò non verrà accettato per natura. In un sondaggio sociologico di qualche anno fa emerse come il 94% degli intervistati ritenesse di essere, quanto alla qualità del proprio lavoro, al di sopra della media dei propri colleghi. A prescindere da chi si sia sbagliato e di quanto, appare chiaro che le autocandidature in buona fede all’eccellenza saranno sempre ampiamente eccedenti rispetto alle posizioni disponibili. Il meccanismo stesso non può non generare vaste aree di malcontento.

La seconda ragione è legata ai ruoli sociali, ed è più radicale. Per quanto recentemente ci si sia abituati a creare forme competitive e gerarchie piramidali per molti mestieri che una volta ne erano privi (si pensi ai cuochi di Master Chef), è chiaro che, per quanto ci si ingegni, la stragrande maggioranza delle attività che fanno andare avanti una società non si presterà mai a valutazioni competitive. Non c’è sensatamente posto per super-lattonieri, cassiere fuoriclasse, campionissimi dell’assistenza infermieristica, controllori iperbolici, assi della raccolta rifiuti, ecc. Prospettare una società in cui riconoscimento ed eccellenza vanno di pari passo significa prospettare una società dove la stragrande maggioranza delle occupazioni nasce con uno stigma di mediocrità e indegnità. (Curiosamente, gli stessi che propongono questa retorica dell’eccellenza li troviamo poi a chiedersi pensosi com’è che i giovani non siano più attratti da questo o quel mestiere.)

Lodare e premiare l’eccellenza può avere un’utile funzione sociale, fornendo modelli motivanti per la gioventù in formazione, ma non può mai essere sostitutivo del più fondamentale e importante dei modelli, quello dove si coltiva semplicemente la capacità di fare bene il proprio dovere. Per quanto ciò possa suonare conservatore e poco glamour, non c’è nessun sostituto prossimo ad un modello che nutra e alimenti la dignità del lavoro come orgoglio per aver svolto il proprio dovere, senza salti mortali ed effetti speciali. Solo l’idea di dare un contributo a quell’impresa non banale che è il buon funzionamento di una società può sostenere nel tempo uno stato, una comunità, una civiltà. Uno sguardo storico all’Ethos civile delle civiltà storiche più forti e longeve (da Roma antica all’Impero Britannico) può mostrare bene come, accanto all’elogio di individualità e virtù eminenti, fosse cruciale la coltivazione dell’orgoglio di essere semplicemente parte di quell’azione collettiva, di quella forma di vita.

L’unica forma di ‘meritocrazia’ davvero indispensabile consiste nell’essere in grado di stigmatizzare efficacemente ed eventualmente punire i ‘free riders’, gli opportunisti neghittosi che, all’ombra del contributo dei più, si scavano nicchie di nullafacenza. Un sistema deve cioè essere sempre in grado di eliminare, per così dire, la ‘morchia sul fondo del barile’, in quanto per valorizzare chi fa il proprio dovere deve stigmatizzare chi ad esso si sottrae intenzionalmente.

Ciò ci porta alla terza e ultima ragione della nequizia di una retorica dell’eccellenza.

Mentre riconoscere le componenti subottimali di un sistema, come i free riders, è compito relativamente facile, riconoscere l’eccellenza è un compito estremamente arduo e mai sistematizzabile in modo efficiente. L’eccellenza, per natura, è ciò che è fuori dall’ordinario in quanto presenta caratteristiche supplementari ed eccedenti rispetto alla norma. Per questa ragione l’eccellenza fatica sempre ad essere riconosciuta come tale dalla norma. D’altro canto, solo la norma (la medietà) può formare il giudizio che in ultima istanza riconoscerà l’eccellenza. Il ‘genio incompreso’ è quasi un cliché storico, ma è un cliché fondato su infiniti esempi e su un meccanismo pressoché fatale. Ogni autentica eccellenza in quasi qualunque campo verrà sempre riconosciuta con difficoltà proprio per i suoi tratti fuori dal comune. Un sistema che si vanta di conferire riconoscimento alle sole eccellenze finisce tipicamente per diventare invece un sistema che premia solo i più conformisti e ambiziosi tra i mediocri. Una volta di più ad emergere in primo piano è un modello che, lungi dal fornire incentivi all’azione sociale, genera risentimento.

Concludendo, l’insistente richiamo all’eccellenza rappresenterà forse un valido slogan, dinamico, giovanilistico, buono per persuadere gli ignari di essere di fronte ad istanze innovatrici, ma è di fatto un modello valoriale puramente retorico, vuoto e seriamente controproducente.

A.Zhok Antropologia filosofica 2018

credulità

Hieronymus Bosch "il ciarlatano"

Hieronymus Bosch “il ciarlatano”

CREDULITA’ Così veniamo consolati dai tanti ciarlatani della rete

Marino Niola La Repubblica 20 Luglio 2016

Creduloni onniscienti e complottardi diffidenti. È il paradosso della civiltà dell’informazione. Sappiamo sempre di più ma capiamo sempre di meno. E la realtà ci sfugge da ogni parte per eccesso di particolari. Inondati da immagini, notizie, informazioni, agenzie, newsletter, forum, chat, blog, pop up, che il web sversa su di noi come un fiume inarrestabile. Un download debordante che impalla il nostro processore critico. E così, incapaci di selezionare e valutare,

ci beviamo tutto quel che viene portato dalle correnti di internet. Il risultato è che l’aumento delle conoscenze e i progressi tecnologici invece che potenziare le difese della ragione provocano un ritorno massiccio di voci incontrollate, credenze infondate, verità millantate. E ciarlatanerie spudorate.
Di conseguenza, l’abuso della credulità popolare, che sembrava roba d’altri tempi, da società prescolare, ormai superato dal progresso delle conoscenze, sta ridiventando un fenomeno tristemente attuale. Col favore del web, che pullula di falsi scienziati e di autentici lestofanti. Guaritori, venditori, imbonitori, persuasori, arruffapopolo, contafrottole, predicatori, mental trainer, somatopsicologi, rabdomanti digitali e altri spacciatori di bufale che assomigliano tanto ai ciurmatori che imperversavano nella società preilluminista. Quelli che vendevano nelle pubbliche piazze i loro specifici, ovvero preparati miracolosi in grado di fermare il tempo, vincere le malattie, ridare vigore all’eros, far diventare ricchi. Come il dottor Dulcamara, protagonista dell’Elisir d’amore di Gaetano Donizetti, che vanta i portenti infiniti del suo specifico «simpatico, prolifico, che muove i paralitici, spedisce gli apoplettici, gli asmatici, gli asfittici, gli isterici, i diabetici».
Addirittura a fine Cinquecento si pubblicavano trattati per mettere in guardia le persone dai finti dottori. Li chiamavano con disprezzo “catedratici di nuove scienze”. Il celebre medico romano Scipione Mercuri scrive in quegli anni un libro intitolato De gli errori popolari d’Italia, in cui dedica un intero capitolo agli imbrogli «che si commettono contro gli ammalati in piazza». Perché era proprio nel luogo pubblico per eccellenza che gli acchiappagonzi mietevano vittime fra ingenui e babbei. E il suo contemporaneo Tommaso Garzoni, nel suo capolavoro La piazza universale, censisce 544 mestieri nel mondo, di cui una buona parte ha a che fare con truffe e raggiri.
Oggi la piazza universale si è delocalizzata in internet. Dove i ciarlatani, fatti fuori dalla cultura moderna, quella della scuola, della scienza e delle università, si prendono la rivincita e viralizzano il web. Perché, se è vero, come dice Edgar Morin, che la rete promuove una nuova coscienza planetaria, è anche vero che almeno per ora la quantità d’informazione disponibile online è inversamente proporzionale alla qualità. E rischia di generare un nichilismo culturale che rende difficile distinguere il vero dal falso.
Come ha mostrato il sociologo francese Gérald Bronner, la nostra sta diventando la democrazia della credulità. Perché dove la gerarchia dei saperi frana e il principio di autorevolezza si polverizza, spopolano le spiegazioni semplici e soprattutto monocausali di una realtà che è invece sempre più complessa e sfaccettata come quella contemporanea. Soluzioni consolatorie che ci danno la sensazione rassicurante di capirci qualcosa, di saperla lunga, di non farci infinocchiare dalle versioni ufficiali dei fatti. Che si tratti di Ogm, vaccini, sicurezza alimentare, biologico, coloranti, pesticidi, il minimo comune denominatore è una sindrome da complotto che provoca una sfiducia crescente verso tutte le autorità, scientifiche o politiche. Siamo sempre più bipolari. Per un verso malfidenti verso i vari esperti, ricercatori, professori, giornalisti o studiosi, e per l’altro pronti a prestar fede a tutte le voci che corrono in rete. Così il tessuto collettivo dell’attendibilità e della credibilità appare sempre più compromesso. Al punto che in Francia, dove la scienza è una fede e la ragione una religione, secondo uno studio recente, il 43% delle persone pensa che la ricerca comporti più rischi che benefici. E da un sondaggio Gallup di quest’anno emerge che la fiducia dei cittadini statunitensi nelle istituzioni è passata da un imponente 80% degli anni Sessanta a un allarmante 10% di ora.
Politica, religione, giornali, televisione, scuola, università, industria. Non si salva nessuno. Stanno peggio solo i rivenditori di auto usate. E cresce esponenzialmente il pregiudizio antiscientifico, soprattutto su temi che toccano tasti sensibili come la salute. Il caso più emblematico è quello dei vaccini che, dopo averci liberati da tanti mali, vengono additati come la causa di altrettanti mali. Una irragionevole demonizzazione che inizia nel 1998, quando viene, incautamente, pubblicato su
Lancet uno sciagurato articolo, rivelatosi poi fraudolento, dell’ex medico Andrew Wakefield, che sosteneva l’esistenza di una correlazione tra diffusione del vaccino trivalente Mmr e aumento dell’autismo. Era tutta una bufala. Ma nonostante le smentite del General Medical Council britannico e la sconfessione della stessa
Lancet, che ha ritirato lo scritto, le vaccinazioni sono crollate. In realtà pare che il vero scopo della pubblicazione fosse quello di lucrare su un vaccino alternativo brevettato dal novello Dulcamara. Oltretutto, la Court of Protection inglese ha accertato che la mamma di uno dei bambini autistici all’origine della vicenda ha mentito.
Ma l’ineffabile Wakefield è tornato di recente agli onori della cronaca con il documentario autocelebrativo «Vaccinati: dall’insabbiamento alla catastrofe», che ad aprile avrebbe dovuto inaugurare il Tribeca Film Festival di New York, diretto da Robert De Niro, comprensibilmente sensibile al tema in quanto padre di un ragazzo autistico. Ma la bufala è stata smascherata da un gruppo di scienziati e De Niro ha cancellato il film. Eppure il rischio vaccino per molti è diventato un dogma 2.0. Anche perché sono in tanti a pensare che dietro ci siano solo gli interessi delle case farmaceutiche. Così una mappazza di false evidenze e di pseudo conoscenze rischia di anabolizzare il web rendendo difficile distinguere tra verità e impostura. A tutti noi il compito di civilizzare la rete, facendola uscire dallo stato di natura digitale.

i simboli danno ordine al mondo ma sono falsi

GENNARO SASSO: “I simboli danno ordine al mondo ma sono falsi”
Il filosofo: “Sono pericolosi, producono violenza e fanatismo”

di ANTONIO GNOLI La repubblica 14 agosto 2015

Mi sentirei disorientato all’idea di vivere in un mondo senza simboli. So che non potrei fare a meno di quel vasto e squillante repertorio di frasi, di oggetti, di memorie che sono entrati – più o meno di diritto – nella nostra vita quotidiana. A volte la regolano, altre ancora la incatenano. Perciò, quando ho letto il nuovo libro di Gennaro Sasso, “Allegoria e Simbolo” (edito da Aragno), ho provato un senso di sgomento per la forza demolitoria con cui egli attraversa l’universo simbolico. Dello stesso autore mi era anche capitato tra le mani un denso libretto su Dante (“La lingua, la Bibbia, la Storia”, Viella editore) e, verrebbe da dire, chi più del poeta ha goduto di interpretazioni allegoriche?

Dunque da dove ha origine la palese ostilità verso queste due figure retoriche? E benché argomentata, ho pensato che non fosse poi così giusta la critica di Sasso. I poeti, ma anche i teologi, non disprezzano le allegorie. E, quanto a noi, viviamo immersi in un mondo simbolico. Non fu la nascita dell’homo symbolicus a cambiare il rapporto con il mondo e a farlo uscire dal caos nel quale versava? L’attuale crisi di questa figura – il suo evidente indebolimento antropologico – dovrebbe farci riflettere sulla sua esistenza. Meglio, sul suo futuro. Controbatte Sasso: “Il mio discorso non è tanto su come i simboli agiscono nel mondo e nella storia. Bensì sulla loro tenuta concettuale”.

Come definiresti allegoria e simbolo?
“L’allegoria è il risultato della combinazione di due parole. Di due significati. Una, quella che sta sopra, spiega quella che sta sotto. Un po’ come accade nella metafisica, per cui la parola più importante – Dio, l’Essere, la Sostanza, la Verità – giustifica e fonda quelle meno essenziali”.

Spiega le parole del nostro mondo. Le nostre opinioni. Una efficace allegoria, da questo punto di vista, è il Mito della caverna di Platone. O quando Dante con la parola “cielo” spiega la parola “scienza”.
“Allegoria e simbolo sono strutture relazionali. Cioè mettono in relazione parole o situazioni differenti”.

E questa pretesa relazionistica, tu dici, non ha alcuna giustificazione necessaria?
“Se la metafisica fallisce proprio in questa pretesa, perché dovrebbe riuscire all’allegoria o al simbolo? A me, lo ribadisco, non interessava vedere come il simbolo si dispiega nel mondo e nella storia bensì analizzare la sua contraddittorietà che si manifesta fin dall’origine”.

Spiegati meglio.
“Non vi è nessuna relazione necessaria tra l’idea che il simbolo esprime e la sua realizzazione pratica. La connessione tra i due momenti si risolve in un’alterità irrisolta. Per l’allegoria il discorso è un po’ diverso. La sua difficoltà è tutta filologica. Se la superi si può anche colmare la distanza tra i due momenti”.

Nell’allegoria è sufficiente perciò conoscere o ricostruire le intenzioni dell’autore?
“Fino a quando non si capisce cosa l’autore intendesse dire, la parola alta e bassa non si saldano. Comunque nell’allegoria si pone un problema ermeneutico. Più tragico è invece il destino del simbolo”.

Perché?
“Per il semplice motivo che il simbolo pretende di mettere in relazione un’idea astratta – per esempio la virtù, il coraggio, la bellezza – con il concreto, ossia con un ricettacolo finito, che a sua volta, grazie alla sollecitazione dell’idea, acquista valore universale”.

Il passaggio dall’idea alla cosa, sostieni, è una relazione fallita?
“Come può l’astratto trasformarsi in concreto?”

È universalmente comprensibile che il simbolo dell’astuzia è la volpe; così come il simbolo del coraggio è il leone.
“Come queste due cose possano stare assieme è inspiegabile”.

Eppure accade. La relazione, malgrado tutto, sussiste.
“Si tratta dell’enigmaticità di un incontro tra due momenti che non potrebbero mai relazionarsi”.

La nostra realtà è costruita sugli ordini simbolici. Senza di essi ci sarebbe disordine e smarrimento.
“Non lo nego. Ma ciò che a me interessava indagare era un altro aspetto che non considero affatto secondario: non lasciare intatta l’illusione che l’elaborazione simbolica sia un accesso al problema della verità”.

Verità e simbolo non stanno insieme?
“Non possono. Il simbolo condivide con la metafisica la medesima struttura concettuale. Entrambi hanno fallito sul piano veritativo”.

Diciamo che la metafisica ha fallito un po’ più del simbolo.
“Non c’è dubbio che il simbolo esprima una sintesi più pratica. Quando si vedono ergere, su alcuni cornicioni dei monumenti parigini, le vittorie alate, con quelle ridicole ali dorate, è chiaro il riferimento a un simbolo del potere. E tuttavia la vittoria – come concetto astratto – non ci sta dentro l’immagine dell’aquila”.

Ci sta e non ci sta. Se si provasse a ricostruire la storia di quell’immagine forse si capirebbe perché essa sia diventata il simbolo del potere.
“Per quanto si possa agire su questo piano – e mi viene in mente la grande ricerca che in tal senso seppe sviluppare Aby Warburg – resta l’enigmaticità del simbolo”.

Anche Marx se ne era reso conto quando parla del “geroglifico della merce” intendendo proprio l’enigmaticità dell’allegoria.
“Marx è un critico della società simbolica. Come lo è, per un altro verso, Lutero di quella religiosa. In Lutero l’istanza anti- allegorica è impressionante. La sua critica all’eucaristia è di una brutalità perfino sconcertante: la carne è carne, il sangue è sangue. Non si assumono dei simboli dal corpo di Cristo. È una disputa fortissima, perfino con i suoi”.

Che cosa nasconde questa tua opposizione alla realtà simbolica? Cos’è che non va al di là degli aspetti concettuali?
“La mia avversione, se così la si può chiamare, nasce dalla convinzione che i simboli producono violenza. Anche quelli più innocui o solidali possono scatenare fanatismi insospettabili. E ciò accade quando all’universalizzazione del simbolo attribuiamo un valore di verità assoluta”.

Penso che a tenere in piedi un simbolo sia la fede e un certo conformismo.
“Se posso dire: la cosa mi fa un certo orrore”.

Non è più interessante capire la loro efficacia?
“Quando parli di efficacia del simbolo è come se tu lo assumessi già tutto costituito. Ma questo non spiega perché i suoi termini stanno insieme. E l’impressione che ne ricavo è che nel simbolo si nasconda la morte. Pensaci. Ci sono due parti che non si toccano. E creano una zona neutra. Che cos’è? Che cos’è questa zona che si sottrae all’astratto e al determinato? Non è qualcosa che ha a che fare con la morte?”

Enzo Melandri tenne un ciclo di lezioni contro il simbolico (poi raccolte e pubblicate da Quodlibet). In quelle pagine sosteneva che è vero che il simbolo rimette in ordine il mondo, ma per riuscirci deve irrigidire la realtà, toglierle la vita.
“Melandri pensava che il simbolo era lo strumento che dava la morte, non che avesse in sé la morte. Immaginò di disincagliare il simbolo risalendo alle sue origini. Ma in quella vitalità originaria era già scritto il suo certificato di morte”.

I simboli ti creano disagio?
“Potrei darti una risposta psicologica: ho un carattere tendenzialmente anarchico, incapace, almeno in parte, di stringere relazioni, di entrare in gruppi e condividerne gli obiettivi. Sono diventato antifascista da solo, marciando sul Lungotevere, come un imbecille, vestito da Balilla. Fu allora che cominciai a odiare una certa simbolicità. Ma questo è un piano semplicemente personale”.

Odio e amore provano quanto i simboli ci coinvolgano.
“È vero. Con la precisazione che io non amo la loro forza irrazionale”.

il fascino dell’integralismo

Il fascino dell’integralismo islamico

Fuga dalla libertà, Recalcati sulle orme di Fromm

L’uomo moderno, liberato dalle costrizioni della società preindividualistica, che al tempo stesso gli dava sicurezza e lo limitava, non ha raggiunto la libertà nel senso positivo di realizzazione del proprio essere: cioè di espressione delle sue potenzialità intellettuali emotive e sensuali. Pur avendogli portato indipendenza e razionalità, la libertà lo ha reso isolato e, pertanto, ansioso e impotente. (Erich Fromm, Fuga dalla libertà, 1941)

Massimo Recalcati
Quei ragazzi terroristi in fuga dalla libertà
la Repubblica, 7 febbraio 2015

LA LIBERTÀ non è solo possibilità di espressione, alleggerimento della vita da vincoli oscurantisti, emancipazione dell’uomo dal suo stato di minorità, come Kant aveva classicamente definito l’illuminismo. La libertà è anche una esperienza di vertigine e di solitudine che comporta il rischio di vivere senza rifugi, senza garanzie ultime, senza certezze imperiture e fuori discussione. Lo stesso Nietzsche, che fu uno dei maggiori sostenitori della libertà del soggetto di fronte a ogni verità che pretende di porsi come assoluta, insisteva costantemente nel ricordare che la libertà suscita angoscia, spaesamento, che il navigare in mare aperto può generare una seduttiva nostalgia per la terra ferma. È in questa luce che la psicoanalisi ha interpretato la psicologia delle masse dei grandi sistemi totalitari del Novecento. Psicologia delle masse e analisi dell’Io (1921) di Freud, Psicologia di massa del fascismo (1933) di Reich e Fuga dalla libertà ( 1941) di Fromm costituiscono una sorta di fondamentale trilogia sul fenomeno sociale del fanatismo di massa e dei suoi processi identificatori che hanno costituito il cemento psicologico di tutti i totalitarismi novecenteschi.
UNA tesi generale ritorna in questi tre testi: non è vero che gli esseri umani amano senza ambivalenze la loro libertà; essi preferiscono anche rinunciarvi in cambio della tutela autoritaria della loro vita. Se la libertà comporta sempre la possibilità della crisi, dell’incertezza, del dubbio, del disorientamento, è meglio fuggire da essa per ricercare in un Altro assoluto una certezza granitica e inamovibile sul senso della nostra presenza al mondo e del nostro destino.
Questo ritratto della psicologia delle masse sembra aver fatto — almeno in Occidente — il suo tempo. […] Al centro dell’Occidente non è più la dimensione tirannica della Causa ideale che mobilita alla guerra le masse, ma quella dell’individualismo esasperato, della rincorsa alla propria affermazione personale, dell’ipertrofia narcisistica dell’Io. Al cemento armato dei regimi totalitari si è via via sostituita una atomizzazione dei legami sociali causata dalla decadenza fatale della dimensione dell’Ideale rispetto a quella cinica del godimento. Il culto pragmatico del denaro ha sostituito il culto fanatico dell’Ideale. Il nichilismo occidentale non sorge più dalle adunate delle masse disposte a sacrificare la vita per il trionfo della Causa, ma dal capitalismo finanziario e dalla sua ricerca spasmodica di un profitto che vorrebbe prescindere totalmente dalla dimensione del lavoro. Il nichilismo contemporaneo non si manifesta più nella lotta senza quartiere contro un nemico ontologico, ma come effetto di una caduta radicale di ogni fede nei confronti dell’Ideale. E’ il passaggio epocale dalla paranoia alla perversione. Gli ultimi drammatici fatti che hanno investito la Francia e l’Europa comportano però un ulteriore cambio di scena. La critica che la cultura islamica più integralista muove all’Occidente è una critica che tocca un nostro nervo scoperto: il nichilismo occidentale non è più in grado di dare un senso alla vita e alla morte. Il dominio del discorso del capitalista ha infatti demolito ogni concezione solidaristica dell’esistenza lasciando orami evasa la domanda più essenziale: la nostra forma di vita collettiva è davvero l’unica forma di vita possibile? L’idolatria nichilistica per il denaro ha davvero reso impossibile ogni altra fede? La nostra libertà è riuscita veramente a rendere la vita più umana? Il fatto che l’Occidente non sia più in grado di ripensare consapevolmente le sue forme (alienate) di vita, ha spalancato la possibilità che la critica all’esistente abbia assunto le forme terribili di un ritorno regressivo all’ideologia totalitaria. È un insegnamento della psicoanalisi: quello che non viene elaborato simbolicamente ritorna nelle forme orribili e sanguinarie del reale. L’Islam radicale non è forse l’incarnazione feroce di questo ritorno? Il suo rifiuto dell’Occidente, fanatico e intollerante, non si iscrive proprio nello spazio lasciato aperto da una nostra profonda crisi dei valori condivisi? L’integralismo islamico costituisce il ritorno alla più feroce paranoia di fronte alla perversione montante che ha assunto il posto di comando in Occidente. Alla liquefazione dei valori si risponde con il loro irrigidimento manicheo. Mentre la perversione sfuma sino ad annullare i contrari, destituisce ogni senso della verità, confonde i buoni con i cattivi, mostra in modo disincantato che tutti gli esseri umani hanno un prezzo, la paranoia insiste nel mantenere rigidamente distinti il bene dal male, il buono dal cattivo, il giusto dall’ingiusto offrendo l’illusione di una protezione sicura dall’angoscia della libertà.
In due importanti libri dedicati all’Islam radicale ( La psicoanalisi alla prova dell’Islam, Neri Pozza 2002, Dichiarazione di non sottomissione, Poiesis 2013) lo psicoanalista francotunisino Fethi Beslam, professore di psicopatologia all’Università di Parigi-Diderot, ci ricorda come la sottomissione all’Altro salvi e distrugga nello stesso tempo. Essa offre l’illusione di un mondo senza incertezze, chiedendo però in cambio la rinuncia totale alla libertà. La potenza seduttiva dell’integralismo islamico consiste infatti nel proporsi come la sola interpretazione possibile dell’Origine, della voce di Dio, dell’unico Dio che esiste, del Dio “furioso” e giustiziere implacabile. Si tratta di una ideologia identitaria che comporta la sottomissione come unica possibilità di rapporto alla verità fondandosi sulla cancellazione dell’alterità di cui la rimozione della femminilità è l’espressione più forte ed emblematica. L’amore per la Legge sfocia così fanaticamente nell’auto-attribuzione del “diritto di vita e di morte su ogni cosa”. E’ la forma più terribile di blasfemia: uccidere, sterminare, terrorizzare nel nome di Dio. L’Occidente che ha dato prova di aver saputo superare la stagione delirante dei totalitarismi, non ha ora solo il compito di difendersi dal rischio del dilagare della violenza paranoica dell’Islam radicale, ma deve soprattutto provare a rifondare laicamente le ragioni della nostra cultura per evitare che il culto perverso di una libertà senza Legge sia solo l’altra faccia di quello paranoico di una Legge che annichilisce la libertà.

l’arte del dubbio

Articolo di Roberto Esposito “L’arte del dubbio” (Repubblica 22.2.15) 

“”In principio fu Socrate. Poi toccò a Sant’Agostino e ancora a Cartesio, alla modernità e a Kant. Eppure ci voleva l’era della confusione digitale e dell’overdose continua di informazioni per farci capire che solo l’assenza di certezze può aiutarci a restare liberi
NEL cercare Dio in tutte le cose resta sempre una zona di incertezza. Le grandi guide del popolo, come Mosè, hanno sempre lasciato spazio al dubbio». A pronunciare tali parole non è un filosofo neoscettico, ma papa Francesco nella sua prima intervista a Civiltà Cattolica . In molti hanno visto in esse, più che una semplice apertura all’esigenza di rinnovare il linguaggio della Chiesa, la testimonianza del ruolo crescente che la dimensione del dubbio ha assunto nella nostra società. In questo senso il grande successo che sta riscontrando in Francia, anche a livello di partecipazione ai corsi universitari, la “zetetica” — come Henri Broch ha definito l’arte del dubbio nei confronti di settarismi, faziosità, dogmi ammantati di pretese scientifiche — non può sorprendere: viviamo immersi un un’epoca in cui ci arriva continuamente una massa enorme di informazioni. E così il controllo sulla autenticità, sulla buona fede, sulla correttezza o sulla logica interna di qualsiasi messaggio, dal tweet di un personaggio noto a un documento ufficiale di un’istituzione, diventa un’attività cruciale, un meccanismo di sopravvivenza: l’unico esercizio possibile per non restare impigliati nelle miriadi di reti della propaganda presenti su internet così come nei prodotti culturali più tradizionali, nella politica così come nelle discipline accademiche, nei video degli estremisti islamici così come nelle verità di regime di ogni luogo e tempo.
È chiaro che, in questo contesto, l’arte del dubbio cambia pelle. Da perno di sistemi di pensiero illuministi o liberal di vario spessore, diventa adesso quello che in fondo è sempre stata: un metodo di conoscenza, un approccio da applicare in maniera trasversale in qualsiasi campo della nostra vita. Una guida indispensabile in un mondo globalizzato, spezzettato, confuso eppure sempre a rischio di finire intrappolato nelle spire del pensiero unico di turno.
Per queste sue caratteristiche, il rilievo filosofico del dubbio naturalmente è antico — può essere fatto risalire alla classica formula socratica del “sapere di non sapere”. Teorizzato dal Pirrone già nel III secolo avanti Cristo, ha trovato una prima formulazione cristiana, condizionata alla verità divina, con sant’Agostino. Successivamente Descartes lo ha posto alla base della conoscenza: pur dubitando di tutto, non si potrà mai dubitare di essere, proprio perciò, un soggetto pensante. Se Pascal e Hume hanno diversamente sottoposto l’idea di certezza assoluta a una critica corrosiva, è stato Kant ad assumere a oggetto di dubbio la ragione stessa, individuandone possibilità e limiti. Tutta la discussione novecentesca sulla relazione indissolubile tra dubbio e certezza — sostenuta da Wittgenstein, ma anche, diversamente, da Popper, Kuhn, Lakatos — ha insistito sulla necessaria falsificabilità dei paradigmi scientifici.
D’altra parte se Kierkegaard scrive in Aut Aut che il dubbio appartiene al movimento interno del pensiero, nel suo Zibaldone Leopardi afferma che «piccolissimo è quello spirito che non è capace o è difficile al dubbio». Su questa linea di ragionamento, che desume la necessità di dubitare dal carattere finito e incompiuto del nostro sapere, Vladimir Jankélévitch, in Da qualche parte nell’incompiuto ( Einaudi, a cura di Enrica Lisciani Petrini), sostiene che, contro le false certezze, va tenuto fermo «il dubbio rispetto alle verità e a se stessi». E tuttavia fin qui non siamo ancora pervenuti al cuore del problema. Perché qualcosa che appartiene alla storia dell’intera tradizione filosofica torna oggi a interpellarci con particolare urgenza? Cosa rende la richiesta all’arte del dubbio così pressante?
Già alla fine degli anni Settanta un volume collettivo curato da Aldo Gargani, con il titolo Crisi della ragione ( Einaudi), monopolizzò il dibattito filosofico in concomitanza con il successo internazionale del libro sul postmoderno di Jean-François Lyotard (Feltrinelli). Ciò che in quegli anni pareva incrinarsi era un intero regime di senso che per un lungo periodo aveva costituito al contempo la struttura indubitabile del reale e un modello normativo di comportamento. A venire meno era il primato del passato sul presente — l’idea che tutto ciò che avveniva fosse predeterminato da quanto lo precedeva secondo un nesso diretto tra cause ed effetti. Quando invece ai codici razionali si accompagnano sempre elementi imprevedibili di tipo intuitivo, emotivo o pragmatico, spesso portati a configgere con essi.
Ma una scossa ancora più destabilizzante si è verificata negli ultimi anni, quando, con il nuovo disordine globale, tutti i riferimenti che fino a qualche tempo fa hanno guidato i nostri comportamenti sembrano essere venuti meno. Da qui nasce la spinta a una ricerca ininterrotta, capace di sfidare dogmi e luoghi comuni. Il termine stesso di zetetica rimanda al verbo greco che significa “cercare”. Alla sua base vi è un bisogno urgente di spirito critico, una diffidenza crescente rispetto alla continua manipolazione che media spregiudicati o asserviti, sondaggi con esiti preconfezionati, dispositivi di propaganda ci rovesciano quotidianamente addosso.
Gli attentati di Parigi, rivolti espressamente contro la libertà di pensiero e di scrittura, hanno rinforzato ulteriormente questa esigenza, come dimostra la pronta scalata delle opere di Voltaire nella zona alta delle classifiche di vendita. Già preparata dal successo di instancabili partigiani del dubbio come Montaigne e Diderot, il ritorno, non solo da parte dei francesi, a Voltaire rilancia la tradizione dei lumi contro l’accecamento prodotto dal fanatismo. Tale impulso zetetico, d’altra parte, si innesta in un orizzonte filosofico già orientato in direzione laica e libertaria. Esso rimanda a filoni culturali diversi, che hanno trovato un primo punto di aggregazione nel “New Atheism” americano — teorizzato da filosofi e saggisti come Richard Dawkins, Daniel Dennet, Sam Harris e Christopher Hitchens. Ciò che li collega in uno stesso punto di vista non è la polemica contro particolari religioni, ma contro qualsiasi tipo di presupposto dogmatico che vincoli la ricerca scientifica e anche i comportamenti pratici. Si tratta di una interpretazione radicale del darwinismo, che sottrae il fenomeno della vita al rimando a qualcosa che ne trascenda lo sviluppo specifico.
A questa corrente — che dall’America si è diffusa in Germania, in Francia, in Italia — si affiancano altri filoni libertari ispirati in vario modo alla tradizione illuministica. Il neo-materialismo individualista di Michel Onfray, autore di un discusso Trattato di ateologia ( tradotto in Italia da Fazi), è stato oggetto di un ampio dibattito e anche di forti critiche. Portando agli esiti estremi la dottrina della tolleranza che ha i suoi padri in Locke e nello stesso Voltaire, la sua prospettiva è caratterizzata da una critica preventiva di qualsiasi nozione che non sia passata al vaglio dell’analisi razionale. L’altra scuola di pensiero che, forse con maggiore consapevolezza teoretica, rompe con ogni forma di trascendenza è quella che guarda da un lato al pensiero di Spinoza e dall’altro alla genealogia di Nietzsche. Ciò spiega la forte ripresa di interesse per un autore come Gilles Deleuze, del quale DeriveApprodi ha appena edito il film-intervista, a cura di Claire Parnet, dal titolo Abecedario. Forse prevedendo la svolta in atto, Michel Foucault aveva una volta pronosticato «che un giorno il secolo sarà deleuziano». Prudentemente non aveva specificato di quale secolo parlava.

intelligenza emotiva:verso un nuovo modello di apprendimento

Prendo spunto dalla homepage ,che scrissi ormai qualche anno fa ,per una associazione di amici finalizzata ad un turismo “intelligente” in grado di trasmettere contenuti e tecniche.Goleman aveva già pubblicato da molti anni il suo testo rivoluzionario e le evidenze scientifiche relative all’esistenza di una reale” intelligenza emotiva”si stavano accumulando con forza.Oggi l’ultimo passo:dopo gli psicologi,le multinazionali,le grandi organizzazioni di management pubbliche ma soprattutto private,finalmente anche la scuola si è messa al passo.In molti stati USA da oggi l’educazione emotiva è divenuta materia obbligatoria d’insegnamento.E’il riconoscimento che mancava all’importanza del nostro cervello emotivo,alla costatazione che un apprendimento efficace passi attraverso la conoscenza ed il dominio delle proprie emozioni e che il successo premi chi riesce a stabilire un valido rapporto con il proprio io emozionale.

Ma proprio oggi che il cammino sembra concluso un dubbio mi assale:identificare le emozioni,esprimerle,valutarne l’intensità,aumentare la resistenza allo stress,conoscere la differenza tra emozioni ed azioni certamente aiuterà i nostri figli a controllare i propri stati d’animo e probabilmente permetterà loro di avere piu’ successo …..ma standardizzare e controllare le emozioni migliorerà veramente questo nostro mondo?E’auspicabile una “ortodossia emotiva”?

Mi ha colpito la recente osservazione di una attenta studiosa del sistema scolastico americano “il guaio del nostro sistema educativo è che non abitua alla libertà di pensiero,altro che controllare le emozioni:andrebbero scatenate”.Diane Ravitch.

www.bluepepper.com/home

……..”Il rationale della nostra strategia d’intervento si basa sulla cognizione ormai acquisita dalla neurobiologia della presenza in ognuno di noi di una mente emozionale ed una razionale quali facoltà semiindipendenti che riflettono il funzionamento di circuiti cerebrali distinti anche se interconnessi.Ne risulta che l’equilibrio individuale  è determinato dal peculiare coordinamento dei due sistemi.Costituisce evidenza scientifica che la mente emozionale risieda in strutture cerebrali primigenie (sistema libico ed amigdala)che codificano schemi di comportamento selezionati dalla nostra storia evolutiva in quanto specie umana.Tali schemi erano e sono tesi a salvare l’individuo in situazioni di rischio imminente con reazioni istantanee e necessariamente svincolate dal controllo razionale corticale.Questa base biologica ci espone a due ordini di problemi.Innanzi tutto abbiamo bisogno delle “emozioni” perché colorano la nostra vita ,in secondo luogo perchè ci aiutano in situazioni di pericolo anche se troppo spesso ci capita di affrontare dilemmi postmoderni con un repertorio emozionale adatto alle esigenze del Pleistocene.Ognuno di noi infatti ha sperimentato direttamente o indirettamente lo stato mentale in cui le passioni prendono il sopravvento “di necessità” travolgendo la mente razionale.Questi sono sicuramente i momenti piu’ delicati per la nostra incolumità psichica e fisica e sono dominati da schemi subcoscienti ancestrali custoditi nella nostra mente emozionale.Possiamo fidarci delle nostre reazioni quindi in stato di stress proprio quando tali antichi schemi si superficializzano?Quando la nostra mente emozionale è una valida guida e quando invece è controproducente?Cosa può fare la ragione se i nostri schemi di sicurezza in caso di grave minaccia sono a favore della nostra mente emozionale?Alcuni di noi inoltre sperimentano tale modalità rarissimamente se non mai,altri per ragioni lavorative o ambientali vi sono esposti quotidianamente.Esiste un training per modulare le  nostre risposte emotive allo stress?La constatazione che le ricchissime connessioni neurali dell’amigdala le permettano ,in caso di emergenza emozionale,di sequestrare gran parte degli altri centri cerebrali anche corticali e di imporre i propri comandi anche alla mente razionale può esporci ad eccessivi rischi o puo’ in alcuni casi aiutarci?Tutte problematiche affascinanti oggetto di studio intenso da parte di neurobiologi,psicologi esperti in psicotecnologie,esperti di gestione di risorse  umane.

 Il nostro fine in realtà è molto piu’ pragmatico e volto essenzialmente alla ottimizzazione delle relazioni tra i due livelli di intelligenza (razionale ed emozionale) sì da realizzare un livello di apprendimento veloce,piacevole ,ma soprattutto efficace.Sì perché sempre maggiori sono anche le evidenze scientifiche di una stretta correlazione tra emozioni ed apprendimento.

 Intendiamo muoverci quindi su due livelli:

 un livello conscio connesso con il piacere fisico e mentale.Il pepe come elemento di sapidità e stimolo a gustare.La possibilità di speziare la propria vita,anche se per un periodo limitato,approfondendo a livello di eccellenza attività fisiche e mentali fortemente gratificanti e fortemente accettate dal nostro lato razionale come belle ed utili(navigare a vela,esplorare i fondali marini,cavalcare,vivere la natura,perfezionare una lingua stranieria,approfondire le proprie cognizioni di archeologia o botanica,solo per fare alcuni esempi) in contesti ambientali eccezionali.

 Un secondo livello,subliminare,connesso con le potenzialità bleu.Il bleu inteso come colore della emozionalità,dell’anima,di ciò che è fluido,profondo,nota bleu del jazz,metaconscio.Questo è un livello piu’ segreto ma strategico.Nei giorni,occupandoci piacevolmente ed intensamente delle nostre attività formative  in ambiente “bleu”,piano piano perderemo i contatti con la realtà di tutti i giorni.Ci renderemo conto ,sempre come esempio,che la regolazione  fine di una andatura da match race in modalità “bleu”,o un corso linguistico specialistico d’inglese per regate o tedesco per business nella stessa modalità finiranno per scavalcare i contenuti stessi della singola attività formativa.Senza accorgercene deafferenteremo con il “piacere” di fare e capire in ambiente “bleu” le nostre consuete vie di integrazione accedendo direttamente al livello di interconnessione delle nostre due modalità di intelligere.Potremo così acquisire concetti,sensazioni,piccole armonie dimenticate o mai provate.Complici saranno ambienti e condizioni di studio insolite ed in qualche modo confinanti, quali la barca,il mare aperto,l’isola,la profondità,il buio,l’ipogeo,il casale isolato in cui abbiamo tutto ma lontano da tutto.Potranno forse anche emergere fugaci sensazioni di estraniazione ,di non conosciuto,di dissonanza,di “bleu” insomma secondo l’accezione anglosassone.Piccole destrutturazioni per riottimizzare e per poter apprendere in modo efficace e nuovo.

Teniamo a sottolineare che la costante ricerca di tali modalità bleu esula assolutamente da pratiche esoteriche o religiose,da manipolazioni psicologiche , training comportamentali o condizionamenti di qualsivoglia natura.Unici riferimenti metodologici sono la maieutica e l’estetica.

 Piu’ recentemente sentiamo sicuramente di poterci riferire a quegli Autori che individuano nell’apprendimento emotivo una piu’efficace modalità di apprendimento.Costoro infatti sostengono,proprio come noi, che  non si apprende solo dai contenuti ma anche da percezioni ed emozioni che proviamo magari inconsapevolmente e che utilizzare situazioni emozionalmente coinvolgenti risulti non solo un metodo utile per rendere piu’ piacevole e veloce l’apprendere ,ma soprattutto un processo indispensabile per generare apprendimenti efficaci(Rotondi 2002).

 In effetti il “viaggio” che proponiamo nella nostra homepage altro non è che una “strategia di apprendimento emotivo”(emotional learning strategy),ma vogliamo nuovamente sottolinearlo con forza ,unicamente finalizzato ad un apprendimento efficace.”…….

 Bibliografia

 De Kerckhove, D. (1996). Psicotecnologie da “La pelle della cultura”, Genova, Costa eNolan.

 De Kerckhove, D. (2002). Psicotecnologie: interfaccia del linguaggio, dei media e della mente in “Convegno di psicotecnologie”, Università di Palermo.

 Deplano, V. (2005). Gli orizzonti dell’e-learning, For 63 9-12.

 Ferro, A. (2002). Fattori di malattia, fattori di guarigione, Milano, Cortina.

 Goleman, D. (1995). Emotional intelligence, London, Bloomsbury.

 Reggiani, M. (2005). In difesa dell’intelligenza razionale, For 65 99-102.

 Rotondi, M. (2002). Apprendimento emotivo, For 52 55-62.

 Spaltro, E. (2002). Formazione ed emozioni, For 52 44-54.

 Varchetta, G. (2002). Investire in emozioni: radicalità e criticità, For 52 5-7.

 Varchetta, G. (2002). Le emozioni: un ritorno?, For 52 10-15.

 

L’editore 20 gennaio 2014

 

 

 

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 3.0 Italia.

le libertà di pensare ed agire sono una illusione?

E’ singolare che un chirurgo abbia frequentato un intero corso annuale di psichiatria durante la propria formazione universitaria e ne ricordi distintamente i contenuti ed  il docente che lo teneva.Eravamo intorno alla metà degli anni ’80 ed il docente che si occupava allora intensamente di “drug addiction” era un emergente Vittorino Andreoli.Lucido e moderno.Da allora ho seguito la sua evoluzione culturale e mediatica.Il suo metodo mi ha sempre convinto.Oggi un suo breve ed incisivo intervento sulla stampa mi aiuta ad esemplificare i dubbi crescenti che tutti noi nutriamo riguardo ai concetti tradizionali di “libertà” ed ,aggiungo io, “razionalità”.Un ripensamento radicale sul “cogito ergo sum”che dà il nome a questa rubrica!

 

La libertà è un’illusione :i meccanismi con cui l’incoscio guasta i nostri progetti

di Vittorino Andreoli

Psicopatologia della vita quoti­diana di Freud viene pubblicato nel 1901, un anno dopo L’interpretazione dei sogni con cui si fa na­scere la psicoanalisi. Pur avendo avuto aggiunte fino al 1924, è dun­que una delle opere di base nella costruzione del pensiero e della tecnica psicoanalitica. Nonostante l’«età» sono molti i punti utili alla modernità, e ciò che mi pare anco­ra rivoluzionario è quanto Freud ci dice sulla libertà.

Come si pone il legame tra que­sta aspirazione e l’inconscio? Ri­mane, nonostante le diverse modulazioni, la certezza di una parte inconscia dentro I’lo, una compo­nente della struttura di personali­tà di cui non abbiamo consapevo­lezza e che tuttavia agisce e condi­ziona il nostro comportamento.

Se dunque è possibile scegliere un’azione e fortemente volerla, ciò non impedisce all’inconscio di entrare nei nostri progetti e desi­deri fino a renderne impossibile la realizzazione oppure a compierli in un modo diverso da come avremmo voluto: il divario tra es­sere e voler essere. Pertanto la li­bertà come possibilità di scelte qualsiasi è illusoria. E sul piano pratico si scontra sempre con limiti e blocchi che noi stessi incon­sciamente poniamo alla realizza­zione di quelle scelte.

Verrebbe da dire che la libertà ri­mane un’idealizzazione rispetto a condizioni esistenziali che invece ci tengono dentro un percorso che non è mai scelto, ma almeno in parte imposto. E la libertà rimane un’illusione. Freud non elabo­ra queste considerazioni sulla ba­se di una teoria, di un sapere dun­que astratto, ma le svela attraver­so le piccole cose, quei fatti che riempiono la quotidianità: gli atti mancati,gli automatismi comportamentali, i lapsus, le amnesie. So­no certo di aver chiuso la porta, ma la controllo ancora tre volte.

L’inconscio insomma si intro­mette silenziosamente e misterio­samente per impedire di compie­re gesti o azioni che potrebbero ri­portare ad esperienze traumatiche e dunque dolorose, oppure al con­trario inserisce la propria forza e conduce ad azioni che sostituiscono quelle programmate. Forze che si legano ad una memoria inconsa­pevole che dunque agisce senza giungere alla coscienza.

Il tema della libertà non ha an­cora tenuto in debito conto questa dimensione del nostro Io e noi fin­giamo di pensare ad un uomo libe­ro che capisce e vuole e dunque sceglie razionalmente un compor­tamento (intelligere) e vi applica la volontà per realizzarlo.

Un assunto assurdo alla luce del­la Psicopatologia della vita quoti­diana che è però ancora stampato nel codice penale: si afferma che la responsabilità si lega alla «capa­cità di intendere e/o di volere». Ed è questo il quesito che il giudice chiede al perito psichiatra per po­ter decidere e stabilire la pena.

Insomma dominano il capire e il volere. E l’inconscio? Come si fa a parlare di libertà e di responsabi­lità, ignorandolo?

Non è certo mia intenzione to­gliere la responsabilità nell’agire, ma soltanto sostenere (come Freud 110 anni fa) che non si può capire e giudicare un’azione e dun­que un uomo senza considerare questa dimensione dell’Io che al­berga in ciascuno di noi.

Corriere della Sera Venerdì 13 Maggio 2011

medicina e probabilità

Medicina e probabilità

Nessun medico ignora la parte di “scommessa” e di azzardo connessa alle pratiche del diagnosticare e del curare; poco tuttavia se ne parla (quasi si temesse di rivelare debolezze e alee della professione) e poco i medici sanno dei fondamenti della statistica e della probabilità.

A questi fondamenti, e alle loro intersezioni con il sapere medico, è dedicato quest’articolo.

 “L’arte della medicina è congetturale”, scriveva Celso venti secoli orsono; “è proprio della congettura essere più spesso vera che falsa, ma talvolta di essere non pertinente. Un segno che inganna una volta su mille non deve essere respinto, poiché da affidamento nella maggior parte dei casi effettivi” (De medicina, ii, 6). Una lunga tradizione radicata nel Corpus ippocratico vuole che il buon medico sia colui che fa una diagnosi giusta, perché “sa valutare i segni e calcolarne il valore” (Prognosi, 25). Certo, non c’è intuizione senza esperienza, trasmessa o acquisita. Lo studente ha appreso dai suoi maestri che “l’epilessia non si dichiara dopo i vent’anni a meno che non covi fin dall’infanzia” (Sul morbo sacro, 13), che “le diete liquide sono opportune in tutti i casi di febbre soprattutto nei giovani” (Aforismi, 16), che “le sudorazioni più benefiche nelle malattie acute sono quelle che avvengono nei giorni critici e che stroncano la febbre” (Prognosi, 6). Il medico deve sempre essere attento alle regolarità empiriche (Acque, arie, luoghi, 1): l’andamento delle affezioni cambia con il clima, la stagione, il regime dei venti e delle acque (“Perché la gente si sente più stanca quando il vento soffia dal sud?” si legge nei Problemi aristotelici, XXVI, 42). Ma al capezzale di un paziente, per ricostruire il corso della malattia e prevederne l’evoluzione (la prognosi ippocratica), non è sufficiente esprimere dati generici, occorre riflettere su ciò che ci è dato osservare nel caso particolare: più il medico è in grado di identificare i sintomi e interpretarli, più la conclusione che trarrà dalle sue osservazioni avrà probabilità di essere esatta (Prognosi, 25). I filosofi contemporanei di Ippocrate hanno tentato di descrivere questo tipo di ragionamento nel quale, da premesse parzialmente incerte o lacunose, si sfocia alla conclusione più probabile. Platone oppone le scienze della natura alla matematica: in geometria un’argomentazione plausibile non ha valore, si esigono dimostrazioni che procedono per necessità (Teeteto, 162e), mentre per la spiegazione di fenomeni naturali ci si deve accontentare di una ricostruzione verosimile dei fatti ( Timeo, 29c). Aristotele conferma che è necessario “esigere, in ogni materia, soltanto quel rigore che la natura del soggetto comporta”: “trattandosi di cose che sono vere soltanto in modo approssimativo, e partendo da premesse la cui verità non è neppure assoluta, non si possono trarre conclusioni che superino in certezza ciò che le fonda” (Etica Nicomachea, I, p. 3). Più tardi, Carneade paragona la procedura diagnostica a una procedura giudiziaria: per un affare banale, ci si rimette a un solo testimone (un sintomo), nei casi più seri, si interrogano svariati testimoni (un insieme di sintomi: una sindrome), per le questioni più gravi ancora si confrontano i testimoni e si correggono le testimonianze l’una con l’altra (Cf. Sextus Empiricus, Summa contra logicos, I, p. 182). Presto fu intuita l’esistenza di una “logica” comune agli argomenti di probabilità, qualunque sia il contesto, teorico o pratico, nel quale essi appaiono: in tribunale per stabilire i diritti delle parti, negli affari per giudicare il miglior investimento, in meteorologia per prevedere l’evoluzione del tempo, dal pulpito per difendere la religione dagli attacchi degli increduli. Si tratta sempre di raccogliere indizi, discuterne il valore, valutare il grado di plausibilità che essi conferiscono alle ipotesi da prendere in considerazione. La valutazione rimarrà pur sempre qualitativa, sino alla fine del Medio Evo quando, nell’ambiente dei mercanti europei, si diffonderà l’abitudine di valutare numericamente le perdite e i profitti aspettati. Così, per assicurare un  carico contro i pericoli del mare, le compagnie di assicurazioni calcolarono l’ammontare del premio tenendo conto del prezzo del carico e del rischio corso durante la traversata. “Periculum sortis incertum debet reduci ad certum pretium”, scriveva Lessius (1606). Non c’è molta differenza tra l’imprenditore, titubante su un affare con scarse probabilità di rendergli molto, contro uno più sicuro ma meno redditizio, e il medico che, per ridurre una frattura, esita fra un metodo senza troppi rischi per il paziente, ma a risultato funzionale mediocre, e un altro che fornisce solo irregolarmente brillanti risultati. Tuttavia i medici si mostrarono per molto tempo riluttanti ad esprimere in modo quantitativo le intuizioni che sottendono le loro scelte diagnostiche e terapeutiche. Ciò nonostante, la “teoria dei casi” trovò una sua forma matematica. La storia della sua nascita è stata descritta altrove.E’sufficiente ricordare qui che durante il diciottesimo secolo furono formulati sia i metodo di valutazione delle probabilità delle ipotesi, tenendo conto dell’informazione disponibile (Thomas Bayes, 1763; ripreso da Laplace, 1774), sia delle regole decisionali per le situazioni aventi una certezza parziale (minimax: de Waldegrave, 1712 ; massimizzazione dell’utilità: Daniel Bernoulli, 1738).

Claude Bernard constata, a metà del secolo diciannovesimo, che la medicina non si è ancora portata al livello di autentica pratica scientifica, malgrado lo sforzo fatto per accertare le correlazioni tra sintomatologia clinica e lesioni anatomiche sottostanti. Egli critica senza mezzi termini l’atteggiamento dei suoi colleghi: in ospedale, rimangono nell’aspettativa, scettici sull’efficacia dei rimedi; in città si prodigano in terapie dato che la clientela le esige, ma non fanno altro che dell’empirismo. Salassano i malati di polmonite, e questi guariscono: “II salasso guarisce la polmonite”, dicono allora. Taluni forniscono addirittura una statistica dei casi di polmonite salassate, e guarite. Ma non si è dimostrato un bel niente, sbotta Claude Bernard, finché non si è realizzata l’esperienza complementare che fa da “contro-prova”: “per ciò, è necessario … aver un certo numero di malalati colpiti da polmonite, tra loro paragonabili quanto più possibile per età, natura della malattia, ecc, di cui metà sono stati curati con salassi e metà con niente, cioè lasciati in attesa”.L’esperienza è stata tentata: “si è concluso che le polmoniti non salassate guariscono né più né meno delle altre.”Un medico che pratica il salasso in caso di polmonite fa … solo un esperimento.Se si fanno esperimenti, allora tanto vale farli correttamente. L’atto medico è una sfida alla natura, in un gioco dove ogni caso nuovo, individuale e diverso da ogni altro, è curato nel miglior modo secondo gli insegnamenti tratti dai casi precedenti, e fornisce a sua volta un’informazione in grado di influire sugli atteggiamenti futuri.” Invece di attenersi a generalizzazioni empiriche approssimative, Claude Bernard si augurava che venissero approfondite le singolari particolarità per scoprire, sotto l’apparente irregolarità dei fenomeni generici, il granitico basamento dei determinismi “assoluti e necessari”, la conoscenza dei quali permette in seguito di “prevedere e agire nel modo giusto”. Quindi la sua diffidenza nei confronti della statistica: “è più facile conteggiare i casi prò e contro che fare un ragionamento sperimentale”. Constatare, nella febbre tifoidea, che la diarrea si manifesta in 90 casi su 100, non spiega perché la diarrea è assente nei 10 rimanenti casi: deve esserci una causa precisa per tale variabilità sintomatologica, causa che lo studio differenziale dei casi deve mettere in evidenza. La saggezza medica comporta per tradizione un certo relativismo: ad ogni legge le eccezioni sono possibili, la natura è così complessa che nessuna generalità è vera in modo assoluto. Claude Bernard insorge con vigore contro tale credenza, persuaso che costituisca un fattore di ristagno. Biferisce di aver sovente discusso, con colleghi, il caso della vaccinazione; “La vaccinazione ha sempre successo o non lo ha mai a seconda delle condizioni”, egli assicura. “Dite quel che volete, ma la verità è che non sempre riesce”, insistono gli altri. C’è chi pensa che, di fronte all’insuccesso, il compito di una medicina scientifica sia di scoprirne la causa, e di darci la totale padronanza del fenomeno facendoci conoscere le condizioni esatte da soddisfare affinchè la vaccinazione abbia un successo assicurato. Altri giudicano illusoria, se non addirittura pericolosa, l’idea che si possa possedere una scienza compiuta,applicabile infallibilmente alla diversità sempre rinnovata degli esseri umani e dei loro ecosistemi.

Riflettendoci, si scoprirà forse che le due posizioni sono complementari più che opposte. Il “bernardiano” ritiene ogni fenomeno strettamente determinato dalle sue condizioni di esistenza, ma le condizioni nelle quali emergono i fenomeni non si riproducono mai in modo identico: egli crede alla regolarità e cerca le differenze. Il suo antagonista contempla una instabilità della natura: cause analoghe possono produrre effetti diversi, e cause diverse effetti analoghi. Egli crede nella diversità e cerca la regolarità. Infatti, non è necessario credere al caso per constatare le irregolarità, né attenersi al determinismo universale per trovare delle costanti. I fatti passati in rassegna dalla medicina sono poco stabili. Ignoriamo se si tratti di apparenze legate all’imperfezione delle nostre conoscenze, o di un elemento casuale insito nel funzionamento degli organismi. Non sappiamo se tutto procede da una ragione, oppure la natura a volte gioca di azzardo. Claude Bernard temeva che a furia di dubitare della regolarità dei fenomeni naturali si arrivasse ad accontentarsi di strategie intellettuali poco scientifiche. Ma l’evoluzione della medicina ha mostrato che è possibile ragionare con rigore su fenomeni irregolari senza giudicare a priori l’esistenza o meno di un determinismo latente, così come si può dominare un modicum di casualità, senza pretendere che tutto sia in linea di principio prevedibile. Fare congetture non è una sventura, purché tali congetture siano ritrattabili, e siano realmente ritrattate alla luce di ogni nuova informazione. I primi tentativi di “informatizzare” la diagnosi furono fatti alla fine degli anni 50′. Essi hanno consentito una notevole riflessione sui processi del ragionamento investigativo, il quale comunque non è appannaggio solo dei medici, ma viene anche praticato dai ricercatori scientifici, dai detectives, ecc.

 Questi tentativi hanno spesso collimato con i risultati delle analisi dei matematici probabilisti, vecchie di due secoli, in particolare con la prospettiva “bayesiana”. Alcuni medici (come il Dott. Jack Myers, internista a Pittsburgh), hanno sottoposto le loro operazioni intellettuali alla dissezione dei logici di mestiere. Cosa fa, in sostanza, colui che ricerca una diagnosi? Raccoglie ogni informazione disponibile, ne valuta l’importanza relativa, evoca ogni ipotesi in grado di spiegare i fatti, stima la verosimiglianza di ogni ipotesi nei confronti dei fatti, e generalmente procede per eliminazioni: tenta di squalificare il maggior numero possibile di ipotesi, trovando segni che le rendono improbabili, e di corroborare quella più plausibile con gli argomenti più forti di cui dispone. Da che cosa dipendono gli errori diagnostici? Molti provengono da omissioni (un’ipotesi è stata trascurata): l’elaboratore elettronico, date le sue capacità di memorizzazione, può essere utilissimo in questo caso, ricordando al medico l’elenco di tutte le malattie nelle quali si osserva un dato sintomo, eventualmente in ordine di frequenza decrescente, fino alle malattie più rare. Qualche errore è dovuto a diagnosi troppo affrettate (precipitazione o prevenzione, avrebbe detto Cartesio): si deduce che si tratta di quella data malattia sulla base di indici troppo scarsi. Per le esigenze stesse della sua programmazione, l’elaboratore permette di controllare che ogni tappa è stata considerata, e che ogni possibilità è stata correttamente esaminata. La lentezza del lavoro assistito dall’elaboratore può qualche volta spazientire: un clinico consumato è più svelto a districare il caso. Ma per lo studente è una buona scuola di metodo, come è stato dimostrato da recenti esperimenti nelle facoltà di medicina. E abbiamo tutti bisogno ogni tanto di ridiventare studenti.

L’insegnamento medico tradizionale addestra alla soluzione di problemi che, nel linguaggio probabilista, sono chiamati problemi diretti: data la malattia, descrivere i segni con i quali essa si manifesta (dato il colpevole, ricostruire il delitto; data un’urna la cui composizione è nota, indovinare quale tipo di campione ne sarà estratto). In presenza del paziente, il medico deve invece risolvere il problema inverso: dati i sintomi, trovare la malattia che li causa (dato il delitto, scoprire il colpevole; dato il campione prelevato, indovinare la composizione dell’urna). Per “fare la diagnosi”, ci dicevano i Maestri, “non basta consultare la vostra memoria o i vostri libri, occorre ragionare’. Infatti, la soluzione dei problemi inversi fa intervenire un tipo di ragionamento (induttivo?) per il quale il teorema di Bayes rappresenta all’incirca ciò che il modus ponens rappresenta per il ragionamento deduttivo (una regola d’inferenza). Il fatto che questo tipo di ragionamento sia soprattutto insegnato per esempi non impedisce — una volta tanto — di estrarne la “logica”. Iniziamo dall’immagine che, per quanto semplicistica, ha già dato prova del suo valore pedagogico.”‘

Allorquando un paziente va a consultare un medico, immaginiamo che il medico disponga di un certo numero n di urne (ipotesi diagnostiche) (fare una diagnosi vuole dire selezionare un’urna). La probabilità a priori che un’urna qualsiasi tra le n ha di essere scelta è anche chiamata “possibilità” della diagnosi. Il paziente ha estratto da una delle urne, all’insaputa del medico, un biglietto (la scelta dell’urna è stata fatta in assenza del medico, la persona ha “preso” una certa malattia). Il medico esamina il biglietto (il quadro sintomatico che il paziente offre). Il medico conosce la composizione delle urne. Valuta la possibilità che il biglietto provenga da tale o tale urna. La probabilità che l’ipotesi i-esima da all’evento (cioè che il biglietto provenga dall’urna i-esima) è la misura della verosimiglianza dell’ipotesi i-esima. 11 medico deve indovinare da quale urna è stato estratto il biglietto, cioè trovare la diagnosi che, a posteriori (dopo l’esame dei fatti), appare più probabile. Si tratta di riconsiderare, al lume dell’osservazione, la distribuzione iniziale delle chances che egli attribuiva alle diverse ipotesi. Qui sta il nerbo del ragionamento. Secondo il teorema di Bayes, la probabilità riveduta di un’ipotesi è’ proporzionale al prodotto della sua probabilità iniziale (a priori), con la verosimiglianza conferitale dai fatti.

Il fattore di proporzionalità è l’inverso della probabilità dell’evento stesso, cioè l’inverso della probabilità del “quadro clinico” considerato in sé e per sé. La procedura è iterativa. Se, al termine dell’esame clinico, il medico non ha elementi sufficienti per designare un’ipotesi decisamente più probabile delle altre, chiede al paziente di estrarn dall’urna un altro biglietto (prescrive esami complementari). I risultati della seconda prova permettono di riconsiderare la congettura precedente, così di seguito. Nei casi semplici (quani la vita del paziente non è in pericolo, quando la diagnosi sembra ovvia o importa poco precisarla meglio), la procedura si tronca dopo due o tre cicli il medico prescrive la terapia più adatta all’affezione giudicata più probabile (a volte una terapia mista, quando due ipotesi emergono a parità!), e adotta un atteggiamento di attesa (pensando ci un raffreddore non merita una radiografia e che, solo se un fenomeno nuovo dovesse manifestarsi, verrà il momento di riconsiderare il problema). Ci sono casi in cui è meglio non spinge oltre la diagnosi (quando il fastidio arrecato dalle analisi è peggiore di quel della malattia, oppure quando non si prevede alcun beneficio terapeutico da informazioni più precise). Ci sono inve diagnosi fatte per puro puntiglio, sottoponendo il paziente a tutta una sei di esami che rispecchiano e alimentano una ricerca a tastoni. Il limite da porre dipende dal prezzo che si è disposti a pagare per acquisire una maggiore certezza, dalla presunta utilità delle informazioni ricercate, dai rischi in cui incorre il paziente. Il calcolo delle probabilità, che costituisce l’inferenza diagnostica vera e propria, si integra a i calcolo di speranza matematica, dove 1 gravita delle conseguenze è presa in considerazione insieme alla loro probabilità. L’analisi del ragionamento medico deve allora passare attraverso g schemi della teoria della decisione.

 Fare una congettura iniziale, ricorrere a una esperienza-test, modificare la congettura secondo i risultati dell’esperienza: i tre tempi di questo procedere ricordano la procedura sperimentale descritta da Claude Bernard. Procedura “dubitativa” perché si fonda su ipotesi. Claude Bernard l’indovinava essere “deduttiva” nel senso in cui non si conclude più di quanto le premesse consentono. Lo metteva però in imbarazzo il fatto che ai suoi tempi “deduttivo” significasse “riducibile a una forma sillogistica valida”. Prendendo il termine “deduttivo” nel senso in cui è oggi inteso dai logici (diciamo: nella logica del prim’ordine), si può affermare che esistono ragionamenti investigativi interamente deduttivi. Esempio: per ipotesi, questo paziente ha una delle malattie A, B, C, … o nessuna di queste. Presenta il sintomo Er Non si osserva mai E, nella malattia A. Conclusione (per modus tollens): non ha la malattia A. Se avesse la malattia B, il test E2 sarebbe positivo, poiché lo è sempre in quella malattia. Il test E2 è negativo. Dunque non ha la malattia B (modus tollens, ancora). Supponiamo che le ipotesi formatesi inizialmente siano insieme esaurienti, e si escludano mutuamente, e che con una serie di test si possa eliminarle tutte tranne una: si potrebbe concludere con certezza deduttivamente) che la diagnosi rimasta è quella giusta. Lo si farebbe forse più volentieri disponendo di argomenti positivi? Prudenza! Il fatto che, nella malattia C, il sintomo Ev è sempre presente, non permette, constatando E.,, di concludere la presenza di C (non c’è febbre tifoidea senza febbre, ma ci può essere febbre senza che si tratti di febbre tifoidea, l’assenza di febbre permetterebbe di escludere la febbre tifoidea, la sua presenza non autorizza pero l’affermazione positiva). Quello che occorre, per una diagnosi positiva, non è un segno di cui la malattia implica la presenza, ma un segno la cui presenza implica la malattia. Tali segni, detti patognomonici, sono rari e preziosi. Permettono, a chi li sa riconoscere, una diagnosi di certezza quasi istantanea (osservo E(, E4 implica D, dunque – per modus ponens — affermo D). Ma i segni che non mancano mai sono così poco frequenti in medicina come i segni patognomonici. Perciò è eccezionale che si possa ragionare in modo deduttivo ai sensi della logica ordinaria: i fatti non si prestano.

“Un ascesso freddo paravertebrale fa pensare imperativamente alla tubercolosi ossea (morbo di Pott)”. “La cirrosi facilita l’insorgere di un tumore del fegato”. “Nella malattia di Parkinson, una sindrome depressiva è possibile’. “Ogni flebite comporta un rischio non trascurabile di embolia polmonare”. “Le forme respiratorie della poliomielite, più o meno frequenti secondo le epidemie, si osservano più sovente nell’adulto (1/2) che nel bambino (1/20)”. “La mortalità nel tetano è attualmente del 30%”. “La stenosi mitralica è una complicazione frequente del reumatismo articolare acuto trascurato”… Le risorse della logica del prim’ordine non aiutano direttamente nella formalizzazione di simili enunciati. L’uso dei quantificatori permette di enunciare che in tale o tale malattia, un dato sintomo si presenta in ogni caso, in certi casi, o in nessun caso. Si vuole poter dire in quale proporzione dei casi.

Sembra ovvio ricorrere alla probabilità. Quando si passa al linguaggio delle probabilità, il caso puramente deduttivo diventa in certo modo un caso-limite, realizzato quando tutte le probabilità sono uguali a zero o a uno. Dire che la malattia A provoca sempre l’effetto E (A implica E) equivale a dire che la probabilità di E, dato A, è uguale a 1. A seconda che, nella malattia A, il fenomeno E sia presente quasi sempre, spesso, una volta su due, raramente, eccezionalmente, si dirà che la probabilità di E, dato A, è per esempio uguale a 1-e. superiore a 0,7, pressoché uguale a 0,5, inferiore a 0,2, uguale a e … Dal fatto che l’ipertensione “favorisce” l’emorragia cerebrale, non consegue che ogni emorragia cerebrale sia provocata da un’ipertensione arteriosa. Ciò non impedisce di capire come l’emorragia cerebrale sia un esito dell’ipertensione, né di fare la diagnosi eziologica di un’emorragia cerebrale. Anche se lo svolgimento dei fatti non è strettamente “logico” (perché certe cirrosi si complicano con epatoma e altre no? Perché una persona con un’ipertensione moderata ha un’emorragia cerebrale, mentre l’altra, con un’ipertensione più grave, è risparmiata?), si può arrivare a conclusioni plausibili (questa emorragia è dovuta all’ipertensione) tramite una procedura che ha la sua propria “logica”.

La procedura “bayesiana” permette di ragionare rigorosamente su situazioni che comportano una parte d’incertezza o d’irregolarità.

Una malattia si riconosce da certi “segni”. Chiamiamo X (spazio fondamentale, o spazio delle possibilità elementari) l’insieme di tutti i segni o eventi E,, E2,… EK… (normali o patologici) aventi un significato medico e che sono studiati dalla semeiotica. La tradizione distingue i segni funzionali, raccolti attraverso una sorta di interrogatorio (ciò che il malato lamenta; insonnia, cefalea, dolori, dispepsia, fitta al fianco, …), i segni fisici (raccolti dall’esame clinico: pallore o cianosi manifestati allo sguardo, tumore sensibile alla palpazione, opacità individuabile con la percussione, rantoli crepitanti per mezzo dell’auscultazione, …), e i segni raccolti indirettamente da esami complementari più o meno strumentali (esame microscopico di secrezioni, dosaggio di sostanze nel sangue, radiografia di organi, …): ogni nuova tecnica d’investigazione apre un nuovo campo semiologico. Occorre che il medico abbia appreso a identificare i segni (riconoscere: un arrossamento, un’adenopatia, un mughetto, una rigidità meningea,…); a cercare certi segni in particolari contesti (segno di Lasègue nella sciatica comune, segno di Babinski quando si sospetta una sindrome piramidale, …); a analizzareie caratteristiche differenziali (soffio cardiaco sistolico o diastolico, con massimo apicale o csifoideo irradiante all’ascella o sotto la clavicola, a timbro ronzante o “a getto di vapore”, …); a interpretare i risultati dei vari esami (riconoscere il profilo di un’anemia alla lettura di un quadro ematico, per esempio).

L’esperienza, la memoria, e l’attitudine a riconoscere le “forme” (strutture), concorrono con una componente casuale (poiché ci sono segni fuggevoli) ai fini della collazione semiologica. Il processo d’interpretazione, che è sulla via della diagnosi, può già esser analizzato in uno stile “bayesiano” (l’interpretazione di esami specializzati come l’elettrocardiogramma o la scintigrafia cerebrale sono state oggetto di modellizzazioni informatiche già negli anni 60).L’insieme delle possibili malattie può essere rappresentato da una famiglia F di sotto-spazi di X, se si accetta di considerare una malattia come la costellazione dei suoi eventuali sintomi (il “quadro patologico”, composto da tutto ciò che può essere manifestazione del disturbo organico o psichico). Tali quadri si modificano con l’evoluzione delle conoscenze mediche, si alterano i raggruppamenti, si individuano nuove affezioni (ne testimoniano i rimaneggiamenti della Classificazione Internazionale delle Malattie che è alla sua nona revisione dal 1900). Ogni diagnosi è, tutt’al più, relativa allo stato delle conoscenze di un’epoca (secondo i rilievi delle cause di decesso, a Parigi 100 anni fa, non si moriva mai d’infarto del miocardio: l’infarto era sconosciuto). Un medico esperto, cosciente dei suoi limiti culturali, si riserva sempre la possibilità a priori che un suo paziente sia affetto da una malattia, descritta nella letteratura scientifica, ma che egli ignora:0da un’affezione non ancora individuata.Si definisce in F quello che i matematici chiamano una misura P soddisfacente gli assiomi di Kolmogorov (assiomi della teoria delle probabilità). La frequenza relativa delle malattie è a prima vista una buona misura della loro probabilità di insorgere, se la popolazione standard è correttamente scelta. Le variazioni di frequenza possono essere notevoli da una popolazione all’altra. La difterite, comune nell’Europa di un secolo fa, è praticamente scomparsa oggi. Il raffreddore da fieno s’incontra praticamente soltanto durante la primavera. La tubercolosi indietreggia con il miglioramento del tenore di vita, certi tumori hanno una particolare ripartizione geografica, ci sono scarse probabilità di aver contratto una silicosi se non si è mai stati in miniera, elevate probabilità di contrarre la bilharziosi se si è contadini nella vallata del Nilo. In ospedale le patologie sono diverse da quelle incontrate nelle visite domiciliari 1 medici rurali sono abituati a malattie che i medici di città non hanno occasione di riscontrare. Il tipo di pratica influisce anche sulla probabilità a priori delle ipotesi diagnostiche (non si consulta un cardiologo per un dolore all’alluce, né uno psichiatra per una gamba fratturata; anche i generalisti hanno il loro “profilo”,che la gente impara a conoscere: così, a seconda della loro liberalità nei confronti della medicina psicosomatica, vedono più o meno di questo genere di patologie). In definitiva, ogni medico, familiarizzandosi con la propria clientela, effettua le sue distribuzioni di probabilità (proprio come l’elaboratore “bayesiano”), e così prima ancora che entri il paziente egli ha già un’idea delle diagnosi più probabili. Ciò costituisce un handicap per le malattie più rare: ne testimonia il ritardo con il quale sono stati riconosciuti certi accessi di paludismo in Francia in questi ultimi anni. Non essendosi più imbattuti in questa malattia, si considerava l’eventualità come un’ipotesi puramente accademica”. Per le diagnosi correnti il metodo tuttavia fornisce una base di ragionamento più efficace. Il lettore si spaventerà forse all’idea che, per fare una diagnosi, occorra attribuire una probabilità ad ogni possibile evento. Tuttavia, in effetti, se la congettura iniziale è coerente e le ipotesi sono poste nel modo giusto, non è indispensabile specificare completamente lo spazio delle probabilità latenti (compito che sarebbe, in generale, tecnicamente molto difficile).

La congettura iniziale consiste, insomma, in una partizione dello spazio delle possibilità e in una distribuzione di probabilità che rappresenta il grado di fiducia accordato alle ipotesi considerate. Taluni hanno più intuito di altri: le loro prime distribuzioni sono abitualmente più vicine alle distribuzioni finali, sono più “acute” di quelle dei loro colleghi, i quali per prudenza ripartiscono prima la puntata in modo più uniforme su tutti i cavalli. Ma un medico che non avesse”buone” intuizioni in partenza arriverebbe ugualmente (anche se forse più lentamente) alla “buona” diagnosi, purché la sua congettura iniziale fosse stata coerente, e in seguito il suo ragionamento corretto. “Se si sperimenta senza alcuna idea preconcetta, si va alla ventura”, diceva Claude Bernard, “ma… se si osserva co idee preconcette, si fanno pessime osservazioni”. La congettura orienta la raccolta dei fatti: colui che ha privilegia un’ipotesi procede direttamente agli esami suscettibili di confermarla, colui che esita tra diverse diagnosi tende a attardarsi in esami esplorativi. L’informazione fornita dai fatti (riassur nella funzione di verosimiglianza) ha l’oggettività che le conferiscono le conoscenze mediche accumulate. In clinica si impara a giudicare “il valore < segni”. I mixedematosi sono apatici, anoressici, stàtici: questi sono indici mediocri (molte persone sono stitiche, ipotiroidei non sempre si lamentano della loro stitichezza); l’esser freddolos la voce rauca sono indici più interessanti; l’ipercolesterolemia è solo un segnale complementare; il dosaggio dell’ormone tiroideo libero circolante r sangue è oggi un’informazione decisivi ieri la diagnosi si confermava tramite a segni (allungamento dell’arco riflesso, diminuzione del metabolismo basale). Un buon segno è allo stesso tempo sensibile e specifico. Un segno è tanto più sensibile, in una data malattia, quanto più ha possibilità esser riscontrato in un paziente affetto questa malattia. Per esempio, nella maggior parte delle malattie infettive, 1 febbre è un segno molto sensibile (ancorché ci siano infezioni senza febbre, in particolare negli anziani e ni soggetti debilitati). Un segno clinico sensibile può mancare di specificità: reazioni febbrili si riscontrano in tanti tipi di malattie diverse. La probabilità della comparsa di un segno, data la malattia, si misura sulla proporzione relativa delle persone che, avendo que malattia, presentano quel sintomo. Viceversa, il difetto di sensibilità di un test si calibra sulla base della proporzione dei risultati falsamente negativi (fratture non visibili alla radiografia, per esempio). I segni utilizzati in clinica hanno sensibilità molto diverse. La cecità è una complicazione seria della malattia di Horton, dove può essere inaugurale; fortunatamente, si osserva solo dal 10 al 20% dei casi. Una volta su quattro la litiasi biliare è indolore. Circa la metà dei mielomi s’accompagna a proteinuria. Nella neurosifilide (tabe o paralisi generalizzata), la sierologia sifilitica è positiva in oltre il 90% dei casi. La neurite oftalmica è quasi costante nella sclerosi a placche. Nel caso di depressione malinconica, il senso di colpa è molto frequente per gli occidentali di civiltà giudeo-cristiana, raro (anzi, eccezionale) per gli orientali… Più sensibile è un segno, più la sua assenza fa dubitare della realtà della malattia. Al limite, il segno perfettamente sensìbile è quello che non manca mai: fa ‘sempre parte del quadro”, la sua assenza permette (lo si è visto) di escludere la malattia, la sua presenza è necessaria (non sufficiente) alla diagnosi positiva.

Un segno ha tanto più specificità per la diagnosi di una malattia quanto più ha possibilità di non esser riscontrato in una persona non affetta dalla malattia. Per esempio, nei Paesi europei, si vedono poche polinevriti che non siano llcooliche. Un segno molto specifico può [non essere molto sensibile: così il “pasping’ è raro nelle sindromi frontali; I ma quando lo si riscontra, è uratteristico di una lesione frontale, – poiché non è mai riscontrato nelle lesioni ‘dialtri lobi cerebrali. Il difetto di specificità di un test lo si calibra secondo la proporzione dei risultati falsamente positivi(il  test serologico comune della sifilide, la vecchia reazione di Bordet-Wassermann, è specifico soltanto in modo imperfetto: è sempre positivo in caso di pian, quasi sempre in caso di paludismo, abbastanza spesso in caso di lupus eritematoso. herpes, mononucleosi nfettiva, e diverse altre malattie virali…). La proporzione delle persone non affette dalla malattia e nelle quali non si riscontra il segno da una misura della specificità del sintomo, vera misura della probabilità doppia-negativa (non-sintomo su non-malattia).

Un sintomo poco specifico è un sintomo che si riscontra in molti quadri diversi. Così, un edema generalizzato è, in sé, un sintomo poco specifico: lo si può riscontrare in una nefropatia (anch’essa probabilmente di origine infettiva, o diabetica, o legata a un lupus, un’amiloidosi, una trombosi della vena cava inferiore…), ma anche in una cardiopatia, un’affezione del fegato (cirrosi, epatite…), certi disturbi endocrini, certi stati di carenza… Una nevrite oftalmica deve far ricercare, non solo una sclerosi a placche, ma anche una meningo-encefalite batterica o virale, una intossicazione (tabagismo), una carenza di vitamine del gruppo B, una malattia di Horton… La glicosuria è molto specifica nel caso di diabete mellito, eppure non è patognomonica (esiste anche nel diabete renale). Più un segno è specifico, più la sua presenza deve far pensare alla malattia. Al limite, un segno perfettamente specifico (patognomonico) è sufficiente per una diagnosi positiva (la malattia è una condizione necessaria della sua presenza). L’arte dell’investigazione diagnostica consiste, allorquando si hanno dubbi sulla fondatezza di un’ipotesi, nel ricercare un segno sensibile, la cui assenza renderebbe quest’ipotesi più improbabile; e quando si sospetta fortemente una malattia, nel ricercare un segno specifico, la cui presenza aumenta la probabilità che si tratti di quella malattia. Questa strategia euristica deve navigare tra due scogli: succede che il medico, obnubilato da una diagnosi, trascuri informazioni non correlate con ciò che cerca, si pensa alla menopausa, e si sorvola su una gravidanza di oltre due mesi. Più spesso si perde tempo a raccogliere una massa di informazioni superflue, come in quelle ipertrofiche cartelle cllniche nelle quali è difficile estrarre, da un magma aneddotico, i dettagli pertinenti. Un dato è informativo se “discriminante” nei confronti di una diagnosi, cioè se porta a una revisione della congettura. Se, da un lato, c’è una tendenza a sopravvalutare le informazioni fornite da molti dati, dall’altro sia i pazienti che i medici sono inclini a sottovalutare l’incertezza dei dati. Certi pazienti sono inutilmente allarmati da variazioni apparenti della loro pressione arteriosa o nelle loro analisi del sangue, quando queste sono, invece, totalmente compatibili con le normali fluttuazioni dei parametri organici e le irregolarità legate alle condizioni di misura o di prelievo. Le funzioni di verosimiglianza (stima della sensibilità e della specificità degli esami) sono le “macchine per digerire l’informazione” che fanno funzionare il calcolo bayesiano. Bruno de Finetti lo situa appunto nella “verosimilizzazione” delle ipotesi iniziali tramite l’informazione raccolta. Laddove le conoscenze sono ancora vaghe, le “macchine” sono diverse e le scuole si oppongono. Con il progredire delle conoscenze, si fa l’unanimità nella professione. Senza un accordo sul “valore” dei segni, non vi può essere discussione razionale della diagnosi. Non tutti i medici hanno le cifre in mente. Ma un importante aspetto del lavoro di ricerca in medicina (e in epidemiologia in particolare) consiste nel valutare correttamente le funzioni di verosimiglianza, le quali permettono di ragionare.

Una congettura iniziale è in parte arbitraria. Man mano che vengono raccolti nuovi dati, la soggettività della prima ipotesi è poco a poco corretta da\Yaggettività dei dati. I ricercatori bayesiani che osservano gli stessi fatti, e si accordano sul modo di interpretarli, devono convergere verso la stessa distribuzione di probabilità delle ipotesi, a patto che il processo duri abbastanza a lungo. Ma in pratica il numero degli esperimenti è limitato, e occorre farsi carico di un certo residuo di arbitrarietà. D’altro canto, dire che c’è in ultima analisi convergenza verso la stessa distribuzione finale di probabilità, qualunque siano state le distribuzioni iniziali, non equivale a dire che tutte le ipotesi, tranne una, sono alla fine giudicate impossibili all’esame dei fatti: al contrario, in una procedura bayesiana corretta, né le probabilità finali, né quelle iniziali, possono essere uguali a zero o a uno. Rimane sempre l’ombra del dubbio.

L’adottare un’ipotesi scaturisce da una decisione che non va confusa con il calcolo della sua probabilità. La regola bayesiana di decisione (chiamata a volte “criterio del Bernoulli”) prescrive la scelta dell’ipotesi che ha la più grande speranza (in inglese “expectation”). Se si considera trascurabile il rischio dovuto agli errori (se si pensa che lo scegliere un’ipotesi errata, o il respingere un’ipotesi vera, non abbia conseguenze sfavorevoli; che si dispone di tutto il tempo necessario; in sostanza, che non è grave sbagliarsi), allora l’ipotesi che ha la più alta speranza è semplicemente quella che offre, a posteriori, la più alta probabilità. Tale principio “classico” di decisione è senza dubbio più vicino a quello che si adotta nella ricerca pura. Ma il timore delle conseguenze di un errore pesa molto sulla decisione del medico, ancorché generalmente si ritenga più grave respingere un’ipotesi vera (fingere che la persona non abbia un tumore, quando invece ce l’ha), che accettare un’ipotesi falsa (fare come se la persona avesse un tumore, quando invece non lo ha). Se il costo dell’errore, o più generalmente la “desiderabilità” di ogni ipotesi, sono presi in considerazione, la decisione di adottare un’ipotesi maschera un calcolo di speranza, secondo lo schema sviluppato da Pascal e dagli autori della “Logica di Port-Royal”, (1662). Tale calcolo è intuitivamente familiare al medico. Per esempio, la tonsillite nei bambini è spesso curata come tonsillite da streptococco, anche quando un’altra eziologia è giudicata più probabile, in quanto la tonsillite da streptococco è più grave. Nel calcolo classico, il profitto o la perdita previsti sono stimati in termini valutari; in medicina, si tende a stimarli in termini di speranza di vita (soluzione adottata da Daniel Bernoulli nella sua tesi sulla vaccinazione, 1760). Tuttavia, la qualità della sopravvivenza deve avere la stessa importanza della quantità. Il confort individuale non essendo concepibile in modo del tutto avulso dal confort collettivo, il quale implica anche considerazioni economiche, la stima della gravita dei diversi stati di fatto presi in esame non è mai semplice. Le cifre assolute sono meno importanti delle differenze relative. Con opportuni calcoli, si stima il valore probabile di ogni decisione. La condotta da seguire è in linea generale quella che massimizza il valore probabile. Può essere più facile (e più conforme a una pratica medica che vuole prima di tutto evitare di nuocere) formalizzare il calcolo delle utilità in termini di perdite, e descrivere la decisione da prendere come quella che minimizza la perdita previsibile. Le posizioni, comunque, cambiano da un medico all’altro, taluni preferiscono strategie più conservatrici, altri strategie più audaci. L’apprezzamento delle utilità rimane in gran parte intuitivo, e tranne che in campi molto particolari, dove protocolli di decisione sono stati stabiliti, si è ancora lungi dall’aver superato tutte le difficoltà di una valutazione razionale dei rischi.

L’analisi dell’approccio diagnostico (e terapeutico) può essere schematizzata con un albero di decisione. L’albero comporta alternativamente “nodi decisionali” e nodi “aleatori”. Ad ogni nodo aleatorio corrisponde un fatto che porta un’informazione (esempio: sintomo o non-sintomo), modificando la distribuzione delle probabilità riguardanti il possibile stato di cose (malattia o non-malattia), a condizione che si sappia giudicare il valore informativo del fatto (funzioni di verosimiglianza). Ad ogni nodo decisionale, chi decide si da, oltre la suddetta distribuzione delle probabilità, una funzione di utilità (o di perdita), coprendo le conseguenze delle condotte che possono essere prese in considerazione, il che gli permette di calcolare la speranza di ogni condotta. È chiaro che una macchina può essere programmata per effettuare tali calcoli.Invece, quando si tratta dell’elaboratore mentale del clinico, ci si accorge che esso non funziona affatto con un tale rigore analitico. Eppure, il medico esperto riconosce subito l’analisi bayesiana come una formalizzazione scientifica dei suoi normali processi di  I ragionamento. Si tratta, appunto, di analizzare, cioè scomporre in elementi semplici (giudizio di probabilità, giudizio di utilità) un processo complesso (stima dei valori delle scelte), e di isolare in tappe distinte (valutazioni a priori, integrazione di un’informazione, valutazione a posteriori) il progredire delj pensiero. Questa analisi circoscrive anche isole di soggettività: per prendere le decisioni giuste, non è sufficiente saper ragionare, occorre anche saper giudicare. Fin dove il procedimento descritto possiede una “logica”, e fin dove esso utilizza conoscenze obiettive, I può essere spiegato, e essere oggetto di I discussioni scientifiche. Nella misura in cui comporta elementi soggettivi, in particolare l’apprezzamento! delle utilità, ogni essere umano in grado di giudicare può partecipare alle decisioni che lo riguardano: alcuni preferiscono una terapia fastidiosa ma che lascia sperare in alcuni mesi di sopravvivenza, altri preferiscono una morte precoce a una sopravvivenza gravemente debilitata. Non si potrebbe affermare che esiste, per ogni circostanza, un’unica condotta razionale, II compito di una teoria della-razionalità è appunto quello di dimostrare che a diverse norme di giudizio corrispondono diversi tipi di condotte razionali.

Anne M. Fagot

Traduzione dal francese di Anne Reynaud de Mazerat

Anne Fagol-Largeaut è docente alla Université de Paris- Val de Marne, Créteil, Francia. Dottore in medicina si è successivamente specializzata alle Università di Oxford e di Stanford, in storia della medicina, in particolm modo sulle origini del ragionamento statistico-matematico in medicina e sulla valutazione delle cause di mortalità. Autrice dì articoli specializzati pubblicati in riviste di Dori paesi, Anne fagot ha recentemente curato il volume “Médeeine et probabilités, actes de la journée rl’études du 15 décembre 1979”, Institut de recherche universitaire d’histoire de la connaissance, des idées et des mentalités, Université Paris- Val de Marne, Didier-Erudition, 1982.

«Principio» o teorema di Bayes

«Se un evento può essere prodotto da un nu­mero n di cause differenti, le probabilità di esistenza di queste cause associate all’evento stanno tra loro come le probabilità dell’even­to associate a dette cause, e la probabilità di esistenza di ciascuna causa è uguale alla probabilità dell’evento associata a questa causa, divisa per la somma di tutte le proba­bilità dell’evento associate a ciascuna di que­ste cause»

 Laplace (1774) Mémoire sur la probabilità des causes par les événements, § 2. in: Oeuvres complètes, t. Vili, p. 29.

 Traduzione in termini medici

«La probabilità (probabilità a posteriori) di una malattia inclusa in una lista di malattie considerata esauriente, osservato il sintomo E, è proporzionale al prodotto della probabi­lità che si ha di osservare E quando il sog­getto è affetto dalla malattia Hj, per la pro­babilità di riscontrare la malattia Hi (proba­bilità a priori,)».

F.H. Roger (1979) Médecine et informatique, p. 147.

  

 Kos anno 1 febbraio 1984 pg 24-31 Franco Maria Ricci ed.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2.