THE END OF THE BEGINNING

Press release: The Nobel Prize in Chemistry 2020

English
English (pdf)
Swedish
Swedish (pdf)
Logo

7 October 2020

The Royal Swedish Academy of Sciences has decided to award the Nobel Prize in Chemistry 2020 to

Emmanuelle Charpentier
Max Planck Unit for the Science of Pathogens, Berlin, Germany

Jennifer A. Doudna
University of California, Berkeley, USA

“for the development of a method for genome editing”

Genetic scissors: a tool for rewriting the code of life

Emmanuelle Charpentier and Jennifer A. Doudna have discovered one of gene technology’s sharpest tools: the CRISPR/Cas9 genetic scissors. Using these, researchers can change the DNA of animals, plants and microorganisms with extremely high precision. This technology has had a revolutionary impact on the life sciences, is contributing to new cancer therapies and may make the dream of curing inherited diseases come true.

Researchers need to modify genes in cells if they are to find out about life’s inner workings. This used to be time-consuming, difficult and sometimes impossible work. Using the CRISPR/Cas9 genetic scissors, it is now possible to change the code of life over the course of a few weeks.

“There is enormous power in this genetic tool, which affects us all. It has not only revolutionised basic science, but also resulted in innovative crops and will lead to ground-breaking new medical treatments,” says Claes Gustafsson, chair of the Nobel Committee for Chemistry.

As so often in science, the discovery of these genetic scissors was unexpected. During Emmanuelle Charpentier’s studies of Streptococcus pyogenes, one of the bacteria that cause the most harm to humanity, she discovered a previously unknown molecule, tracrRNA. Her work showed that tracrRNA is part of bacteria’s ancient immune system, CRISPR/Cas, that disarms viruses by cleaving their DNA.

Charpentier published her discovery in 2011. The same year, she initiated a collaboration with Jennifer Doudna, an experienced biochemist with vast knowledge of RNA. Together, they succeeded in recreating the bacteria’s genetic scissors in a test tube and simplifying the scissors’ molecular components so they were easier to use.

In an epoch-making experiment, they then reprogrammed the genetic scissors. In their natural form, the scissors recognise DNA from viruses, but Charpentier and Doudna proved that they could be controlled so that they can cut any DNA molecule at a predetermined site. Where the DNA is cut it is then easy to rewrite the code of life.

Since Charpentier and Doudna discovered the CRISPR/Cas9 genetic scissors in 2012 their use has exploded. This tool has contributed to many important discoveries in basic research, and plant researchers have been able to develop crops that withstand mould, pests and drought. In medicine, clinical trials of new cancer therapies are underway, and the dream of being able to cure inherited diseases is about to come true. These genetic scissors have taken the life sciences into a new epoch and, in many ways, are bringing the greatest benefit to humankind.

Illustrations

The illustrations are free to use for non-commercial purposes. Attribute ”© Johan Jarnestad/The Royal Swedish Academy of Sciences”

Illustration: Using the genetic scissors (pdf)
Illustration: Streptococcus’ natural immune system against viruses:CRISPR/Cas9 pdf)
Illustration: CRISPR/Cas9 genetic scissors (pdf)

Read more about this year’s prize

Popular information: Genetic scissors: a tool for rewriting the code of life (pdf)
Scientific Background: A tool for genome editing (pdf)

Emmanuelle Charpentier, born 1968 in Juvisy-sur-Orge, France. Ph.D. 1995 from Institut Pasteur, Paris, France. Director of the Max Planck Unit for the Science of Pathogens, Berlin, Germany.

Jennifer A. Doudna, born 1964 in Washington, D.C, USA. Ph.D. 1989 from Harvard Medical School, Boston, USA. Professor at the University of California, Berkeley, USA and Investigator, Howard Hughes Medical Institute.

Prize amount: 10 million Swedish kronor, to be shared equally between the Laureates.
Further information: www.kva.se and www.nobelprize.org
Press contact: Eva Nevelius, Press Secretary, +46 70 878 67 63, eva.nevelius@kva.se
Expert: Claes Gustafsson, +46 70 858 95 21, claes.gustafsson@medkem.gu.se, Chair of the Nobel Committe for Chemistry


The Royal Swedish Academy of Sciences, founded in 1739, is an independent organisation whose overall objective is to promote the sciences and strengthen their influence in society. The Academy takes special responsibility for the natural sciences and mathematics, but endeavours to promote the exchange of ideas between various disciplines.

“The end of the beginning” è l’aforisma che meglio si adatta alla scoperta epocale in questione:finisce l’era della intangibilità del codice genetico, inizia la dinamica di intervento umano sul genoma stesso.Come per tutte le grandi svolte scientifiche il solito dilemma :è un bene o un male?

Questo mi ha chiesto mio figlia di 9 anni sentendomi commentare il bel documentario dedicato da RAI2 al metodo CRISPR/CAS9.La mia risposta è stata necessariamente generica ma vera:se lo userà uno scienziato buono sarà una cosa buona ,se lo userà uno scienziato cattivo sarà una cosa cattiva.E lei sembra aver accettato questa semplificazione.

Le ho raccontato la storia di L. figlio di un nostro amico colpito da una terribile ,rara malattia genetica.Esempio di tragedia e coraggio, impegno scientifico e disperazione, portato alla pubertà dalla forza caparbia della famiglia e di una ricercatrice visionaria che con un concime chimico per rose importato per molti mesi illegalmente dalla Cina gli ha permesso di sopravvivere sino alla svolta epocale.Oggi L. può sperare in una correzione del DNA, la stessa di cui 15 anni fa affabulavo con il padre. Entrambi in verità privi di ogni speranza.

Per noi quindi oggi è uno dei giorni più’ belli della storia.

Spero di non ritrovarmi tra 15 anni, con L. ormai adulto e sano, a dissertare di un commercio illegale di bambini procreati con manipolazioni genetiche volte a soddisfare le ambizioni dei genitori o degli stati.

Oggi che siamo felici imponiamo subito un tabù planetario:non sarà concesso a nessuno, mai,per nessun motivo manipolare il DNA della linea germinale.Potremo lavorare sul corredo genetico delle cellule somatiche ma non su quello gametico sì da non trasmettere eventuali correzioni alla discendenza.

Nel 2019 due ricercatori Cinesi hanno annunciato di aver applicato con successo il nuovo metodo di editing CRISPR / CAS9 ad embrioni umani…..due gemelli…..

SARS-COV2 perché è difficile fornire risposte precise

Ricevo e volentieri pubblico,su gentile autorizzazione dell’interessato,questa bella sintesi dell’amico Giorgio Tulli,caposcuola dell’anestesia e rianimazione fiorentina,membro appassionato dell’ARS Regione Toscana,cultore delle problematiche inerenti le infezioni ospedaliere e la sepsi.

Grazie Giorgio Firenze 10 Aprile 2020

“anche stasera un momento di riflessione con voi, un pò con l’idea di tenervi compagnia , un pò per sentirmi io con voi .

La riflessione è che:  La pandemia ci ricorda perché gli scienziati e gli esperti non possono rispondere a tutte le domande

La pandemia e le crisi sanitarie forniscono straordinari opportunità per la rapida generazione di informazioni scientifiche affidabili ma anche per disinformazione, soprattutto nelle fasi iniziali, che può contribuire all’isteria pubblica. Il modo migliore per combattere la disinformazione è con dati affidabili prodotti da chi fa ricerca in Sanità. Sebbene impegnativa, la ricerca può aver luogo  durante le pandemie e le  crisi sanitarie ed è facilitata da una pianificazione anticipata, dal sostegno  governativo, da altre opportunità di finanziamento mirate e collaborazione con i partner del settore. La risposta della ricerca sulla malattia da coronavirus 2019 ha messo in luce sia i pericoli della disinformazione, sia i benefici e le possibilità di eseguire ricerche rigorose anche in tempi difficili.

Michel Foucault , nei suoi ultimi anni di vita , era ossessionato  da quello che definiva il trionfo del “potere medico”  e dalla “medicalizzazione”  generalizzata della società . Quasi 40 anni dopo con l’infezione da COVID 19 e con la sua complicazione settica SARS-COV2 ci siamo . Per medicalizzazione Foucault intendeva innanzitutto la fede quasi religiosa nella parola del terapeuta ed il medico che si sostituiva all’uomo di governo nel ruolo di buon pastore che guida la società . Ed ecco che le Istituzioni Scientifiche parlano , danno consigli , indicano percorsi diagnostici e terapeutici , ogni giorno e con sempre maggiore forza affiancano la Politica quasi a voler costruire una fede religiosa nei terapeuti. 

Ma perché dovremmo credere alle istituzioni scientifiche che ci hanno detto , per esempio, che la “mascherina”  serviva solo per gli infetti ed oggi sembrano tornare sui loro passi dicendo che serve a tutti ? Come facciamo a sapere se quello che ci dicono oggi  che gli animali domestici non sono un pericolo non sia falso domani? Se la comunità scientifica si è all’inizio divisa tra chi diceva che il pericolo non era superiore a quello di una influenza e chi annunciava l’arrivo di una pericolosa pandemia, che utilità ha starla ad ascoltare quando si delineano  ulteriori divisioni? Se in Giappone un gruppo di  scienziati ha valutato di iniziare la prova clinica dell’anti-influenzale Avigan, perché in altri paesi come la Corea del Sud invece si è giudicato che fosse inutile  ed in Italia ci si divide tra chi non vuole iniziare un trial clinico  sullo stimolo di un video su YouTube e chi invece non capisce perché dovremmo privarci di un’altra  opzione terapeutica?  Il virus rimane  a lungo in aria , infettando gli ignari passanti oppure no? 

Tutti noi , ricercatori compresi, ci aspettiamo che la ricerca scientifica dia delle risposte univoche, rapide e precise a tutte queste domande. Ci aspettiamo di avere risposte nette e di non vedere se non sporadiche divisioni tra i ricercatori, preferibilmente solo su dettagli tecnici , non su questioni di vitale importanza.  Ma non funziona così . Chi in tempi come questi cerca risposte rapide e nette tende ad affidarsi proprio a quelli che danno risposte senza fondamento , non importa se abbiano una laurea in una disciplina scientifica o no. E non perché la scienza non sia mai in grado di fornire  certezze immutabili , la grossolana ed inadatta spiegazione che gli “oppositori della scienza”  forniscono  a questo fatto. In realtà , il punto sta nell’essenza stessa della ricerca scientifica : solo i dati raccolti ed analizzati con un METODO RIGOROSO possono fornire risposte , e solo la replicazione multipla di un risultato da parte di più gruppi indipendenti dà un minimo di garanzia che non si stiano cacciando farfalle . La rilettura di Galileo magari attraverso le parole di Bertolt  Brecht ci può essere utile in queste lunghe ore di lock-down. Nella attuale emergenza , siamo nella fase di raccolta di in numero elevatissimo di osservazioni  e dati su una nuova minaccia alla salute dell’uomo. Ma lo dovevamo essere anche ieri quando non volevamo raccogliere dati , o ci era impedito, sulle infezioni da batteri multi resistenti agli antibiotici, sulle infezioni correlate all’assistenza, sulla sepsi e lo shock settico, altrettanti gravi minacce alla salute dell’uomo.  Ma prima che si possa rispondere alle domande che ci siamo posti ed ancora a tante altre , bisogna che si faccia pulizia di tutto ciò che ci può fuorviare, delle osservazioni condotte in presenza di troppi  bias , di quelle ottenute su campioni troppo piccoli e di quelle influenzate da fretta e metodi sbagliati. Questo naturalmente , richiede analisi in uno spazio di tempo incompatibile con le notizie dell’ultim’ora che ci martellano ad ogni ora del giorno e della notte: ecco perché proprio le novità che emergono portano a domande le quali, quando rivolte ad uno scienziato ottengono risposte il cui grado di affidabilità è più basso del solito  e che potranno cambiare rapidamente con l’accumularsi dei dati. Il che non vuol dire che non sappiamo già rispondere a moltissime domande sulla base di ciò che già è consolidato in epidemiologia: vuol dire che le risposte saranno inizialmente qualitative e via via sempre più affidabili nello spazio di questi mesi venturi , oltre a cambiare eventualmente di nuovo  perché l’iniziale base su cui poggiavano viene rovesciata da dati di maggiore qualità e consistenza. E’ necessario che tutti impariamo a convivere con una INCERTEZZA  inizialmente ampia e poi  gradualmente sempre più ristretta, senza preoccuparci  troppo se le indicazioni della comunità scientifica date nelle prime ore dell’epidemia dovessero cambiare . Il che naturalmente non significa che ogni affermazione di qualunque ricercatore va fornita dati alla mano, per pochi che siano, senza inventare ipotesi o teorie da dare in pasto al pubblico prima di avere l’evidenza necessaria per supportarle. Per questo ci deve sempre essere in ognuno di noi , impegnato a capire i fenomeni legati alla malattia , l’imperativo etico a lavorare perchè la CONOSCENZA emerga dal rumore di fondo , imperativo etico a non usare egoisticamente un fenomeno per il proprio successo e la propria immagine ma solo per studiare il fenomeno ,  per osservarlo nel dettaglio e nei suoi aspetti di incertezza , per tramutarlo in dati  buoni ed onesti e per questo utili a tutta la comunità scientifica. “

contro la retorica dell’eccellenza

Ho condiviso questo testo ,con il quale concordo pienamente, dal blog di A.Zhok Antropologia filosofica.Contiene una riflessione importante sulla parola chiave del sottotitolo del mio blog surgeryindeed “innovating strategies toward excellence”.Anche io credo che l’insistente richiamo all’eccellenza rappresenti forse un valido slogan dinamico e giovanilistico,buono per persuadere gli ignari di essere di fronte ad istanze innovatrici.E’ il motivo per cui ho scelto questa frase.Ma anche io concordo sulla sfumatura retorica ed autoreferenziale della parola eccellenza, concordo sulla evidenza che nessuna società funziona sulla base di un pugno di eccellenze quanto piuttosto su una maggioranza di persone che fanno bene il loro lavoro.E non voglio entrare qui nella evidenza tutta italiana in cui la massima perversione corruttiva si raggiunge nel definire eccellenza la piu’ evidente mediocrità .Cio’ nonostante nella pratica chirurgica ,quotidianamente a contatto con il rischio e la metodicità,l’aspirazione al nuovo ,alla nicchia tecnologica, al risultato ineccepibile e mininvasivo costituisce un motore importante per la crescita.Forse la vera parola chiave del mio motto potrebbe quindi essere”toward” piuttosto che “excellence”.Buona lettura.

Luca Felicioni 16 gennaio 2018

Sono oramai diversi anni che in Italia la parola “eccellenza” ha acquisito un’aura particolare, salvifica, quasi escatologica. Ogni uomo politico che conti – anche solo moderatamente – si sente in obbligo di invocare l’orizzonte dell’eccellenza come ciò che conferisce dignità ultima a qualsiasi attività, come modello da estendere ad ogni lavoro, produzione, istituzione.

Questo appello all’eccellenza non è rimasto questione semantica, ma si è tradotto in norme e indirizzi, con particolare riferimento a scuola e università ma estendendosi all’intera sfera del made in Italy (per definizione, naturalmente, un’eccellenza). Il riferimento ideale all’eccellenza si è così tradotto nell’idea che ogni attività lavorativa debba essere concepita un po’ come un campionato sportivo, dove è giusto che nutrano aspirazioni di dignità solo quelli che insidiano la vetta. Di contro, tutti i ‘non eccellenti’ devono solo prendersela con sé stessi se non ottengono riconoscimento. Le varie introduzioni di ‘bonus premiali’ ai docenti della scuola, di aumenti premiali ai docenti universitari, di finanziamenti premiali ai dipartimenti e alle università, o similmente le risorse premiali previste nella ‘riforma della pubblica amministrazione’, ecc. vanno tutte in questa direzione, dove normalità è assimilata a mediocrità, mentre dignità e onorabilità sono riservate alle ‘eccellenze’.

Il problema di questo modello non è che sia ‘meritocratico’ – e che dunque sia avversato da impaludati e retrogradi ‘antimeritocratici’. No. Il problema è che si tratta di un modello di società, e di azione collettiva, fallimentare.

Nessuna società funziona sulla base di un pugno di eccellenze, e per definizione le eccellenze non possono se non essere una minoranza. La nozione di eccellenza è infatti una nozione differenziale: si è ‘eccellenti’ in quanto si è virtuosamente fuori dall’ordinario. L’idea che, per veder riconosciuta la dignità di ciò che si fa, si debba appartenere al novero degli eccellenti è la ricetta per un sicuro naufragio, e lo è proprio sul piano incentivale. Infatti l’appello a questa ‘eccellenza di massa’ naufraga per tre ragioni fondamentali.

La prima è banalmente numerica: se conferisco riconoscimento pubblico (dignità, tutele, benefit) solo all’eccellenza (vera o presunta) creo il terreno per una frustrazione di massa, giacché la maggioranza per definizione verrà privata di riconoscimento. Qui non è solo in causa il fatto che la maggioranza non eccellerà per definizione, ma ancor di più il fatto che ciò non verrà accettato per natura. In un sondaggio sociologico di qualche anno fa emerse come il 94% degli intervistati ritenesse di essere, quanto alla qualità del proprio lavoro, al di sopra della media dei propri colleghi. A prescindere da chi si sia sbagliato e di quanto, appare chiaro che le autocandidature in buona fede all’eccellenza saranno sempre ampiamente eccedenti rispetto alle posizioni disponibili. Il meccanismo stesso non può non generare vaste aree di malcontento.

La seconda ragione è legata ai ruoli sociali, ed è più radicale. Per quanto recentemente ci si sia abituati a creare forme competitive e gerarchie piramidali per molti mestieri che una volta ne erano privi (si pensi ai cuochi di Master Chef), è chiaro che, per quanto ci si ingegni, la stragrande maggioranza delle attività che fanno andare avanti una società non si presterà mai a valutazioni competitive. Non c’è sensatamente posto per super-lattonieri, cassiere fuoriclasse, campionissimi dell’assistenza infermieristica, controllori iperbolici, assi della raccolta rifiuti, ecc. Prospettare una società in cui riconoscimento ed eccellenza vanno di pari passo significa prospettare una società dove la stragrande maggioranza delle occupazioni nasce con uno stigma di mediocrità e indegnità. (Curiosamente, gli stessi che propongono questa retorica dell’eccellenza li troviamo poi a chiedersi pensosi com’è che i giovani non siano più attratti da questo o quel mestiere.)

Lodare e premiare l’eccellenza può avere un’utile funzione sociale, fornendo modelli motivanti per la gioventù in formazione, ma non può mai essere sostitutivo del più fondamentale e importante dei modelli, quello dove si coltiva semplicemente la capacità di fare bene il proprio dovere. Per quanto ciò possa suonare conservatore e poco glamour, non c’è nessun sostituto prossimo ad un modello che nutra e alimenti la dignità del lavoro come orgoglio per aver svolto il proprio dovere, senza salti mortali ed effetti speciali. Solo l’idea di dare un contributo a quell’impresa non banale che è il buon funzionamento di una società può sostenere nel tempo uno stato, una comunità, una civiltà. Uno sguardo storico all’Ethos civile delle civiltà storiche più forti e longeve (da Roma antica all’Impero Britannico) può mostrare bene come, accanto all’elogio di individualità e virtù eminenti, fosse cruciale la coltivazione dell’orgoglio di essere semplicemente parte di quell’azione collettiva, di quella forma di vita.

L’unica forma di ‘meritocrazia’ davvero indispensabile consiste nell’essere in grado di stigmatizzare efficacemente ed eventualmente punire i ‘free riders’, gli opportunisti neghittosi che, all’ombra del contributo dei più, si scavano nicchie di nullafacenza. Un sistema deve cioè essere sempre in grado di eliminare, per così dire, la ‘morchia sul fondo del barile’, in quanto per valorizzare chi fa il proprio dovere deve stigmatizzare chi ad esso si sottrae intenzionalmente.

Ciò ci porta alla terza e ultima ragione della nequizia di una retorica dell’eccellenza.

Mentre riconoscere le componenti subottimali di un sistema, come i free riders, è compito relativamente facile, riconoscere l’eccellenza è un compito estremamente arduo e mai sistematizzabile in modo efficiente. L’eccellenza, per natura, è ciò che è fuori dall’ordinario in quanto presenta caratteristiche supplementari ed eccedenti rispetto alla norma. Per questa ragione l’eccellenza fatica sempre ad essere riconosciuta come tale dalla norma. D’altro canto, solo la norma (la medietà) può formare il giudizio che in ultima istanza riconoscerà l’eccellenza. Il ‘genio incompreso’ è quasi un cliché storico, ma è un cliché fondato su infiniti esempi e su un meccanismo pressoché fatale. Ogni autentica eccellenza in quasi qualunque campo verrà sempre riconosciuta con difficoltà proprio per i suoi tratti fuori dal comune. Un sistema che si vanta di conferire riconoscimento alle sole eccellenze finisce tipicamente per diventare invece un sistema che premia solo i più conformisti e ambiziosi tra i mediocri. Una volta di più ad emergere in primo piano è un modello che, lungi dal fornire incentivi all’azione sociale, genera risentimento.

Concludendo, l’insistente richiamo all’eccellenza rappresenterà forse un valido slogan, dinamico, giovanilistico, buono per persuadere gli ignari di essere di fronte ad istanze innovatrici, ma è di fatto un modello valoriale puramente retorico, vuoto e seriamente controproducente.

A.Zhok Antropologia filosofica 2018

le libertà di pensare ed agire sono una illusione?

E’ singolare che un chirurgo abbia frequentato un intero corso annuale di psichiatria durante la propria formazione universitaria e ne ricordi distintamente i contenuti ed  il docente che lo teneva.Eravamo intorno alla metà degli anni ’80 ed il docente che si occupava allora intensamente di “drug addiction” era un emergente Vittorino Andreoli.Lucido e moderno.Da allora ho seguito la sua evoluzione culturale e mediatica.Il suo metodo mi ha sempre convinto.Oggi un suo breve ed incisivo intervento sulla stampa mi aiuta ad esemplificare i dubbi crescenti che tutti noi nutriamo riguardo ai concetti tradizionali di “libertà” ed ,aggiungo io, “razionalità”.Un ripensamento radicale sul “cogito ergo sum”che dà il nome a questa rubrica!

 

La libertà è un’illusione :i meccanismi con cui l’incoscio guasta i nostri progetti

di Vittorino Andreoli

Psicopatologia della vita quoti­diana di Freud viene pubblicato nel 1901, un anno dopo L’interpretazione dei sogni con cui si fa na­scere la psicoanalisi. Pur avendo avuto aggiunte fino al 1924, è dun­que una delle opere di base nella costruzione del pensiero e della tecnica psicoanalitica. Nonostante l’«età» sono molti i punti utili alla modernità, e ciò che mi pare anco­ra rivoluzionario è quanto Freud ci dice sulla libertà.

Come si pone il legame tra que­sta aspirazione e l’inconscio? Ri­mane, nonostante le diverse modulazioni, la certezza di una parte inconscia dentro I’lo, una compo­nente della struttura di personali­tà di cui non abbiamo consapevo­lezza e che tuttavia agisce e condi­ziona il nostro comportamento.

Se dunque è possibile scegliere un’azione e fortemente volerla, ciò non impedisce all’inconscio di entrare nei nostri progetti e desi­deri fino a renderne impossibile la realizzazione oppure a compierli in un modo diverso da come avremmo voluto: il divario tra es­sere e voler essere. Pertanto la li­bertà come possibilità di scelte qualsiasi è illusoria. E sul piano pratico si scontra sempre con limiti e blocchi che noi stessi incon­sciamente poniamo alla realizza­zione di quelle scelte.

Verrebbe da dire che la libertà ri­mane un’idealizzazione rispetto a condizioni esistenziali che invece ci tengono dentro un percorso che non è mai scelto, ma almeno in parte imposto. E la libertà rimane un’illusione. Freud non elabo­ra queste considerazioni sulla ba­se di una teoria, di un sapere dun­que astratto, ma le svela attraver­so le piccole cose, quei fatti che riempiono la quotidianità: gli atti mancati,gli automatismi comportamentali, i lapsus, le amnesie. So­no certo di aver chiuso la porta, ma la controllo ancora tre volte.

L’inconscio insomma si intro­mette silenziosamente e misterio­samente per impedire di compie­re gesti o azioni che potrebbero ri­portare ad esperienze traumatiche e dunque dolorose, oppure al con­trario inserisce la propria forza e conduce ad azioni che sostituiscono quelle programmate. Forze che si legano ad una memoria inconsa­pevole che dunque agisce senza giungere alla coscienza.

Il tema della libertà non ha an­cora tenuto in debito conto questa dimensione del nostro Io e noi fin­giamo di pensare ad un uomo libe­ro che capisce e vuole e dunque sceglie razionalmente un compor­tamento (intelligere) e vi applica la volontà per realizzarlo.

Un assunto assurdo alla luce del­la Psicopatologia della vita quoti­diana che è però ancora stampato nel codice penale: si afferma che la responsabilità si lega alla «capa­cità di intendere e/o di volere». Ed è questo il quesito che il giudice chiede al perito psichiatra per po­ter decidere e stabilire la pena.

Insomma dominano il capire e il volere. E l’inconscio? Come si fa a parlare di libertà e di responsabi­lità, ignorandolo?

Non è certo mia intenzione to­gliere la responsabilità nell’agire, ma soltanto sostenere (come Freud 110 anni fa) che non si può capire e giudicare un’azione e dun­que un uomo senza considerare questa dimensione dell’Io che al­berga in ciascuno di noi.

Corriere della Sera Venerdì 13 Maggio 2011

medicina e probabilità

Medicina e probabilità

Nessun medico ignora la parte di “scommessa” e di azzardo connessa alle pratiche del diagnosticare e del curare; poco tuttavia se ne parla (quasi si temesse di rivelare debolezze e alee della professione) e poco i medici sanno dei fondamenti della statistica e della probabilità.

A questi fondamenti, e alle loro intersezioni con il sapere medico, è dedicato quest’articolo.

 “L’arte della medicina è congetturale”, scriveva Celso venti secoli orsono; “è proprio della congettura essere più spesso vera che falsa, ma talvolta di essere non pertinente. Un segno che inganna una volta su mille non deve essere respinto, poiché da affidamento nella maggior parte dei casi effettivi” (De medicina, ii, 6). Una lunga tradizione radicata nel Corpus ippocratico vuole che il buon medico sia colui che fa una diagnosi giusta, perché “sa valutare i segni e calcolarne il valore” (Prognosi, 25). Certo, non c’è intuizione senza esperienza, trasmessa o acquisita. Lo studente ha appreso dai suoi maestri che “l’epilessia non si dichiara dopo i vent’anni a meno che non covi fin dall’infanzia” (Sul morbo sacro, 13), che “le diete liquide sono opportune in tutti i casi di febbre soprattutto nei giovani” (Aforismi, 16), che “le sudorazioni più benefiche nelle malattie acute sono quelle che avvengono nei giorni critici e che stroncano la febbre” (Prognosi, 6). Il medico deve sempre essere attento alle regolarità empiriche (Acque, arie, luoghi, 1): l’andamento delle affezioni cambia con il clima, la stagione, il regime dei venti e delle acque (“Perché la gente si sente più stanca quando il vento soffia dal sud?” si legge nei Problemi aristotelici, XXVI, 42). Ma al capezzale di un paziente, per ricostruire il corso della malattia e prevederne l’evoluzione (la prognosi ippocratica), non è sufficiente esprimere dati generici, occorre riflettere su ciò che ci è dato osservare nel caso particolare: più il medico è in grado di identificare i sintomi e interpretarli, più la conclusione che trarrà dalle sue osservazioni avrà probabilità di essere esatta (Prognosi, 25). I filosofi contemporanei di Ippocrate hanno tentato di descrivere questo tipo di ragionamento nel quale, da premesse parzialmente incerte o lacunose, si sfocia alla conclusione più probabile. Platone oppone le scienze della natura alla matematica: in geometria un’argomentazione plausibile non ha valore, si esigono dimostrazioni che procedono per necessità (Teeteto, 162e), mentre per la spiegazione di fenomeni naturali ci si deve accontentare di una ricostruzione verosimile dei fatti ( Timeo, 29c). Aristotele conferma che è necessario “esigere, in ogni materia, soltanto quel rigore che la natura del soggetto comporta”: “trattandosi di cose che sono vere soltanto in modo approssimativo, e partendo da premesse la cui verità non è neppure assoluta, non si possono trarre conclusioni che superino in certezza ciò che le fonda” (Etica Nicomachea, I, p. 3). Più tardi, Carneade paragona la procedura diagnostica a una procedura giudiziaria: per un affare banale, ci si rimette a un solo testimone (un sintomo), nei casi più seri, si interrogano svariati testimoni (un insieme di sintomi: una sindrome), per le questioni più gravi ancora si confrontano i testimoni e si correggono le testimonianze l’una con l’altra (Cf. Sextus Empiricus, Summa contra logicos, I, p. 182). Presto fu intuita l’esistenza di una “logica” comune agli argomenti di probabilità, qualunque sia il contesto, teorico o pratico, nel quale essi appaiono: in tribunale per stabilire i diritti delle parti, negli affari per giudicare il miglior investimento, in meteorologia per prevedere l’evoluzione del tempo, dal pulpito per difendere la religione dagli attacchi degli increduli. Si tratta sempre di raccogliere indizi, discuterne il valore, valutare il grado di plausibilità che essi conferiscono alle ipotesi da prendere in considerazione. La valutazione rimarrà pur sempre qualitativa, sino alla fine del Medio Evo quando, nell’ambiente dei mercanti europei, si diffonderà l’abitudine di valutare numericamente le perdite e i profitti aspettati. Così, per assicurare un  carico contro i pericoli del mare, le compagnie di assicurazioni calcolarono l’ammontare del premio tenendo conto del prezzo del carico e del rischio corso durante la traversata. “Periculum sortis incertum debet reduci ad certum pretium”, scriveva Lessius (1606). Non c’è molta differenza tra l’imprenditore, titubante su un affare con scarse probabilità di rendergli molto, contro uno più sicuro ma meno redditizio, e il medico che, per ridurre una frattura, esita fra un metodo senza troppi rischi per il paziente, ma a risultato funzionale mediocre, e un altro che fornisce solo irregolarmente brillanti risultati. Tuttavia i medici si mostrarono per molto tempo riluttanti ad esprimere in modo quantitativo le intuizioni che sottendono le loro scelte diagnostiche e terapeutiche. Ciò nonostante, la “teoria dei casi” trovò una sua forma matematica. La storia della sua nascita è stata descritta altrove.E’sufficiente ricordare qui che durante il diciottesimo secolo furono formulati sia i metodo di valutazione delle probabilità delle ipotesi, tenendo conto dell’informazione disponibile (Thomas Bayes, 1763; ripreso da Laplace, 1774), sia delle regole decisionali per le situazioni aventi una certezza parziale (minimax: de Waldegrave, 1712 ; massimizzazione dell’utilità: Daniel Bernoulli, 1738).

Claude Bernard constata, a metà del secolo diciannovesimo, che la medicina non si è ancora portata al livello di autentica pratica scientifica, malgrado lo sforzo fatto per accertare le correlazioni tra sintomatologia clinica e lesioni anatomiche sottostanti. Egli critica senza mezzi termini l’atteggiamento dei suoi colleghi: in ospedale, rimangono nell’aspettativa, scettici sull’efficacia dei rimedi; in città si prodigano in terapie dato che la clientela le esige, ma non fanno altro che dell’empirismo. Salassano i malati di polmonite, e questi guariscono: “II salasso guarisce la polmonite”, dicono allora. Taluni forniscono addirittura una statistica dei casi di polmonite salassate, e guarite. Ma non si è dimostrato un bel niente, sbotta Claude Bernard, finché non si è realizzata l’esperienza complementare che fa da “contro-prova”: “per ciò, è necessario … aver un certo numero di malalati colpiti da polmonite, tra loro paragonabili quanto più possibile per età, natura della malattia, ecc, di cui metà sono stati curati con salassi e metà con niente, cioè lasciati in attesa”.L’esperienza è stata tentata: “si è concluso che le polmoniti non salassate guariscono né più né meno delle altre.”Un medico che pratica il salasso in caso di polmonite fa … solo un esperimento.Se si fanno esperimenti, allora tanto vale farli correttamente. L’atto medico è una sfida alla natura, in un gioco dove ogni caso nuovo, individuale e diverso da ogni altro, è curato nel miglior modo secondo gli insegnamenti tratti dai casi precedenti, e fornisce a sua volta un’informazione in grado di influire sugli atteggiamenti futuri.” Invece di attenersi a generalizzazioni empiriche approssimative, Claude Bernard si augurava che venissero approfondite le singolari particolarità per scoprire, sotto l’apparente irregolarità dei fenomeni generici, il granitico basamento dei determinismi “assoluti e necessari”, la conoscenza dei quali permette in seguito di “prevedere e agire nel modo giusto”. Quindi la sua diffidenza nei confronti della statistica: “è più facile conteggiare i casi prò e contro che fare un ragionamento sperimentale”. Constatare, nella febbre tifoidea, che la diarrea si manifesta in 90 casi su 100, non spiega perché la diarrea è assente nei 10 rimanenti casi: deve esserci una causa precisa per tale variabilità sintomatologica, causa che lo studio differenziale dei casi deve mettere in evidenza. La saggezza medica comporta per tradizione un certo relativismo: ad ogni legge le eccezioni sono possibili, la natura è così complessa che nessuna generalità è vera in modo assoluto. Claude Bernard insorge con vigore contro tale credenza, persuaso che costituisca un fattore di ristagno. Biferisce di aver sovente discusso, con colleghi, il caso della vaccinazione; “La vaccinazione ha sempre successo o non lo ha mai a seconda delle condizioni”, egli assicura. “Dite quel che volete, ma la verità è che non sempre riesce”, insistono gli altri. C’è chi pensa che, di fronte all’insuccesso, il compito di una medicina scientifica sia di scoprirne la causa, e di darci la totale padronanza del fenomeno facendoci conoscere le condizioni esatte da soddisfare affinchè la vaccinazione abbia un successo assicurato. Altri giudicano illusoria, se non addirittura pericolosa, l’idea che si possa possedere una scienza compiuta,applicabile infallibilmente alla diversità sempre rinnovata degli esseri umani e dei loro ecosistemi.

Riflettendoci, si scoprirà forse che le due posizioni sono complementari più che opposte. Il “bernardiano” ritiene ogni fenomeno strettamente determinato dalle sue condizioni di esistenza, ma le condizioni nelle quali emergono i fenomeni non si riproducono mai in modo identico: egli crede alla regolarità e cerca le differenze. Il suo antagonista contempla una instabilità della natura: cause analoghe possono produrre effetti diversi, e cause diverse effetti analoghi. Egli crede nella diversità e cerca la regolarità. Infatti, non è necessario credere al caso per constatare le irregolarità, né attenersi al determinismo universale per trovare delle costanti. I fatti passati in rassegna dalla medicina sono poco stabili. Ignoriamo se si tratti di apparenze legate all’imperfezione delle nostre conoscenze, o di un elemento casuale insito nel funzionamento degli organismi. Non sappiamo se tutto procede da una ragione, oppure la natura a volte gioca di azzardo. Claude Bernard temeva che a furia di dubitare della regolarità dei fenomeni naturali si arrivasse ad accontentarsi di strategie intellettuali poco scientifiche. Ma l’evoluzione della medicina ha mostrato che è possibile ragionare con rigore su fenomeni irregolari senza giudicare a priori l’esistenza o meno di un determinismo latente, così come si può dominare un modicum di casualità, senza pretendere che tutto sia in linea di principio prevedibile. Fare congetture non è una sventura, purché tali congetture siano ritrattabili, e siano realmente ritrattate alla luce di ogni nuova informazione. I primi tentativi di “informatizzare” la diagnosi furono fatti alla fine degli anni 50′. Essi hanno consentito una notevole riflessione sui processi del ragionamento investigativo, il quale comunque non è appannaggio solo dei medici, ma viene anche praticato dai ricercatori scientifici, dai detectives, ecc.

 Questi tentativi hanno spesso collimato con i risultati delle analisi dei matematici probabilisti, vecchie di due secoli, in particolare con la prospettiva “bayesiana”. Alcuni medici (come il Dott. Jack Myers, internista a Pittsburgh), hanno sottoposto le loro operazioni intellettuali alla dissezione dei logici di mestiere. Cosa fa, in sostanza, colui che ricerca una diagnosi? Raccoglie ogni informazione disponibile, ne valuta l’importanza relativa, evoca ogni ipotesi in grado di spiegare i fatti, stima la verosimiglianza di ogni ipotesi nei confronti dei fatti, e generalmente procede per eliminazioni: tenta di squalificare il maggior numero possibile di ipotesi, trovando segni che le rendono improbabili, e di corroborare quella più plausibile con gli argomenti più forti di cui dispone. Da che cosa dipendono gli errori diagnostici? Molti provengono da omissioni (un’ipotesi è stata trascurata): l’elaboratore elettronico, date le sue capacità di memorizzazione, può essere utilissimo in questo caso, ricordando al medico l’elenco di tutte le malattie nelle quali si osserva un dato sintomo, eventualmente in ordine di frequenza decrescente, fino alle malattie più rare. Qualche errore è dovuto a diagnosi troppo affrettate (precipitazione o prevenzione, avrebbe detto Cartesio): si deduce che si tratta di quella data malattia sulla base di indici troppo scarsi. Per le esigenze stesse della sua programmazione, l’elaboratore permette di controllare che ogni tappa è stata considerata, e che ogni possibilità è stata correttamente esaminata. La lentezza del lavoro assistito dall’elaboratore può qualche volta spazientire: un clinico consumato è più svelto a districare il caso. Ma per lo studente è una buona scuola di metodo, come è stato dimostrato da recenti esperimenti nelle facoltà di medicina. E abbiamo tutti bisogno ogni tanto di ridiventare studenti.

L’insegnamento medico tradizionale addestra alla soluzione di problemi che, nel linguaggio probabilista, sono chiamati problemi diretti: data la malattia, descrivere i segni con i quali essa si manifesta (dato il colpevole, ricostruire il delitto; data un’urna la cui composizione è nota, indovinare quale tipo di campione ne sarà estratto). In presenza del paziente, il medico deve invece risolvere il problema inverso: dati i sintomi, trovare la malattia che li causa (dato il delitto, scoprire il colpevole; dato il campione prelevato, indovinare la composizione dell’urna). Per “fare la diagnosi”, ci dicevano i Maestri, “non basta consultare la vostra memoria o i vostri libri, occorre ragionare’. Infatti, la soluzione dei problemi inversi fa intervenire un tipo di ragionamento (induttivo?) per il quale il teorema di Bayes rappresenta all’incirca ciò che il modus ponens rappresenta per il ragionamento deduttivo (una regola d’inferenza). Il fatto che questo tipo di ragionamento sia soprattutto insegnato per esempi non impedisce — una volta tanto — di estrarne la “logica”. Iniziamo dall’immagine che, per quanto semplicistica, ha già dato prova del suo valore pedagogico.”‘

Allorquando un paziente va a consultare un medico, immaginiamo che il medico disponga di un certo numero n di urne (ipotesi diagnostiche) (fare una diagnosi vuole dire selezionare un’urna). La probabilità a priori che un’urna qualsiasi tra le n ha di essere scelta è anche chiamata “possibilità” della diagnosi. Il paziente ha estratto da una delle urne, all’insaputa del medico, un biglietto (la scelta dell’urna è stata fatta in assenza del medico, la persona ha “preso” una certa malattia). Il medico esamina il biglietto (il quadro sintomatico che il paziente offre). Il medico conosce la composizione delle urne. Valuta la possibilità che il biglietto provenga da tale o tale urna. La probabilità che l’ipotesi i-esima da all’evento (cioè che il biglietto provenga dall’urna i-esima) è la misura della verosimiglianza dell’ipotesi i-esima. 11 medico deve indovinare da quale urna è stato estratto il biglietto, cioè trovare la diagnosi che, a posteriori (dopo l’esame dei fatti), appare più probabile. Si tratta di riconsiderare, al lume dell’osservazione, la distribuzione iniziale delle chances che egli attribuiva alle diverse ipotesi. Qui sta il nerbo del ragionamento. Secondo il teorema di Bayes, la probabilità riveduta di un’ipotesi è’ proporzionale al prodotto della sua probabilità iniziale (a priori), con la verosimiglianza conferitale dai fatti.

Il fattore di proporzionalità è l’inverso della probabilità dell’evento stesso, cioè l’inverso della probabilità del “quadro clinico” considerato in sé e per sé. La procedura è iterativa. Se, al termine dell’esame clinico, il medico non ha elementi sufficienti per designare un’ipotesi decisamente più probabile delle altre, chiede al paziente di estrarn dall’urna un altro biglietto (prescrive esami complementari). I risultati della seconda prova permettono di riconsiderare la congettura precedente, così di seguito. Nei casi semplici (quani la vita del paziente non è in pericolo, quando la diagnosi sembra ovvia o importa poco precisarla meglio), la procedura si tronca dopo due o tre cicli il medico prescrive la terapia più adatta all’affezione giudicata più probabile (a volte una terapia mista, quando due ipotesi emergono a parità!), e adotta un atteggiamento di attesa (pensando ci un raffreddore non merita una radiografia e che, solo se un fenomeno nuovo dovesse manifestarsi, verrà il momento di riconsiderare il problema). Ci sono casi in cui è meglio non spinge oltre la diagnosi (quando il fastidio arrecato dalle analisi è peggiore di quel della malattia, oppure quando non si prevede alcun beneficio terapeutico da informazioni più precise). Ci sono inve diagnosi fatte per puro puntiglio, sottoponendo il paziente a tutta una sei di esami che rispecchiano e alimentano una ricerca a tastoni. Il limite da porre dipende dal prezzo che si è disposti a pagare per acquisire una maggiore certezza, dalla presunta utilità delle informazioni ricercate, dai rischi in cui incorre il paziente. Il calcolo delle probabilità, che costituisce l’inferenza diagnostica vera e propria, si integra a i calcolo di speranza matematica, dove 1 gravita delle conseguenze è presa in considerazione insieme alla loro probabilità. L’analisi del ragionamento medico deve allora passare attraverso g schemi della teoria della decisione.

 Fare una congettura iniziale, ricorrere a una esperienza-test, modificare la congettura secondo i risultati dell’esperienza: i tre tempi di questo procedere ricordano la procedura sperimentale descritta da Claude Bernard. Procedura “dubitativa” perché si fonda su ipotesi. Claude Bernard l’indovinava essere “deduttiva” nel senso in cui non si conclude più di quanto le premesse consentono. Lo metteva però in imbarazzo il fatto che ai suoi tempi “deduttivo” significasse “riducibile a una forma sillogistica valida”. Prendendo il termine “deduttivo” nel senso in cui è oggi inteso dai logici (diciamo: nella logica del prim’ordine), si può affermare che esistono ragionamenti investigativi interamente deduttivi. Esempio: per ipotesi, questo paziente ha una delle malattie A, B, C, … o nessuna di queste. Presenta il sintomo Er Non si osserva mai E, nella malattia A. Conclusione (per modus tollens): non ha la malattia A. Se avesse la malattia B, il test E2 sarebbe positivo, poiché lo è sempre in quella malattia. Il test E2 è negativo. Dunque non ha la malattia B (modus tollens, ancora). Supponiamo che le ipotesi formatesi inizialmente siano insieme esaurienti, e si escludano mutuamente, e che con una serie di test si possa eliminarle tutte tranne una: si potrebbe concludere con certezza deduttivamente) che la diagnosi rimasta è quella giusta. Lo si farebbe forse più volentieri disponendo di argomenti positivi? Prudenza! Il fatto che, nella malattia C, il sintomo Ev è sempre presente, non permette, constatando E.,, di concludere la presenza di C (non c’è febbre tifoidea senza febbre, ma ci può essere febbre senza che si tratti di febbre tifoidea, l’assenza di febbre permetterebbe di escludere la febbre tifoidea, la sua presenza non autorizza pero l’affermazione positiva). Quello che occorre, per una diagnosi positiva, non è un segno di cui la malattia implica la presenza, ma un segno la cui presenza implica la malattia. Tali segni, detti patognomonici, sono rari e preziosi. Permettono, a chi li sa riconoscere, una diagnosi di certezza quasi istantanea (osservo E(, E4 implica D, dunque – per modus ponens — affermo D). Ma i segni che non mancano mai sono così poco frequenti in medicina come i segni patognomonici. Perciò è eccezionale che si possa ragionare in modo deduttivo ai sensi della logica ordinaria: i fatti non si prestano.

“Un ascesso freddo paravertebrale fa pensare imperativamente alla tubercolosi ossea (morbo di Pott)”. “La cirrosi facilita l’insorgere di un tumore del fegato”. “Nella malattia di Parkinson, una sindrome depressiva è possibile’. “Ogni flebite comporta un rischio non trascurabile di embolia polmonare”. “Le forme respiratorie della poliomielite, più o meno frequenti secondo le epidemie, si osservano più sovente nell’adulto (1/2) che nel bambino (1/20)”. “La mortalità nel tetano è attualmente del 30%”. “La stenosi mitralica è una complicazione frequente del reumatismo articolare acuto trascurato”… Le risorse della logica del prim’ordine non aiutano direttamente nella formalizzazione di simili enunciati. L’uso dei quantificatori permette di enunciare che in tale o tale malattia, un dato sintomo si presenta in ogni caso, in certi casi, o in nessun caso. Si vuole poter dire in quale proporzione dei casi.

Sembra ovvio ricorrere alla probabilità. Quando si passa al linguaggio delle probabilità, il caso puramente deduttivo diventa in certo modo un caso-limite, realizzato quando tutte le probabilità sono uguali a zero o a uno. Dire che la malattia A provoca sempre l’effetto E (A implica E) equivale a dire che la probabilità di E, dato A, è uguale a 1. A seconda che, nella malattia A, il fenomeno E sia presente quasi sempre, spesso, una volta su due, raramente, eccezionalmente, si dirà che la probabilità di E, dato A, è per esempio uguale a 1-e. superiore a 0,7, pressoché uguale a 0,5, inferiore a 0,2, uguale a e … Dal fatto che l’ipertensione “favorisce” l’emorragia cerebrale, non consegue che ogni emorragia cerebrale sia provocata da un’ipertensione arteriosa. Ciò non impedisce di capire come l’emorragia cerebrale sia un esito dell’ipertensione, né di fare la diagnosi eziologica di un’emorragia cerebrale. Anche se lo svolgimento dei fatti non è strettamente “logico” (perché certe cirrosi si complicano con epatoma e altre no? Perché una persona con un’ipertensione moderata ha un’emorragia cerebrale, mentre l’altra, con un’ipertensione più grave, è risparmiata?), si può arrivare a conclusioni plausibili (questa emorragia è dovuta all’ipertensione) tramite una procedura che ha la sua propria “logica”.

La procedura “bayesiana” permette di ragionare rigorosamente su situazioni che comportano una parte d’incertezza o d’irregolarità.

Una malattia si riconosce da certi “segni”. Chiamiamo X (spazio fondamentale, o spazio delle possibilità elementari) l’insieme di tutti i segni o eventi E,, E2,… EK… (normali o patologici) aventi un significato medico e che sono studiati dalla semeiotica. La tradizione distingue i segni funzionali, raccolti attraverso una sorta di interrogatorio (ciò che il malato lamenta; insonnia, cefalea, dolori, dispepsia, fitta al fianco, …), i segni fisici (raccolti dall’esame clinico: pallore o cianosi manifestati allo sguardo, tumore sensibile alla palpazione, opacità individuabile con la percussione, rantoli crepitanti per mezzo dell’auscultazione, …), e i segni raccolti indirettamente da esami complementari più o meno strumentali (esame microscopico di secrezioni, dosaggio di sostanze nel sangue, radiografia di organi, …): ogni nuova tecnica d’investigazione apre un nuovo campo semiologico. Occorre che il medico abbia appreso a identificare i segni (riconoscere: un arrossamento, un’adenopatia, un mughetto, una rigidità meningea,…); a cercare certi segni in particolari contesti (segno di Lasègue nella sciatica comune, segno di Babinski quando si sospetta una sindrome piramidale, …); a analizzareie caratteristiche differenziali (soffio cardiaco sistolico o diastolico, con massimo apicale o csifoideo irradiante all’ascella o sotto la clavicola, a timbro ronzante o “a getto di vapore”, …); a interpretare i risultati dei vari esami (riconoscere il profilo di un’anemia alla lettura di un quadro ematico, per esempio).

L’esperienza, la memoria, e l’attitudine a riconoscere le “forme” (strutture), concorrono con una componente casuale (poiché ci sono segni fuggevoli) ai fini della collazione semiologica. Il processo d’interpretazione, che è sulla via della diagnosi, può già esser analizzato in uno stile “bayesiano” (l’interpretazione di esami specializzati come l’elettrocardiogramma o la scintigrafia cerebrale sono state oggetto di modellizzazioni informatiche già negli anni 60).L’insieme delle possibili malattie può essere rappresentato da una famiglia F di sotto-spazi di X, se si accetta di considerare una malattia come la costellazione dei suoi eventuali sintomi (il “quadro patologico”, composto da tutto ciò che può essere manifestazione del disturbo organico o psichico). Tali quadri si modificano con l’evoluzione delle conoscenze mediche, si alterano i raggruppamenti, si individuano nuove affezioni (ne testimoniano i rimaneggiamenti della Classificazione Internazionale delle Malattie che è alla sua nona revisione dal 1900). Ogni diagnosi è, tutt’al più, relativa allo stato delle conoscenze di un’epoca (secondo i rilievi delle cause di decesso, a Parigi 100 anni fa, non si moriva mai d’infarto del miocardio: l’infarto era sconosciuto). Un medico esperto, cosciente dei suoi limiti culturali, si riserva sempre la possibilità a priori che un suo paziente sia affetto da una malattia, descritta nella letteratura scientifica, ma che egli ignora:0da un’affezione non ancora individuata.Si definisce in F quello che i matematici chiamano una misura P soddisfacente gli assiomi di Kolmogorov (assiomi della teoria delle probabilità). La frequenza relativa delle malattie è a prima vista una buona misura della loro probabilità di insorgere, se la popolazione standard è correttamente scelta. Le variazioni di frequenza possono essere notevoli da una popolazione all’altra. La difterite, comune nell’Europa di un secolo fa, è praticamente scomparsa oggi. Il raffreddore da fieno s’incontra praticamente soltanto durante la primavera. La tubercolosi indietreggia con il miglioramento del tenore di vita, certi tumori hanno una particolare ripartizione geografica, ci sono scarse probabilità di aver contratto una silicosi se non si è mai stati in miniera, elevate probabilità di contrarre la bilharziosi se si è contadini nella vallata del Nilo. In ospedale le patologie sono diverse da quelle incontrate nelle visite domiciliari 1 medici rurali sono abituati a malattie che i medici di città non hanno occasione di riscontrare. Il tipo di pratica influisce anche sulla probabilità a priori delle ipotesi diagnostiche (non si consulta un cardiologo per un dolore all’alluce, né uno psichiatra per una gamba fratturata; anche i generalisti hanno il loro “profilo”,che la gente impara a conoscere: così, a seconda della loro liberalità nei confronti della medicina psicosomatica, vedono più o meno di questo genere di patologie). In definitiva, ogni medico, familiarizzandosi con la propria clientela, effettua le sue distribuzioni di probabilità (proprio come l’elaboratore “bayesiano”), e così prima ancora che entri il paziente egli ha già un’idea delle diagnosi più probabili. Ciò costituisce un handicap per le malattie più rare: ne testimonia il ritardo con il quale sono stati riconosciuti certi accessi di paludismo in Francia in questi ultimi anni. Non essendosi più imbattuti in questa malattia, si considerava l’eventualità come un’ipotesi puramente accademica”. Per le diagnosi correnti il metodo tuttavia fornisce una base di ragionamento più efficace. Il lettore si spaventerà forse all’idea che, per fare una diagnosi, occorra attribuire una probabilità ad ogni possibile evento. Tuttavia, in effetti, se la congettura iniziale è coerente e le ipotesi sono poste nel modo giusto, non è indispensabile specificare completamente lo spazio delle probabilità latenti (compito che sarebbe, in generale, tecnicamente molto difficile).

La congettura iniziale consiste, insomma, in una partizione dello spazio delle possibilità e in una distribuzione di probabilità che rappresenta il grado di fiducia accordato alle ipotesi considerate. Taluni hanno più intuito di altri: le loro prime distribuzioni sono abitualmente più vicine alle distribuzioni finali, sono più “acute” di quelle dei loro colleghi, i quali per prudenza ripartiscono prima la puntata in modo più uniforme su tutti i cavalli. Ma un medico che non avesse”buone” intuizioni in partenza arriverebbe ugualmente (anche se forse più lentamente) alla “buona” diagnosi, purché la sua congettura iniziale fosse stata coerente, e in seguito il suo ragionamento corretto. “Se si sperimenta senza alcuna idea preconcetta, si va alla ventura”, diceva Claude Bernard, “ma… se si osserva co idee preconcette, si fanno pessime osservazioni”. La congettura orienta la raccolta dei fatti: colui che ha privilegia un’ipotesi procede direttamente agli esami suscettibili di confermarla, colui che esita tra diverse diagnosi tende a attardarsi in esami esplorativi. L’informazione fornita dai fatti (riassur nella funzione di verosimiglianza) ha l’oggettività che le conferiscono le conoscenze mediche accumulate. In clinica si impara a giudicare “il valore < segni”. I mixedematosi sono apatici, anoressici, stàtici: questi sono indici mediocri (molte persone sono stitiche, ipotiroidei non sempre si lamentano della loro stitichezza); l’esser freddolos la voce rauca sono indici più interessanti; l’ipercolesterolemia è solo un segnale complementare; il dosaggio dell’ormone tiroideo libero circolante r sangue è oggi un’informazione decisivi ieri la diagnosi si confermava tramite a segni (allungamento dell’arco riflesso, diminuzione del metabolismo basale). Un buon segno è allo stesso tempo sensibile e specifico. Un segno è tanto più sensibile, in una data malattia, quanto più ha possibilità esser riscontrato in un paziente affetto questa malattia. Per esempio, nella maggior parte delle malattie infettive, 1 febbre è un segno molto sensibile (ancorché ci siano infezioni senza febbre, in particolare negli anziani e ni soggetti debilitati). Un segno clinico sensibile può mancare di specificità: reazioni febbrili si riscontrano in tanti tipi di malattie diverse. La probabilità della comparsa di un segno, data la malattia, si misura sulla proporzione relativa delle persone che, avendo que malattia, presentano quel sintomo. Viceversa, il difetto di sensibilità di un test si calibra sulla base della proporzione dei risultati falsamente negativi (fratture non visibili alla radiografia, per esempio). I segni utilizzati in clinica hanno sensibilità molto diverse. La cecità è una complicazione seria della malattia di Horton, dove può essere inaugurale; fortunatamente, si osserva solo dal 10 al 20% dei casi. Una volta su quattro la litiasi biliare è indolore. Circa la metà dei mielomi s’accompagna a proteinuria. Nella neurosifilide (tabe o paralisi generalizzata), la sierologia sifilitica è positiva in oltre il 90% dei casi. La neurite oftalmica è quasi costante nella sclerosi a placche. Nel caso di depressione malinconica, il senso di colpa è molto frequente per gli occidentali di civiltà giudeo-cristiana, raro (anzi, eccezionale) per gli orientali… Più sensibile è un segno, più la sua assenza fa dubitare della realtà della malattia. Al limite, il segno perfettamente sensìbile è quello che non manca mai: fa ‘sempre parte del quadro”, la sua assenza permette (lo si è visto) di escludere la malattia, la sua presenza è necessaria (non sufficiente) alla diagnosi positiva.

Un segno ha tanto più specificità per la diagnosi di una malattia quanto più ha possibilità di non esser riscontrato in una persona non affetta dalla malattia. Per esempio, nei Paesi europei, si vedono poche polinevriti che non siano llcooliche. Un segno molto specifico può [non essere molto sensibile: così il “pasping’ è raro nelle sindromi frontali; I ma quando lo si riscontra, è uratteristico di una lesione frontale, – poiché non è mai riscontrato nelle lesioni ‘dialtri lobi cerebrali. Il difetto di specificità di un test lo si calibra secondo la proporzione dei risultati falsamente positivi(il  test serologico comune della sifilide, la vecchia reazione di Bordet-Wassermann, è specifico soltanto in modo imperfetto: è sempre positivo in caso di pian, quasi sempre in caso di paludismo, abbastanza spesso in caso di lupus eritematoso. herpes, mononucleosi nfettiva, e diverse altre malattie virali…). La proporzione delle persone non affette dalla malattia e nelle quali non si riscontra il segno da una misura della specificità del sintomo, vera misura della probabilità doppia-negativa (non-sintomo su non-malattia).

Un sintomo poco specifico è un sintomo che si riscontra in molti quadri diversi. Così, un edema generalizzato è, in sé, un sintomo poco specifico: lo si può riscontrare in una nefropatia (anch’essa probabilmente di origine infettiva, o diabetica, o legata a un lupus, un’amiloidosi, una trombosi della vena cava inferiore…), ma anche in una cardiopatia, un’affezione del fegato (cirrosi, epatite…), certi disturbi endocrini, certi stati di carenza… Una nevrite oftalmica deve far ricercare, non solo una sclerosi a placche, ma anche una meningo-encefalite batterica o virale, una intossicazione (tabagismo), una carenza di vitamine del gruppo B, una malattia di Horton… La glicosuria è molto specifica nel caso di diabete mellito, eppure non è patognomonica (esiste anche nel diabete renale). Più un segno è specifico, più la sua presenza deve far pensare alla malattia. Al limite, un segno perfettamente specifico (patognomonico) è sufficiente per una diagnosi positiva (la malattia è una condizione necessaria della sua presenza). L’arte dell’investigazione diagnostica consiste, allorquando si hanno dubbi sulla fondatezza di un’ipotesi, nel ricercare un segno sensibile, la cui assenza renderebbe quest’ipotesi più improbabile; e quando si sospetta fortemente una malattia, nel ricercare un segno specifico, la cui presenza aumenta la probabilità che si tratti di quella malattia. Questa strategia euristica deve navigare tra due scogli: succede che il medico, obnubilato da una diagnosi, trascuri informazioni non correlate con ciò che cerca, si pensa alla menopausa, e si sorvola su una gravidanza di oltre due mesi. Più spesso si perde tempo a raccogliere una massa di informazioni superflue, come in quelle ipertrofiche cartelle cllniche nelle quali è difficile estrarre, da un magma aneddotico, i dettagli pertinenti. Un dato è informativo se “discriminante” nei confronti di una diagnosi, cioè se porta a una revisione della congettura. Se, da un lato, c’è una tendenza a sopravvalutare le informazioni fornite da molti dati, dall’altro sia i pazienti che i medici sono inclini a sottovalutare l’incertezza dei dati. Certi pazienti sono inutilmente allarmati da variazioni apparenti della loro pressione arteriosa o nelle loro analisi del sangue, quando queste sono, invece, totalmente compatibili con le normali fluttuazioni dei parametri organici e le irregolarità legate alle condizioni di misura o di prelievo. Le funzioni di verosimiglianza (stima della sensibilità e della specificità degli esami) sono le “macchine per digerire l’informazione” che fanno funzionare il calcolo bayesiano. Bruno de Finetti lo situa appunto nella “verosimilizzazione” delle ipotesi iniziali tramite l’informazione raccolta. Laddove le conoscenze sono ancora vaghe, le “macchine” sono diverse e le scuole si oppongono. Con il progredire delle conoscenze, si fa l’unanimità nella professione. Senza un accordo sul “valore” dei segni, non vi può essere discussione razionale della diagnosi. Non tutti i medici hanno le cifre in mente. Ma un importante aspetto del lavoro di ricerca in medicina (e in epidemiologia in particolare) consiste nel valutare correttamente le funzioni di verosimiglianza, le quali permettono di ragionare.

Una congettura iniziale è in parte arbitraria. Man mano che vengono raccolti nuovi dati, la soggettività della prima ipotesi è poco a poco corretta da\Yaggettività dei dati. I ricercatori bayesiani che osservano gli stessi fatti, e si accordano sul modo di interpretarli, devono convergere verso la stessa distribuzione di probabilità delle ipotesi, a patto che il processo duri abbastanza a lungo. Ma in pratica il numero degli esperimenti è limitato, e occorre farsi carico di un certo residuo di arbitrarietà. D’altro canto, dire che c’è in ultima analisi convergenza verso la stessa distribuzione finale di probabilità, qualunque siano state le distribuzioni iniziali, non equivale a dire che tutte le ipotesi, tranne una, sono alla fine giudicate impossibili all’esame dei fatti: al contrario, in una procedura bayesiana corretta, né le probabilità finali, né quelle iniziali, possono essere uguali a zero o a uno. Rimane sempre l’ombra del dubbio.

L’adottare un’ipotesi scaturisce da una decisione che non va confusa con il calcolo della sua probabilità. La regola bayesiana di decisione (chiamata a volte “criterio del Bernoulli”) prescrive la scelta dell’ipotesi che ha la più grande speranza (in inglese “expectation”). Se si considera trascurabile il rischio dovuto agli errori (se si pensa che lo scegliere un’ipotesi errata, o il respingere un’ipotesi vera, non abbia conseguenze sfavorevoli; che si dispone di tutto il tempo necessario; in sostanza, che non è grave sbagliarsi), allora l’ipotesi che ha la più alta speranza è semplicemente quella che offre, a posteriori, la più alta probabilità. Tale principio “classico” di decisione è senza dubbio più vicino a quello che si adotta nella ricerca pura. Ma il timore delle conseguenze di un errore pesa molto sulla decisione del medico, ancorché generalmente si ritenga più grave respingere un’ipotesi vera (fingere che la persona non abbia un tumore, quando invece ce l’ha), che accettare un’ipotesi falsa (fare come se la persona avesse un tumore, quando invece non lo ha). Se il costo dell’errore, o più generalmente la “desiderabilità” di ogni ipotesi, sono presi in considerazione, la decisione di adottare un’ipotesi maschera un calcolo di speranza, secondo lo schema sviluppato da Pascal e dagli autori della “Logica di Port-Royal”, (1662). Tale calcolo è intuitivamente familiare al medico. Per esempio, la tonsillite nei bambini è spesso curata come tonsillite da streptococco, anche quando un’altra eziologia è giudicata più probabile, in quanto la tonsillite da streptococco è più grave. Nel calcolo classico, il profitto o la perdita previsti sono stimati in termini valutari; in medicina, si tende a stimarli in termini di speranza di vita (soluzione adottata da Daniel Bernoulli nella sua tesi sulla vaccinazione, 1760). Tuttavia, la qualità della sopravvivenza deve avere la stessa importanza della quantità. Il confort individuale non essendo concepibile in modo del tutto avulso dal confort collettivo, il quale implica anche considerazioni economiche, la stima della gravita dei diversi stati di fatto presi in esame non è mai semplice. Le cifre assolute sono meno importanti delle differenze relative. Con opportuni calcoli, si stima il valore probabile di ogni decisione. La condotta da seguire è in linea generale quella che massimizza il valore probabile. Può essere più facile (e più conforme a una pratica medica che vuole prima di tutto evitare di nuocere) formalizzare il calcolo delle utilità in termini di perdite, e descrivere la decisione da prendere come quella che minimizza la perdita previsibile. Le posizioni, comunque, cambiano da un medico all’altro, taluni preferiscono strategie più conservatrici, altri strategie più audaci. L’apprezzamento delle utilità rimane in gran parte intuitivo, e tranne che in campi molto particolari, dove protocolli di decisione sono stati stabiliti, si è ancora lungi dall’aver superato tutte le difficoltà di una valutazione razionale dei rischi.

L’analisi dell’approccio diagnostico (e terapeutico) può essere schematizzata con un albero di decisione. L’albero comporta alternativamente “nodi decisionali” e nodi “aleatori”. Ad ogni nodo aleatorio corrisponde un fatto che porta un’informazione (esempio: sintomo o non-sintomo), modificando la distribuzione delle probabilità riguardanti il possibile stato di cose (malattia o non-malattia), a condizione che si sappia giudicare il valore informativo del fatto (funzioni di verosimiglianza). Ad ogni nodo decisionale, chi decide si da, oltre la suddetta distribuzione delle probabilità, una funzione di utilità (o di perdita), coprendo le conseguenze delle condotte che possono essere prese in considerazione, il che gli permette di calcolare la speranza di ogni condotta. È chiaro che una macchina può essere programmata per effettuare tali calcoli.Invece, quando si tratta dell’elaboratore mentale del clinico, ci si accorge che esso non funziona affatto con un tale rigore analitico. Eppure, il medico esperto riconosce subito l’analisi bayesiana come una formalizzazione scientifica dei suoi normali processi di  I ragionamento. Si tratta, appunto, di analizzare, cioè scomporre in elementi semplici (giudizio di probabilità, giudizio di utilità) un processo complesso (stima dei valori delle scelte), e di isolare in tappe distinte (valutazioni a priori, integrazione di un’informazione, valutazione a posteriori) il progredire delj pensiero. Questa analisi circoscrive anche isole di soggettività: per prendere le decisioni giuste, non è sufficiente saper ragionare, occorre anche saper giudicare. Fin dove il procedimento descritto possiede una “logica”, e fin dove esso utilizza conoscenze obiettive, I può essere spiegato, e essere oggetto di I discussioni scientifiche. Nella misura in cui comporta elementi soggettivi, in particolare l’apprezzamento! delle utilità, ogni essere umano in grado di giudicare può partecipare alle decisioni che lo riguardano: alcuni preferiscono una terapia fastidiosa ma che lascia sperare in alcuni mesi di sopravvivenza, altri preferiscono una morte precoce a una sopravvivenza gravemente debilitata. Non si potrebbe affermare che esiste, per ogni circostanza, un’unica condotta razionale, II compito di una teoria della-razionalità è appunto quello di dimostrare che a diverse norme di giudizio corrispondono diversi tipi di condotte razionali.

Anne M. Fagot

Traduzione dal francese di Anne Reynaud de Mazerat

Anne Fagol-Largeaut è docente alla Université de Paris- Val de Marne, Créteil, Francia. Dottore in medicina si è successivamente specializzata alle Università di Oxford e di Stanford, in storia della medicina, in particolm modo sulle origini del ragionamento statistico-matematico in medicina e sulla valutazione delle cause di mortalità. Autrice dì articoli specializzati pubblicati in riviste di Dori paesi, Anne fagot ha recentemente curato il volume “Médeeine et probabilités, actes de la journée rl’études du 15 décembre 1979”, Institut de recherche universitaire d’histoire de la connaissance, des idées et des mentalités, Université Paris- Val de Marne, Didier-Erudition, 1982.

«Principio» o teorema di Bayes

«Se un evento può essere prodotto da un nu­mero n di cause differenti, le probabilità di esistenza di queste cause associate all’evento stanno tra loro come le probabilità dell’even­to associate a dette cause, e la probabilità di esistenza di ciascuna causa è uguale alla probabilità dell’evento associata a questa causa, divisa per la somma di tutte le proba­bilità dell’evento associate a ciascuna di que­ste cause»

 Laplace (1774) Mémoire sur la probabilità des causes par les événements, § 2. in: Oeuvres complètes, t. Vili, p. 29.

 Traduzione in termini medici

«La probabilità (probabilità a posteriori) di una malattia inclusa in una lista di malattie considerata esauriente, osservato il sintomo E, è proporzionale al prodotto della probabi­lità che si ha di osservare E quando il sog­getto è affetto dalla malattia Hj, per la pro­babilità di riscontrare la malattia Hi (proba­bilità a priori,)».

F.H. Roger (1979) Médecine et informatique, p. 147.

  

 Kos anno 1 febbraio 1984 pg 24-31 Franco Maria Ricci ed.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2.

chiralità

Dalla chirurgia alla chiralità della natura

 

Spesso a rincorrere le parole si intraprendono avventure inattese .Le parole infatti hanno un loro peso ed una propria spesso lunghissima storia con intrecci affascinanti.Il termine “chirurgia” ,per esempio, contiene il suffisso chir dalle molteplici implicazioni storico-linguistiche.Chir- o Cheir-,infatti derivano dal termine greco xeir mano.E banalmente quindichirurgia è l’attività eseguita con le mani a fini clinici.Ma se indaghiamo piu’ a fondo nella radice della parola e nel mito che se ne è appropriato sin dalle origini ,scopriamo che da xeir deriva il nome di Chirone il centauro saggio e sapiente che allevò eroi e divinità quali Achille ,Giasone, Asclepio (o Esculapio nella tradizione latina) e che in tutta la cultura ellenica ha rappresentato l’azione curativa e le origini concettuali dell’atto medico, tra divino ed umano,teso ad alleviare le innumerevoli nostre sofferenze.Chirone oltre ad essere anch’esso un grande medico praticava la chirurgia,come il suo stesso nome lascia capire.E con lui entriamo nelle origini del lessico sanitario.Nella tradizione infatti Chirone era una presenza mitica benevola ,aiutava l’umanità con acque salutari,piante e miscugli,ma anche con atti chirurgici veri e propri(si veda la sostituzione dell’osso della caviglia di Achille).Asclepio,figlio di Apollo,educato da Chirone da parte sua aveva trasmesso agli uomini insegnamenti portentosi sconfiggendo una grande quantità di malattie ed era addirittura giunto a scoprire il modo per resuscitare i morti.Era stato tanto efficace da rischiare una primordiale crisi demografica.Tanto pericolosa da indurre Ade ,divinità della morte,a chiedere a Zeus un suo intervento riequilibratore.Zeus provvide tempestivamente fulminando Asclepio e trasformandolo in costellazione(quella del Serpentario).Maltus dubito conoscesse questo timore primigenio delle crisi da sovrapopolazione!Asclepio inoltre aveva due figlie non da meno :Igea da cui è derivata la parola Igiene e Panacea da cui il farmaco miracoloso per eccellenza.Per non dimenticare poi la mitica Scuola Medica degli Asclepiadi di cui Ippocrate fù il piu’ noto successoreIl suffisso all’interno del nome del mitico centauro quindi ci introduce davvero nella struttura lessicale del sapere a fini curativi e soprattutto chirurgici.Priorità del pensiero come si vede in ogni epoca ed alle radici della civiltà occidentale stessa.Certo oggi Ade qualche protesta sicuramente la riproporrebbe!

Ma se andiamo oltre scopriamo che tale suffisso è stato successivamente adottato da tutte le scienze che trattano lo spazio tridimennsionale quali la fisica ,la matematica e la chimica per descrivere una peculiare proprietà anche delle nostre  mani:la proprietà cioè di avere un’immagine speculare non sovrapponibile a sé stessa.Se le guardiamo con attenzione entrambe aperte ci accorgiamo infatti che l’immagine speculare dell’una non è sovrapponibile all’altra .E tutto questo perché hanno un verso,per distinguerle infatti ne definiamo una destra ed una sinistra.Posseggono cioè una propria chiralità e la preferenza della specie per il verso destro è tutt’oggi del tutto incomprensibile.Tale condizione si è poi scoperto essere una delle modalità strutturali dell’architettura della natura.Abbiamo così scoperto il principio costitutivo della Chiralità.Da quando Pasteur,infatti,davanti All’Accademia francese delle Scienze formulò l’ipotesi fondamentale che “l’univers est dissymetrique”la scienza moderna ha evidenziato con forza la chiralità dell’universo stesso.Dalla  scala atomica ,a quella umana ,sino alla scala del cosmo,si è dimostrato che la natura è chirale ,ossia mostra una preferenza o per la destra o per la sinistra.Di questa asimmetria ,che sembra universale,si stanno oggi cercando di comprendere le correlazioni profonde.

E qui chi piu’ ne ha piu’ ne metta:aminoacidi destrogiri o levogiri,cristalli che virano fasci di luce polarizzata in un verso o nell’altro,catene di DNA che formano spirali con senso di percorrenza,piante rampicanti che si attorcigliano intorno ad un tutore con un  verso predeterminato,buchi neri e galassie che formano gorghi cosmici verso destra o verso sinistra,funzioni matematiche ed equazioni che esemplificano questa condizione e che ci permettono di descriverla nell’infinitamente piccolo e nell’infinitamente grande.Per non trascurare il foro di scarico delle nostre doccie domestiche dove distrattamente vediamo formarsi il gorgo delle acque reflue che addirittura cambia verso al cambiare dell’emisfero…..ma qui le cose si complicano con l’asse di rotazione terrestre e Coriolì.E cito solo alcuni esempi.Non solo quindi la politica vira verso destra o verso sinistra ,ma il mondo stesso e con esso tutto l’universo.Chi l’avrebbe mai detto da due semplici mani!

Ma l’attenzione verso questo concetto derivato dalla parola chirurgia,e soprattutto verso l’attitudine di  pochi  ad osservare con acume e libertà le manifestazioni apparentemente scontate del mondo che ci circonda,mi è stata indotta da un grande maestro del pensiero scientifico e della Chirurgia, recentemente scomparso ,che decise di dedicare proprio a questo concetto la lezione magistrale di addio alla propria attività accademica.La suggestiva lettura magistrale che Luciano Lorenzini dedicò nell’ormai lontano 1990 a noi studenti,torna spesso nella mia mente insieme al rimpianto di  un pensiero scientifico-umanistico che talvolta non riesco piu’ a scorgere nella mia pratica clinica.

L’Editore 8/12/2012

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 3.0 Italia.

EBM……

Va bene EBM,ma…..

 

 

Sono passati ormai quasi 40 anni da quando Archie Cochrane,un epidemiologo scozzese,pubblicò nel 1972 il suo storico lavoro “Effectiveness and efficiency:random reflections on Health Services”.Da allora i concetti da lui stigmatizzati per una pratica clinica basata su prove di efficacia (evidence-based practice) hanno progressivamente permeato il mondo scientifico e tutti noi oggi utilizziamo nelle nostre relazioni scientifiche la metodologia e la nomenclatura introdotte da Sackett e Guyatt sin dal 1990.Nel 1992 apparve per la prima volta, in un articolo di Guyatt ,il termine “evidence-based medicine” EBM appunto.Da allora la rivista cult della metodologia medico-scientifica ,il British Medical Journal,ha sfornato periodicamente sintesi e linee guida EBM compatibili,le assicurazioni americane hanno atteso le nuove”EB guidelines” per sostenere l’uso dei nuovi farmaci e devices,sempre di piu’ in tutti i paesi avanzati le scelte politiche relative alla Salute Pubblica sono passate per questo importante vaglio.Siamo quindi finalmente giunti alla definizione di una strada sicura,prudente ed efficace per utilizzare vecchi rimedi ed introdurre nuove soluzioni.Studio prospettico-randomizzato-pluricentrico-in doppio ceco,revisioni con metaanalisi,livelli di evidenza IA sono divenuti per tutti noi sinonimo di razionalità e sicurezza.Usciamo,infatti, da 2500 anni di tentativi spesso irrazionali e nonostante i timidi tentativi metodologici di alcuni pensatori dell’antica Grecia , dell’antica Cina e soprattutto di Avicenna con il suo Canone dell’XI secolo,solo da qualche decennio ci siamo tuffati, finalmente, nella modernità metodologica anche in campo clinico.

 Il nuovo modello EBM generalmente accettato è quello introdotto da Haynes nel 2002 con l’introduzione del ruolo centrale dell’esperienza clinica nell’integrare il contesto clinico,lemigliori evidenze disponibili e le scelte dei pazienti.

 Ma la necessità di dover introdurre subito un nuovo modello rispetto all’originale del 1996 sottolinea un aspetto di distonia che già nella mia personale esperienza è emerso piu’ volte con forza e stupore negli ultimi 20 anni di pratica clinica.Proprio io, fautore di un metodo scientifico accettato da tutti,per di piu’ formato nell’amata Scozia ,da me adottata come patria  culturale,proprio io mi sono trovato a constatarne i limiti in almeno due svolte epocali alle quali casualmente mi sono trovato a compartecipare.Malgrado tutto rimango un convinto assertore dell’utilità dell’EBM ,cio’nonostante……..

 

Nei primissimi anni ’90 mi trovai,specializzando agli ultimi anni di corso,nella Glasow allora capitale della cultura e dell’innovazione,a vivere in prima persona la potente svolta tecnologica che avrebbe per sempre cambiato le strategie della chirurgia vascolare.Il gruppo che frequentavo presso il Royal Infirmary di Glasgow,infatti,stava collaborando in modo strettissimo a tracciare una strada che l’industria americana aveva già deciso di percorrere:la chirurgia endovascolare.La prima endoprotesi era già stata impiantata con successo nell’89 a BuenosAires da Parodi,Detrich a Scottsdale (Arizona)aveva preso il comando della cordata anglo-americana in questa nuova avventura e De Bechey aveva dato la sua benedizione;dall’altra parte dell’oceano come sempre francesi e tedeschi cercavano di dare un loro contributo originale.Io anglofilo da sempre ,tifavo per per gli anglo-americani ed in particolare per il caro Jonh Pollock ,padre di molta chirurgia vascolare di allora (clamp aortico di Pollock,graft protesico aorto-iliaco in dacron impregnato di gelatina,ecc.) e direttore appunto dell’istituto di Glasgow.Una amicizia nata per caso,bellissima.Da allora lo seguii in Scozia ed Arizona sino ai primi impianti in Europa,il resto è la storia che tutti conosciamo e che le società scientifiche europee ed americane custodiscono.In quella fase pionieristica però nessuno degli ingradienti necessari per una credibile EBM erano presenti:scarsissima esperienza clinica specifica (si consideri che le procedure erano in gran parte radiologiche e si vociferava della necessità di una novella “radiologia interventistica” perché a nessun chirurgo piaceva passare le giornate al tavolo radiologico!),evidenze scientifiche in letteratura pressoché nulle(qualche “case report”,nessun lavoro prospettico randomizzato),contesto clinico se possibile ostile (dati i costi),consenso del paziente discutibile (come sempre correlato alla capacità di convinzione del chirurgo).Se avessimo reso vincolanti i criteri EBM la chirurgia endovascolare non sarebbe mai nata.Fu allora una avventura incosciente?.No,sicuramente no.Sin dall’inizio ero assolutamente convinto che la strada era giusta e percorribile in relativa sicurezza.L’enorme preparazione dei chirurghi in gioco,il contesto scientifico di altissimo livello,la collaborazione senza limiti finanziari dell’industria resero possibile “lo sbarco sulla luna”senza aprire l’addome,incredibile!Poi vennero il nitinolo che cambia volume e lunghezza al cambiare della temperatura,la digitalizzazione delle immagini che permetteva di avere in tempo reali immagini 3D ed addirittura modelli solidi delle aorte da operare,sonde ecografiche endoluminali,amici e colleghi della mia età che ogni giorno inventavano qualche cosa di rivoluzionario in un clima scientifico che ritenevo irripetibile.Una vera sbornia di innovazioni e geni.Oggi molte delle procedure di allora sono state validate da metaanalisi di studi prospettici-randomizzati-in doppio ceco,altre sono risultate non del tutto valide.Ma la storia della chirurgia vascolare è comunque cambiata per sempre.

 

Sempre in quegli anni,mentre io mi occupavo di chirurgia vascolare,nel campo della chirurgia generale il chirurgo di Lione Philippe Mouret   veniva radiato dalla società francese di chirurgia per aver eseguito la prima colecistectomia mininvasiva laparoscopica (1987).Oggi chi non si sottoporrebbe ad una tale procedura universalmente accettata come gold standard?Anche in questo caso solo oggi l’evidenza scientifica è di tipo IA.E così è stato per i primi colon oncologici laparoscopici e più recentemente per i primi stomaci oncologici trattati in modo mininvasivo.Proprio negli anni della strutturazione del metodo EBM,l’innovazione è stata così repentina che i pionieri si sono dovuti muovere in assoluta solitudine.Come sempre nella storia della scienza!

Ed è in questo contesto esplosivo che per gli itinerari strani della vita agli inizi degli anni 2000 mi sono ritrovato a lavorare  nel contesto della chirurgia generale,nella mia piccola città natale,per la seconda volta al centro di una svolta epocale:l’applicazione della robotica alla chirurgia generale.Incredibile una cosa così grande in una città così piccola.In effetti la robotica era già da qualche anno utilizzata nelle chirurgie americane ma con procedure non standardizzate e non validate.Marescou aveva già eseguito la prima colecistectomia robotica trancontinentale con il paziente a New York ed il chirurgo a Parigi.Un grande innovatore,in quel momento in esilio nella mia città,era  pronto a verificarne applicazioni e limiti in contesti significativi della Chirurgia Generale.Forte della sua esperienza in chirurgia tradizionale e mininvasiva laparoscopica e toracoscopia ,iniziò un protocollo di “effectivness and safety” in ogni procedura di chirurgia addominale,toracica e vascolare maggiore.Ed iniziava nuovamente l’avventura.Ricordo l’emozione delle prime resezioni epatiche maggiori,delle prime duodenopancreasectomie,delle prime lobectomie polmonari.Tutte procedure mai eseguite prima ad addome o torace chiusi ,da nessuno,in nessuna parte del mondo!Ricordo anche che in Italia tutti ci consideravano pazzi chirurghi sperimentali,all’estero si respirava un mix di ammirazione e diffidenza,molte riviste internazionali non accettavano i nostri lavori scientifici faticosamente realizzati.Ma piano piano le cose sono cambiate,il nostro gruppo ha collezionato la piu’ importante e prestigiosa casistica al mondo,le riviste internazionali piu’ importanti hanno iniziato ad aprirci le porte,nessuno piu’ ci considera folli sperimentatori,Piercristoforo Giulianotti è divenuto cattedratico della prestigiosa University of Illinois in Chicago,sempre piu’ robot sono stati acquistati  ad uso clinico in Europa e nel mondo.Ma ormai anche questo è il passato.Oggi siamo  alla fase di evidenza clinica IA per la chirurgia robotica della prostata e probabilmente presto lo saremo anche per il retto basso e lo stomaco.Ma per 10 anni almeno abbiamo navigato a vista e che navigazione!

 

In questi 20 anni molte volte mi sono chiesto se era etico percorrere la strada in cui mi trovavo,e molte volte sono stato contestato,anche duramente.Molte volte mi sono chiesto se fosse necessario fermarsi mancando ogni minima prova basata sull’efficacia.Oggi penso che entrambe le modalità siano corrette e necessarie.Cio’ che fa la differenza è il contesto ambientale ed il gruppo in cui si lavora (proprio quella variabile legata all’esperienza chè è stata introdotta con tanta forza nell’ultimo modello EBM da Haynes).Si possono cioè intraprendere esperienze pionieristiche,spesso suggerite dalla grande industria,solo in contesti di eccellenza e questi oggi si possono concretizzare nelle sedi piu’ inattese in ogni angolo del globo,ma per divenire routinaria una procedura non deve solo essere fattibile e sicura ,ma anche utile ed economicamente sostenibile e qui l’evidenza EBM offre una metodologia di verifica insostituibile.Probabilmente domani scopriremo che alcune delle procedure endovascolari degli anni ’90 o di quelle robotiche degli anni 2000 non risulteranno così vantaggiose e verranno magari abbandonate a favore di altre piu’innovative ed economiche.Saremo però pressoché certi che ciò che ha superato il vaglio dell’evidenza clinica sia realmente utile ,facilmente ripetibile quindi sicuro e soprattutto sostenibile.

 

In sintesi l’innovazione richiede una dose di rischio e capacità di rottura che può essere assecondata solo in rari contesti di eccellenza,la standardizzazione di una procedura deve invece necessariamente essere validata dalle procedure EBM.Data la globalizzazione attuale,concludendo,non condivido sempre le scelte strategiche e di spesa condotte solo su criteri di evidenza clinica e sempre piu’ spesso sento importanti ricercatori di livello internazionale abbandonare intenzionalmente la strada dello studio multicentrico randomizzato……….Comunque spero di assistere(se mai ci sarà) alla terza svolta epocale della mia vita,quella degli anni ’10,in Polinesia!

L’Editore 8/12/2012

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 3.0 Italia.