Questo articolo è stato letto in anteprima dagli abbonati alla mia newsletter di Substack.
Puoi abbonarti per ricevere via e-mail in anteprima gli articoli del blog.
Le domande della ricerca: “Funziona o non funziona?”
Nell’ultimo articolo (a proposito: era un lungo e impegnativo post comprensibile soprattutto da addetti ai lavori, per cui grazie ai tantissimi che l’hanno letto, evidentemente non solo colleghi) parlavo della preponderanza dei metodi quantitativi nella valutazione di efficacia delle psicoterapie. L’analisi quantitativa, che è il metodo riconosciuto per dare uno statuto scientifico evidence-based (cioè basato su prove) a una pratica terapeutica, poggia su numeri e statistiche. Dire “quella terapia funzione per la depressione”, “quell’altra è indicata per la PTSD” significa che sulla base di dati misurabili è stato possibile ricavare certezze sul fatto che quel metodo terapeutico, entro certe condizioni, è efficace (produce effettivamente cambiamenti).
Il modello sperimentale di riferimento è lo studio (trial) randomizzato controllato (RCT), in cui un certo numero di pazienti viene assegnato casualmente a due gruppi: quello sperimentale che riceve il trattamento e quello di controllo, che riceve un altro trattamento o non ne riceve alcuno. Negli studi su prodotti farmaceutici riceve un placebo, una pillola senza principio attivo; in psicoterapia, il gruppo trattato con una certa metodologia può essere confrontato con un gruppo in lista d’attesa — dunque con nessun trattamento — o con gruppi che ricevono terapie d’altro genere. I sintomi dei partecipanti vengono misurati prima, durante e dopo, attraverso questionari standardizzati o altre forme strutturate di valutazione: la differenza fra due momenti diversi e fra diversi gruppi misura l’esito dell’intervento.
Su questi studi primari se ne costruiscono poi altri. La revisione sistematica, ad esempio, raccoglie e sintetizza dati provenienti dalle ricerche. E la meta-analisi è una indagine statistica su quelle ricerche, che le mette a confronto e ne ricava conclusioni corroborate rispetto a quelle del singolo studio.
Insomma, dico tutto questo per dire che la ricerca in questo senso è un’attività molto rigorosa. Quello che dice di misurare lo misura, niente da dire.
Naturalmente analisi che si basano sul confronto necessitano di alcune condizioni senza le quali nessun confronto sarebbe possibile. Ad esempio la ripetibilità: cioè la possibilità di ripetere uno studio nelle stesse condizioni, con gli stessi strumenti, e di avere risultati simili e coerenti.
Accanto alla questione della ripetibilità degli studi ne esiste un’altra, che riguarda l’oggetto studiato: sembra banale dire che è necessario che l’oggetto in questione (ad esempio un certo dispositivo di cura) sia sempre quello, e che coincida con quello che useranno, fuori dalla ricerca, altri professionisti che di quello studio dovrebbero giovarsi. Insomma, è necessario che quello che si somministra a più pazienti sia il più possibile la stessa cosa — se così non fosse, cosa si confronterebbe?
Se voglio testare l’efficacia del paracetamolo, devo essere certo di somministrare a tutti i soggetti sperimentali paracetamolo e non altro, e nelle stesse dosi e con le stesse modalità, e con la massima certezza di aver isolato ed escluso l’interazione con qualunque altra variabile. Se del paracetamolo voglio testare gli effetti sul fegato, il fatto che un soggetto, uscito dal laboratorio, passi nella vicina cantina a farsi un quartino manda all’aria i mei calcoli. Se voglio testarne gli effetti sul raffreddore e un soggetto prende un antinfiammatorio, ti saluto attendibilità.
È necessario, poi, un certo grado di omogeneità del campione: tutti i soggetti devono avere caratteristiche simili, oltre che sintomi tutti riconducibili alla stessa categoria diagnostica su cui voglio misurare gli effetti. Se un soggetto ha un raffreddore virale e un altro ha un raffreddore allergico, lo studio non misura la stessa cosa.
E poi c’è il gruppo di controllo che assumerà un’altra cosa, ad esempio una compressa, ma né i soggetti né gli sperimentatori sanno chi prende cosa: è il sistema “doppio cieco”.
Tutto questo costituisce l’approccio chiamato evidence based, e forse già si sarà capito che, se lo trasponiamo nel contesto della psicoterapia, abbiamo un problema.
Abbiamo un problema. Anzi, più d’uno
Le differenze fra la psicoterapia e una molecola di paracetamolo sono immediatamente evidenti. In terapia l’intervento di cura non si identifica con un atto quale la somministrazione di un medicamento: è un processo interattivo, è una relazione fra due o più persone in cui quello che accade è determinato da tutti i partecipanti. Non c’è nulla di standardizzabile in senso forte, nel dispositivo terapeutico. E non c’è nulla che sia replicabile nel senso che ci si attenderebbe nelle scienze sperimentali classiche. Non c’è modo di pensare che un intervento resti identico se condotto da due diversi terapeuti, o dallo stesso in due momenti diversi. Non per una difficoltà tecnica, è che la psicoterapia non funziona così.
Il dispositivo terapeutico è un sistema complesso e non lineare. Non è fatto di due variabili controllabili, è costituito da due o più soggettività: un terapeuta con una storia, uno stile relazionale, una formazione e uno stato mentale che non sono replicabili; un paziente anch’egli con una storia che non è riconducibile ad altre, che non è un “oggetto” ma è un soggetto che cambia durante la misurazione. E in più, il suo stato psicologico sta dentro una rete di influenze di cui la terapia è una.
Anche se si riproponesse lo stesso protocollo, con gli stessi tempi e strumenti, ciò che accade nell’interazione sarebbe inevitabilmente diverso.
È ontologicamente impossibile aspettarsi quelle condizioni di ripetibilità che dovrebbero costituire la sostanza della validazione quantitativa.
Ancora: il sistema “doppio cieco” intende isolare qualunque variabile relazionale o psicologica del rapporto fra paziente e ricercatore, in particolare quello dell’ “aspettativa”. Ma nella cura psicologica l’aspettativa positiva, la fiducia nell’utilità di quello che si fa insieme, è un elemento fondante della relazione terapeutica, non un’interferenza da eliminare.
Un paziente, poi, ha una vita fuori dalla stanza di terapia e dal setting della ricerca. Non è isolabile, e questo è un nodo problematico grande come una casa: nella ricerca evidence based si cerca di minimizzare o di eliminare l’interazione fra la cura ed eventi considerati esterni, ma l’interazione è proprio la condizione ineliminabile nella quale i pazienti, le persone, vivono. La terapia non sta in una bolla, sta dentro una rete di esperienze, e fra una seduta e l’altra interviene una miriade di eventi non misurabili e non isolabili. I pazienti sono immersi in un mondo di interazioni. Escono dalla seduta e — ops! — interagiscono.
Tutto questo nega alla radice ogni presupposto di ripetibilità. Non che in medicina le variabili extra-setting siano assenti, ma qui esse coincidono con l’oggetto stesso dell’intervento!
Tutto questo consegna la terapia al dominio del non semplificabile, rende assai aleatorio qualunque tentativo di standardizzarla. Rende debole e problematica l’appartenenza della psicoterapia a qualche genere di scienza esatta e controllabile. Il mondo in cui “funziona” la relazione terapeutica è un mondo complesso e solo parzialmente prevedibile, è un mondo disordinato e assai diverso da quello organizzato e controllato della ricerca farmaceutica.
In qualche modo l’approccio quantitativo è un modo di valutare le cose che è stato trasposto di peso dall’approccio biomedico alla psicologia clinica, coerentemente con una egemonia epistemica che il primo ha da sempre esercitato nei confronti della seconda.
Funziona quello che funziona secondo gli strumenti che considerano funzionante quello che ritengono funzioni
Sì, il titolo è piuttosto contorto, ma il senso è che questa storia dell’analisi di efficacia contiene un irriducibile grado di autoreferenzialità. Da quanto detto fin qui, sembra che alla domanda “quale tale terapia è più efficace?” una risposta sensata sia: “beh, è quella dalle caratteristiche che si prestano meglio ad essere misurate dalle scale di efficacia”. Quelle procedure misurano oggetti che abbiano la forma di quella certa terapia, e misurano meno bene — o non possono misurare affatto, come un metro da sarta non misura la quantità di acqua in una brocca — altri oggetti.
Un metro non è neutro. “Funziona” non è neutro, è un’affermazione che sta dentro un sistema di valori. Se ho un metro da sarta e voglio misurare il mondo, quel mondo che ne esce starà dentro una mia premessa, cioè che il mondo è fatto di oggetti solidi, regolari e lineari.
Peraltro una volta che ho costruito un mondo fatto così, e ho affermato la centralità degli oggetti che si valutano in centimetri, ho compiuto un’operazione di egemonia culturale. Ho introdotto un concetto che s’impone come universale e “neutro”.
Il concetto di “trauma”, per esempio, è una delle più colossali operazioni di egemonia culturale nell’ambito della clinica recente. “Trauma” non ha un significato neutro e indipendente dalla teoria: è una categoria storicamente situata che, nel tempo, ha assunto un valore apparentemente universale. Ogni scuola teorica si arrabatta per scalare la classifica dell’efficacia misurandosi con quel significato egemone — ma faticosamente e, se ci riesce, ci riesce al prezzo di costruire patchwork teorici fragili, più per giustapposizione che per costruzione di senso.
Però diventa una categoria trans-teorica obbligata con cui fare i conti, tanto pervasiva che ha allargato la sua area semantica a significare esperienze del tutto eterogenee. In un recente convegno sull’argomento ho sentito evocare il trauma in contesti che andavano dall’essere prigionieri in campo di concentramento al subire un tradimento coniugale. Ma se vuoi partecipare alla competizione dell’evidence based devi navigare in quel grande mare. Questo è alla base di un impoverimento generale del discorso clinico. (Il “trauma” è un esempio così lampante di questa omogeneizzazione che prima o poi vorrei scrivere qualcosa al riguardo).
Definire senza ingabbiare?
Modelli terapeutici che si fondano su protocolli ripetibili sono piuttosto adattabili a un approccio evidence based. Nella pratica sistemica, per dirne una che conosco da vicino, invece questo diventa arduo. È proprio il principio di circolarità che governa la conversazione, e che discende direttamente dalla teoria come se fosse una sua traduzione nell’azione, a rendere impossibile sapere come andranno le cose in una seduta, prima che accadano. La circolarità è una regola che struttura la conversazione terapeutica in modo che ogni intervento del terapeuta sia una risposta a qualcosa che è successa prima. Ogni domanda è una risposta a un’altra risposta, ogni ipotesi è una risposta al modo in cui le informazioni si compongono nel qui ed ora del processo dialogico. Nei limiti di questa linea guida fondamentale, accadono cose che non sono prescritte ma sono l’esercizio di una responsabilità clinica ed epistemologica.
È possibile però — è da stabilire semmai a che prezzo, cioè quale grado di complessità siamo disposti a sacrificare — operare una certa forma di manualizzazione. Manualizzare vuol dire specificare i principi di funzionamento di un intervento, abbastanza da poterli condividere e riprodurli. Nella forma più elementare, chiarire quali sono gli elementi per cui quell’intervento è identificabile col nome che gli diamo, e non è un’altra cosa.
D’altra parte, quel che si fa deve pur esser descritto in qualche modo. È necessario per insegnarlo, è necessaria una mappa per sapere come e dove ci si muove. E il fatto che sia complesso non può significare che non è studiabile.
Ma esistono forme di manualizzazione che non pretendono di dettare lo svolgimento del processo, e però dettano princìpi e posture cliniche. Anche qui, non si intende mettere in discussione la necessità di descrivere in qualche modo quello che si fa nella stanza di terapia, quanto di distinguere questo da forme eccessivamente prescrittive di manualizzazione che riducano la complessità a sequenze anticipabili di procedure.
Nell’articolo del mese scorso dicevo al riguardo che la seduta sistemica può contare su alcune linee guida su cui governare la conversazione, che ne disegnano in parte la forma ma non prescrivono quello che deve succedere: 1) continua attività di ipotizzazione e di verifica delle ipotesi, 2) conduzione del colloquio sul principio della circolarità (ne parlavo poco più su), 3) posizione di neutralità, anzi di curiosità, che è una postura alla quale si arriva con un robusto lavoro di osservazione delle proprie premesse. Tre punti. Abbastanza strutturanti da fornire una buona mappa per camminare, troppo poco prescrittivi da costituire un’indicazione su dove andare.
Per fare una analogia, la pratica e la competenza di un musicista improvvisatore gli indicano le regole per suonare (comprese quelle da infrangere!), non gli prescrivono a priori cosa suonare, come farebbe (e nemmeno in modo totalmente vincolante, peraltro) uno spartito. Eppure costituiscono un sapere complesso, e nessuno direbbe che un musicista improvvisatore non sappia cosa sta facendo.
Ecco, se per manualizzare si intende che è bene avere competenza sul proprio strumento, beh, discuterne è una perdita di tempo. Se invece significa sapere a priori cosa si suonerà, andiamo a sbattere contro un’ingombrante contraddizione epistemologica.
E a volte viene il sospetto che chi perora la causa di una manualizzazione della terapia abbia in mente qualcosa che assomiglia molto più alla costruzione di precedure e protocolli che a linee guida utili ad aprire strade all’interazione creativa fra terapeuta e paziente.
Incubo #1
Ora immaginate un mondo in cui qualcuno ha deciso che la qualità degli alimenti si misuri con un criterio oggettivo, ad esempio secondo il tempo che un cibo impiega a indurre sazietà.
Non intendo attribuire qualità moralmente negative a un criterio simile, lo scelgo solo come esempio di un criterio numerico che assume un potere esclusivo.
Indubbiamente scientifico e con un valore evidente — nessuno di noi sottovaluterebbe la capacità di un alimento di soddisfare un bisogno —, il tempoche intercorre fra l’assunzione e la sazietà diventerebbe un criterio universale per valutare la qualità di prodotti alimentari: quanto velocemente questo alimento toglie la voglia di continuare a mangiarne?
Le riviste scientifiche pubblicherebbero articoli che illustrano la composizione di campioni sperimentali, l’utilizzo di scale di misurazione, la messa a punto di curve di sazietà.
Le farmacie avrebbero interi scaffali dedicati alle barrette ipercaloriche, i fruttivendoli esporrebbero cartelli che dicono “comprate la nostra frutta secca, lo dice la scienza!”, i fornai si butterebbero sulla produzione intensiva di pane integrale.
I laboratori dei grandi chef prospererebbero grazie a corsi specifici in cui i giovani che aspirano alla professione studieranno un po’ meno i sapori e un po’ di più l’ipotalamo e come condizionare i livelli di grelina e le cellule epsilon del pancreas.
Probabilmente qualche influencer pubblicherebbe un video verticale dal titolo “Il regalo più bello che potessi fare al mio desiderio di sazietà”, che verrebbe condiviso sui social dell’AIPS (Associazione Italiana Produttori di Sazietà). Le community dell’influencer e della sazietà ne parlerebbero a lungo e si scambierebbero iscrizioni ai rispettivi canali.
Il criterio “sazietà”, oltre a diventare prioritario rispetto ad altri, tipo il nutrimento o anche il gusto e il piacere conviviale, diventerebbe molto popolare. Perderebbero valore vitamine e altri generi di micronutrienti. Non perché siano inutili, ma perché non rientrano in quello che quel metro misura. Alimenti che producono effetti salutari, e magari sono più gustosi delle mandorle sgusciate, ma hanno effetti più lenti sulla sazietà, mancheranno di sufficienti evidenze scientifiche a supporto.
Questo inciderebbe profondamente sul contesto, anche culturale. Piano piano il significato di “nutrire” diventerebbe “interrompere il bisogno”. “Efficacia” diventerebbe un criterio indipendente da “salute”.
Se l’appetito tornasse due ore dopo, questo non sarebbe letto come legato alla fisiologia dell’organismo, ma come un insuccesso di quell’alimento.
Tutto sarebbe valutato solo in base a caratteristiche misurabili senza tener conto di altri aspetti più qualitativi. Sappiamo, per esempio, che mangiare in compagnia dedicando il tempo giusto al pasto è parte della costruzione della salute attraverso il cibo, ma questi fattori semplicemente sarebbero ritenuti non misurabili e quindi antiscientifici.
Attraverso i fattori economici, l’impatto di tutto questo sarebbe ancora più profondo. In quel mondo, per restare nel mercato della sazietà misurabile, i produttori di altri cibi sarebbero costretti a contemplare stratagie di sopravvivenza. Alcuni affronterebbero un rebranding dei loro prodotti assecondando il linguaggio dominante della misurabilità: “Produce sazietà progressiva!”, “Equilibrio energetico in poche ore!”.
Dedicherebbero risorse a studi ad hoc che dimostrino che anche il loro prodotto sazia, magari non proprio immediatamente. Ma i più investirebbero denaro nel cambiare il formato del prodotto, per distribuirlo macinato, o precotto, o porzionato perché sia più misurabile. Magari aggiungerebbero grassi e aromi che anticipano il senso di sazietà.
È un po’ quello che sta accadendo nel mondo delle psicoterapie. La biodiversità delle diverse correnti si riduce, nella corsa allo sfruttamento delle ultime tendenze dell’evidence based e della conclamata efficacia su alcuni sintomi. Questi vengono definiti in modo sbrigativo, “oggettivo” e dunque a-teoretico, quindi sufficientemente sgombro da qualche tipo di complessità — e facilmente commerciabile.
A scanso di equivoci
Sento che a questo punto va detto con la massima chiarezza che:
1) È fuori discussione che fra i terapeuti di quei metodi baciati dalla ricerca quantitativa ce ne siano tanti capaci di instaurare relazioni e di essere davvero presenze che curano (lo dico per averne conosciuti e per averne apprezzato il lavoro), come in quel mondo distopico non mancheranno cuochi in grado di creare intorno alla barretta proteica o alla patata lessa un momento di salute e convivialità. Quei colleghi affermeranno — e secondo me a ragione! — che quel che fanno è molto più che somministrare protocolli, in ciò ammettendo implicitamente che gli elementi quantificabili, da soli, in nessun caso rendono davvero conto del processo terapeutico.
La mia critica, insomma, non è ai professionisti: è verso un discorso pubblicosulla psicoterapia che impoverisce e banalizza la complessità della cura fatta di parole e di relazione.
2) È altrettanto fuori discussione che anche chi contesta lo strapotere dei metodi quantitativi avverte la responsabilità che quello che fa produca cambiamento, che porti sollievo e risponda ai desideri e ai bisogni delle persone che ci chiedono aiuto: cioè che funzioni. Dove “funziona” significa qualche volta che un cambiamento può arrivare in fretta, ma più spesso è parte di una rete di eventi, o dove — a mano a mano che si allarga la visuale — un obiettivo desiderato cambia, o diventa meno importante, o viene rinegoziato via via. Perché, in generale, non si compiono atti che siano “efficaci” in quanto intenzionalmente diretti a uno scopo. Piuttosto si lavora per creare contesti in cui il cambiamento non è provocato ma possa accadere. E in cui parzialmente sfuma qualunque relazione diretta — e quindi misurabile in modo certo e univoco — fra un’azione e un risultato.
La necessità di una ricerca qualitativa (“Come funziona?”) come metodo complementare
Un superamento del predominio ideologico dei criteri quantitativi può avvenire con l’intervento di un metodo in grado di riportare sulla scena quella parte della realtà a cui essi sono ciechi, e che pure non è meno importante.
L’analisi qualitativa non nasce in opposizione alla ricerca quantitativa, né solo in considerazione dei limiti intrinseci del modello biomedico: si affaccia anzi nel mondo della medicina riconoscendo l’importanza di una valutazione statistica di un intervento, con lo scopo di arricchirne la lettura.
Un approccio qualitativo non risponde a domande tipo “funziona?” o “quanto funziona?”, ma piuttosto “perché funziona? E come?”. Si presta a illuminare le variabili individuali, l’alleanza terapeutica e dunque il processo della cura con tutto il suo portato di significati: che non sono ripetibili, anzi sono unici ed emergono da quel momento e da quella relazione.
La differenza più immediata sta nel fatto che se l’applicazione del paradigma quantitativo ha bisogno di numeri significativi di casi da testare — in modo da ricavarne dati attendibili — l’osservazione qualitativa guarda più da vicino le storie singole e il modo in cui la relazione costruisce un contesto per il cambiamento.
Non ricorre a una standardizzazione degli elementi in campo, anzi si interessa delle differenze, delle specificità, del singolo vissuto. L’obiettivo non è la misurazione ma la comprensione dell’oggetto, è entrare nell’universo di valori e di significati coinvolti in quel processo.
Si serve di strumenti come trascrizioni o diari, studi intensivi e approfonditi di singoli casi, osservazione dei vissuti soggettivi dei pazienti, analisi di narrazionidi pazienti e terapeuti. È una pratica che esalta la cooperazione fra pazienti e ricercatori anziché l’osservazione unidirezionale da parte di questi ultimi.
Fra le esperienze che mi sono care ce n’è una che feci a cavallo del 2000 partecipando a una ricerca che coinvolgeva pazienti ed ex pazienti che avevano una storia di disordini alimentari. L’indagine era coordinata da Pietro Barbettaall’Università di Bergamo ed era ispirata a un lavoro condotto negli Stati Unitidalla terapeuta femminista Mary Olson.
Un ramo della ricerca consisteva nell’osservazione delle conversazioni online in un forum tematico cui erano iscritte centinaia di ragazze che condividevano l’esperienza della restrizione alimentare volontaria, ma soprattutto — per quel che ci interessa qui — un altro prevedeva interviste di follow up a ex pazienti e ai loro terapeuti; le une e gli altri selezionati secondo criteri molto rigorosi da alcuni colleghi, in separata sede rispetto ai colleghi che avrebbero poi eseguito le interviste. La rilevanza clinica di una indagine qualitativa dipende, non meno che nelle evidence based practices, da un forte rigore nella fase del progetto e nella selezione dei casi.
Il desiderio di un gruppo di clinici di avvicinarsi alla loro esperienza per costruire una sapere non più “dall’alto” fu accolto con disponibilità e gratitudine dalle testimoni coinvolte: essere interpellate come esperte non è un’esperienza abituale per una categoria di persone a cui normalmente a fatica si riconosce uno statuto di agenti morali. Dal punto di vista dei terapeuti e dei ricercatori coinvolti le ipotesi che ne derivarono furono molto ricche, non solo sull’anoressia e sul corpo, ma sul cuore stesso del processo clinico. Quella ricerca è una esperienza a cui torno spesso e che cito continuamente in formazione perché per quanto mi riguarda portò dei cambiamenti decisivi nel mio modo di lavorare e di pensare il cambiamento. E so che altrettanto fu per molti dei colleghi implicati.
L’approccio qualitativo, così, contribuisce alla conoscenza del lavoro terapeutico e alla comprensione dei processi di cura, dal punto di vista psicologico ma anche contestuale, sociale, culturale.
È necessario dunque che la generalizzabilità delle osservazioni statistiche e quantitative si incontri con la profondità di una ricerca qualitativa e processuale. Non è sostenibile, non è all’altezza della complessità dell’esperienza umana e della cura, che la scientificità coincida esattamente con quello che si presume sostenuto da prove “oggettive” e misurabili. Soprattutto, relegando nell’angolo del “non osservabile scientificamente” elementi fondanti della relazione di cura. È dannoso perché non solo limita la nostra comprensione del processo terapeutico, ma — va detto forte — riduce le possibilità di scelta di chi ha bisogno d’aiuto. Produce attivamente una realtà più povera, genera semplificazioni che servono più ai vari mercati della cura che ai nostri pazienti.




