La rivoluzione copernicana della gestione del rischio

Idee rivoluzionarie

Negli ultimi anni, grazie in particolare alle ricerche di psicologi quali Rasmussen (1986) e Reason (1990) e all’analisi del sociologo Perrow (1984), si sono affermate convinzioni che hanno cambiato radicalmente il modo tradizionale di intendere i problemi di sicurezza. Alle nuove idee si è arrivati sulla base degli studi condotti in aeronautica e in altri ambiti lavorativi ad alto rischio, come le centrali nucleari o certe industrie chimiche. Successivamente però i principi maturati in questi settori produttivi sono stati estesi ai servizi sanitari.

L'errore umano

Il detto latino errare humanum est testimonia che l’idea che gli uomini siano soggetti a sbagliare è diffusa fin dall’antichità. Tuttavia la rivoluzione di pensiero degli ultimi anni ha dato a questa tradizionale convinzione un senso ben più radicale. Dire che errare è umano è semplicemente un modo di attenuare la responsabilità di chi sbaglia: serve ad ammettere e perdonare qualche errore occasionale lungo il cammino della purificazione dall’errore. Tant’è che la seconda parte del detto, che fa eco a un famoso passo di Cicerone, dice sed perseverare diabolicum est. Dietro la constatazione che gli uomini sbagliano c’è, magari inconfessato, il mito dell’infallibilità umana: se fossimo abbastanza bravi, come dovremmo essere, non commetteremmo errori. Senonché la psicologia ci ha dimostrato chiaramente che gli errori rientrano nel funzionamento normale della nostra mente.

I processi mentali che ci portano a giudizi o comportamenti errati generalmente non sono malfunzionamenti dovuti a condizioni patologiche o a insufficiente abilità o impegno. Rappresentano invece il modo abituale di lavorare della nostra mente. Lo abbiamo visto esaminando i biases: le comuni procedure che adoperiamo per capire la realtà, esprimere giudizi, prendere decisioni deviano dalla razionalità e ci espongono a errori. Il medico alle prese con la diagnosi o con le scelte terapeutiche non è immune da questo genere di errori, proprio perché la sua è una normale mente di un essere umano.

Dipendono dal funzionamento normale della nostra mente anche i lapsus: gli errori che avvengono a livello più basso, quando siamo impegnati in attività esecutive, non di pensiero, in gran parte automatiche, come camminare, digitare alla tastiera, guidare l’automobile, eseguire una sutura. In questi casi a tradirci è l’architettura stratificata della mente, che sotto pochi processi coscienti controllati ha una gran massa di processi automatici o semiautomatici che in tutto o in parte sfuggono al controllo (vedi figura qui sotto).

Sono stati proposti diversi modelli gerarchici di architettura della mente, che hanno in comune il fatto di considerare un gran numero di moduli periferici che svolgono automaticamente la gran massa delle operazioni mentali, sotto il parziale controllo di un sistema centrale cosciente. Morris e Hampson (1983) parlano efficacemente di boss e impiegati. Il sistema attentivo gestisce l’impiego di risorse sotto la guida del sistema centrale, ottimizzando il controllo degli elaboratori periferici e l’uso di impianti, cercando di fare in modo cioè che ci sia il controllo quando occorre e riducendo al minimo le interferenze nell’uso degi stessi impianti. 

Fonte: adattato da Bianchi e Di Giovanni (2000).

Se per caso in un passaggio cruciale viene meno il controllo cosciente, i processi automatici avvengono per default e ci scappa l’errore. Un divertente lapsus descritto oltre un secolo fa da uno dei padri della psicologia, James (1890), può aiutarci a capire il meccanismo.

 

… delle persone molto distratte, raggiunta la camera da letto con l’intenzione di cambiarsi d’abito in occasione della cena, avevano finito semplicemente con lo spogliarsi completamente e andare a letto.

 

Terminata l’attività di svestirsi, è mancato l’intervento cosciente che avrebbe dovuto avviare l’attività di indossare l’abito per la cena. La mente, trovandosi nel contesto della camera da letto, per default ha avviato – correttamente, a ben guardare – le procedure per coricarsi.

Gli errori sono assai comuni

Proprio in quanto dovuti al funzionamento normale della mente, gli errori sono molto più frequenti di quanto immaginiamo: come dice Reason sono eventi comuni al pari del respirare o del dormire. È solo che noi spesso non ce ne accorgiamo o ce ne dimentichiamo, anche perché nella maggior parte dei casi, fortunatamente, non procurano inconvenienti o si tratta di inconvenienti di poco conto. Quando i lapsus sono stati studiati con la tecnica dei diari, chiedendo cioè alle persone di annotarli prima possibile, si è visto che rappresentano esperienze quotidiane: i diari riportano in media un lapsus al giorno, ma quelli commessi sono senz’altro di più, dato che di molti non ci si accorge e che non tutti quelli di cui ci si accorge vengono annotati (Reason, 1979; Norman, 1980, 1981, 1988). Del resto dai discorsi sui biases dei capitoli precedenti emerge con evidenza che il nostro pensiero quotidiano è intriso di errori di ragionamento, di cui per lo più ci rendiamo conto solo se sottoponiamo ad attente analisi i nostri comuni giudizi e le nostre decisioni.

Gli errori non sono intrinsecamente negativi

Contrariamente a quanto solitamente si pensa, gli errori, oltre che assai frequenti, sono neutri: di per sé non sono né negativi, né positivi. Sono certe conseguenze degli errori, che a volte per una serie di circostanze si generano, a essere negative. È naturale che sia così, visto che gli errori fanno parte del normale funzionamento della nostra mente. Se li bollassimo come fatti negativi a prescindere dalle conseguenze, dovremmo accettare la tesi che la nostra mente è fatta male, tesi assurda, dal momento che si tratta di un frutto straordinario dell’evoluzione che ci è di enorme aiuto.

Quando nella camera da letto fa partire la procedura per coricarsi, la mente sta supplendo intelligentemente a un vuoto del controllo cosciente, cosa che in molte circostanze potrebbe rivelarsi di vitale importanza. Se stiamo pensando che è l’architettura a essere difettosa, che sarebbe meglio avere tutti i processi sotto controllo, sbagliamo grossolanamente. L’architettura stratificata costituisce un capolavoro della natura.

I processi automatici, sebbene sfuggano al controllo volontario e siano rigidi, presentano il grosso vantaggio di essere altamente efficienti: sono rapidi, non consumano praticamente risorse, non declinano col tempo, non risentono di interferenze. Senza, se avessimo solo processi controllati, pagheremmo la capacità di orientare le azioni con incredibili limitazioni. L’architettura stratificata consente al tempo stesso di eseguire con grande efficienza una gran massa di lavori di routine e di agire con flessibilità e adattabilità nei lavori fini. Permette anche di sviluppare abilità complesse diversamente impossibili: ad esempio, non riusciremmo a leggere, scrivere alla tastiera o fare una sutura se non avessimo automatizzato e sganciato dal controllo tutte le sottoattività più elementari di cui queste attività si compongono.

Considerazioni analoghe si possono fare per le distorsioni sistematiche dei ragionamenti: sono abitualmente funzionali, ci portano a conclusioni mediamente utili per cavarcela nel nostro ambiente, anche se espongono a errori. In un certo senso la nostra mente è soggetta a errori proprio perché è un sistema evoluto per fornire prestazioni eccellenti.

Il mito dell’infallibilità umana non è solo ingenuo e illusorio, si basa anche su un’aspirazione sbagliata. L’uomo perfetto non è un uomo che non commette errori, ma semmai un uomo che sa gestire convenientemente i comuni errori della propria mente.

Contrariamente a quanto solitamente si pensa, gli errori, oltre che assai frequenti, sono neutri: di per sé non sono né negativi, né positivi. Sono certe conseguenze degli errori, che a volte per una serie di circostanze si generano, a essere negative. È naturale che sia così, visto che gli errori fanno parte del normale funzionamento della nostra mente. Se li bollassimo come fatti negativi a prescindere dalle conseguenze, dovremmo accettare la tesi che la nostra mente è fatta male, tesi assurda, dal momento che si tratta di un frutto straordinario dell’evoluzione che ci è di enorme aiuto.

Quando nella camera da letto fa partire la procedura per coricarsi, la mente sta supplendo intelligentemente a un vuoto del controllo cosciente, cosa che in molte circostanze potrebbe rivelarsi di vitale importanza. Se stiamo pensando che è l’architettura a essere difettosa, che sarebbe meglio avere tutti i processi sotto controllo, sbagliamo grossolanamente. L’architettura stratificata costituisce un capolavoro della natura.

I processi automatici, sebbene sfuggano al controllo volontario e siano rigidi, presentano il grosso vantaggio di essere altamente efficienti: sono rapidi, non consumano praticamente risorse, non declinano col tempo, non risentono di interferenze. Senza, se avessimo solo processi controllati, pagheremmo la capacità di orientare le azioni con incredibili limitazioni. L’architettura stratificata consente al tempo stesso di eseguire con grande efficienza una gran massa di lavori di routine e di agire con flessibilità e adattabilità nei lavori fini. Permette anche di sviluppare abilità complesse diversamente impossibili: ad esempio, non riusciremmo a leggere, scrivere alla tastiera o fare una sutura se non avessimo automatizzato e sganciato dal controllo tutte le sottoattività più elementari di cui queste attività si compongono.

Considerazioni analoghe si possono fare per le distorsioni sistematiche dei ragionamenti: sono abitualmente funzionali, ci portano a conclusioni mediamente utili per cavarcela nel nostro ambiente, anche se espongono a errori. In un certo senso la nostra mente è soggetta a errori proprio perché è un sistema evoluto per fornire prestazioni eccellenti.

Il mito dell’infallibilità umana non è solo ingenuo e illusorio, si basa anche su un’aspirazione sbagliata. L’uomo perfetto non è un uomo che non commette errori, ma semmai un uomo che sa gestire convenientemente i comuni errori della propria mente.

Anche i migliori sbagliano

Uno studio condotto durante la prima guerra mondiale nelle fabbriche di munizioni inglesi mise in evidenza che gli incidenti coinvolgevano sempre le stesse persone. Lo studio fece scalpore, perché alimentava il mito dei buoni e dei cattivi, radicato nella coscienza popolare. È l’idea che, se il lavoratore è abbastanza bravo (esperto, competente, attento, prudente), non sbaglia e non si trova coinvolto in incidenti. Ne discende che i bravi possono stare tranquilli, mentre i non bravi devono preoccuparsi. Se ne ricavano anche semplici indicazioni pratiche per ridurre gli incidenti: rimuovere i non bravi o formarli e disciplinarli trasformandoli in bravi.

Le ricerche condotte successivamente, ormai nell’arco di un secolo, non hanno confermato i risultati ottenuti nelle fabbriche di munizioni, dimostrando senza ombra di dubbio che gli incidenti capitano a tutti. Sono emerse differenze individuali nella propensione all’errore, legate alla personalità oltre che all’esperienza. Ad esempio, le persone con locus of control esterno, cioè che tendono ad attribuire le proprie azioni e gli effetti che ne derivano a fattori esterni più che a sè, rischiano di sbagliare di più di quelle con locus of control interno, che addossano su di sé le responsabilità (Jones e Wuebker, 1985; Wuebker, 1986). Si è potuto constatare anche che, in accordo con quanto pensa solitamente la gente, i lavoratori giovani e inesperti vanno incontro a percentuali più alte di incidenti. Queste differenze di propensione non tolgono però nulla al fatto che tutti, anche i più esperti, commettono quotidianamente errori e rischiano di essere coinvolti in incidenti.

Gli operai, i tecnici, i medici più esperti e stimati ogni giorno commettono errori che fortunatamente non hanno conseguenze dannose e spesso passano inosservati. A volte, quando gli eventi cospirano negativamente, questi errori sfociano in incidenti e persone con alle spalle un’onorata carriera possono trovarsi a fare la parte dei cattivi. La bravura non li protegge più di tanto dal rischio di finire coinvolti in incidenti. Studi condotti sugli incidenti occorsi a manutentori di aerei indicano che solo nel 10% dei casi nella genesi dell’accaduto intervengono imperizia o negligenza o imprudenza, il che significa che 90 volte su 100 essere bravi non li mette al sicuro. Risultati praticamente sovrapponibili sono emersi dagli studi sui medici e sugli altri operatori sanitari. Il mito dei buoni e dei cattivi non vale neppure per loro. Sintetizza bene il crollo del mito Gawande (1999): «il problema non è impedire ai cattivi medici di fare del male ai pazienti, ma impedire che accada ai bravi medici».

La ragione di fondo per cui anche i migliori sbagliano è semplice: hanno una mente umana come tutti gli altri. La bravura poi ha effetti paradossali: da un lato rende più capaci di evitare certi errori, dall’altro spinge ad avventurarsi al limite delle proprie possibilità. C’è anche da dire che nelle organizzazioni lavorative i più bravi sono quelli abitualmente chiamati a far fronte alle situazioni difficili e ad esporsi maggiormente ai rischi. Chi ha esperienza di lavori rischiosi sa che a tradire a volte è proprio il senso di sicurezza derivante dalle conoscenze e dalla lunga pratica. La ricerca scientifica lo conferma. Per non incorrere in questi problemi da bravura i bravi dovrebbero valutare adeguatamente le proprie reali capacità, ma sappiamo che i tipici errori delle statistiche mentali e l’hindsight facilitano l’overconfidence, soprattutto nei più esperti. Con ciò torniamo alla radice della questione: la mente dei bravi funziona come la mente di tutti.

© Really New Minds University of Teramo Spin-Off Company