Blog Layout

L'incidente di Chernobyl e l'errore umano

apr 28, 2021

Sentiamo parlare in modo superficiale sui media di “errore umano” o di “un guasto” ma questa spiegazione è piuttosto limitata e non coglie la complessità di alcune situazioni critiche. 

Chernobyl l'errore umano incidente nucleare

La sicurezza non mai solo una questione tecnologica

In tutti gli incidenti che hanno coinvolto sistemi organizzativi complessi, ad esempio Chernobyl, i due incidenti accorsi allo Space Shuttle rispettivamente dell’1986 e del 2003 o alla Costa Concordia per fare un esempio più vicino a noi è possibile individuare, oltre alla componente prettamente tecnica un aspetto che coinvolge i meccanismi cognitivi, emozionali, organizzativi e relazionali. In breve in questi disastri emerge sempre un qualche aspetto di carattere psicologico. Da questa prospettiva l'incidente accaduto all'impianto ICMESA nel 1976 a Seveso in Italia ha delle dinamiche molto simili (pur con le differenze che contraddistinguono le due tipologie di disastro).

Un incidente non ha mai un'unica causa

Questo genere di incidenti raramente sono causati da un unico fattore (umano o tecnologico) ma derivano da una concatenazione imprevedibile di eventi. Eventi che presi singolarmente non sarebbe sufficienti a produrre un risultato catastrofico ma che insieme possono rendere instabile un qualsiasi sistema organizzativo. Valerij Alekseevič Legasov, direttore dell’Istituto sull’Energia Atomica di Kurthatov affermo che a Chernobyl si verificarono “una combinazione di molti eventi, ciascuno dei quali era poco probabile”.

L'errore umano

Sentiamo parlare in modo superficiale sui media di “errore umano” o di “un guasto” ma questa spiegazione è piuttosto limitata e non coglie la complessità di alcune situazioni critiche. Un’interfaccia mal progettata, una procedura burocratica, un esercizio non corretto della leadership da parte di un responsabile, demotivazione, l’assenza di feedback possono rendere complessa e faticosa la gestione di una qualsiasi attività organizzativa. E’ noto infatti che la nostra mente presenta dei limiti e delle modalità di funzionamento ben lontane dal concetto di razionalità pura o olimpionica che ancora domina il nostro immaginario. I cosiddetti vincoli informativi (ad esempio i limiti legati all’attenzione, alla memoria, alla comprensione e nella gestione dei processi di comunicazione) possono distorcere facilmente il funzionamento di un processo organizzativo che sembra funzionare perfettamente durante la fase di progettazione. E’ comprensibile come questi fattori possano diventare molto pericolosi se ovviamente riverberano all’interno di sistemi organizzativi complessi come una centrale nucleare.

L’incidente di Chernobyl non fu causato solo da un problema di progettazione del reattore.

Sono passati molti anni dall’incidente e malgrado il governo sovietico di allora cercò di nascondere la vera entità del disastro le conseguenze sulla popolazione e l’ambiente abbiamo oggi un quadro più chiaro della dinamica del disastro. La nota serie televisisa creata e scritta da Craig Mazin e diretta da Johan Renck ha riportato all'attenzione del vasto pubblico quanto è accaduto nel 1986.  Dobbiamo ricordare chi ha sacrificato la vita per ridurre e contenere gli effetti l’incidente che avrebbe potuto avere conseguenze ancora più gravi sull’intero pianeta ovvero i cosiddetti “liquidatori” molti dei quali rifiutarono volontariamente di seguire gli ordini rimanendo più del dovuto nelle aree contaminate pur di portare a termine il loro lavoro. Un atto di coraggio che merita sempre di essere ricordato.

Chernobyl l'errore umano

Vediamo in sintesi di analizzare i vari passaggi e vi chiedo di prestare attenzione perché sicuramente sarete in grado di cogliere le diverse sfumature psicologiche che emergeranno dal racconto degli accadimenti.

Gli aspetti organizzativi che sono alla base dell'incidente di Chernobyl

Le prime disfunzioni nella centrale nucleare di Chernobyl vennero notate da osservatori esterni già nel 1983, tre anni prima del terribile incidente e questo dato ci permette di fare una prima considerazione: quando un sistema organizzativo è in equilibrio non si può escludere la presenza di problemi o di “ fattori latenti ” in grado di condurlo verso la “catastrofe”. Un incidente mancato ” va preso in seria considerazione esattamente come se fosse realmente avvenuto e dei malfunzionamenti banali potrebbero essere alla base di problematiche molto più complesse Questa è una caratteristica che accomuna ditutti i sistemi complessi che possono collassare in modo improvviso e seguendo logiche non lineari-causali mettendo in seria difficoltà le capacità di analisi e di problem solving delle risorse presenti.

I limiti della razionalità quando un contesto che diviene improvvisamente instabile e caotico.

Ad esempio il piano di evacuazione del World Trade Center funzionava ben nei casi previsti ma era decisamente inefficace di fronte al contesto destrutturato generato dall’attacco terroristico dell’11 settembre 2001. Voglio proporvi un esempio molto semplice di funzionamento non lineare che quotidianamente utilizziamo in modo inconsapevole. Quando alziamo il volume del nostro smartphone da 3 a 4 la nostra sensazione è di sentire una progressione di tipo lineare ovvero un aumento costante e regolare del volume mentre in realtà la scala impiegata nel nostro device è di tipo logaritmico. Un sistema lineare non sarebbe in grado di trasmetterci l’impressione di aumento graduale del volume. Esistono decine di esempi di come noi interpretiamo la realtà in modo naif, ad esempio esiste una “fisica ingenua” che sottolinea come la nostra visione del mondo sia più simile a quella di Aristotele che a quella di Netwon. Come esseri umani tendiamo a credere che il mondo sia più ordinato e prevedibile di quanto sia nella realtà.

L’origine del disastro di Chernobyl

Alle ore 13 del 25 aprile del 1986 gli operatori iniziarono a ridurre la potenza della centrale nucleare con l’obiettivo di raggiungere le condizioni ideali per dare il via a un test. Disattivarono volontariamente il circuito l’ECCS (Emergency Core Cooling System) , ovvero il sistema di emergenza che consentiva il raffreddamento del nocciolo. Per eseguire il test si priva quindi la centrale di uno dei suoi sistemi di protezione primari. L’obiettivo dell’esperimento era quello di verificare se il turbogeneratore fosse in grado di erogare , per inerzia, l’energia elettrica sufficiente al sistema di pompe di refrigerazione dell’impianto nel caso si verificasse un blackout. Questo sistema doveva fornire elettricità per circa 40/50 secondi prima dell’entrata in funzione dei generatori a diesel di emergenza. Erano già stati effettuate alcune analisi in precedenza (sempre con esisto negativo) e addirittura altri impianti nucleari sovietici come quello di Leningrad e Kursksi erano rifiutati di eseguire questo esperimento per motivi di sicurezza.

Perché fare questo test di sicurezza?

Si voleva eseguire l’esperimento prima della chiusura annuale programmata dell’impianto. Il test doveva essere effettuato proprio in quei giorni o i tecnici sarebbero stati costretti a rinviarlo di un anno. Possiamo comprendere come questo “fallimento” avrebbe comportato delle conseguenze sul piano lavorativo inficiando magari dei progressi di carriera. Questa situazione potrebbe aver attivato un processo mentale che viene definito “euristica della simulazione”, immaginare una serie di eventi futuri e modulare il proprio comportamento nel presente in funzione di essi. Inoltre la qualità del protocollo (secondo le fonti russe) era in realtà scarsa e i rischi erano stati presi inconsiderazione in modo superficiale.

Qual è stato il bias iniziale che ha dato origine al disastro di Chernobyl?

Vediamo, in sintesi quali fattori “psicologici” hanno contribuito a generare il disastro di Chernobyl I responsabili della centrale consideravano questo esperimento solo dal punto divista prettamente elettromeccanico e non temevano di conseguenza ripercussioni dirette sulla sicurezza dell’impianto nucleare. È possibile che il personale nutrisse un’eccessiva fiducia sulla sicurezza della centrale e ne sopravvalutasse l’aspetto tecnico. Proprio per questo processo di fraiming l’esperimento fu realizzato senza l’approvazione formale del Gruppo Tecnico di Sicurezza e gli analisti erano degli ingegneri elettrotecnici con limitate competenze in ambito nucleare. È possibile che si sia instaurato un rapporto gerarchico di potere con il personale della centrale e sia stata esercitata una leadership non adeguata rispetto alla complessità del contesto. Questo emerge dai resoconti che descrivono il comportamento tenuto da Anatolij Stepanovič Djatlov durante il test, un leader che ha sempre gestito i tema in modo aggressivo.

Un errore inziale ha dato il via a una catena caotica di eventi

Questa errata valutazione iniziale a creato il frame ideale per dare origine alla catena degli eventi , degli errori e delle violazioni che poteranno all’esplosione della centrale. Per una serie di imprevisti il test venne posticipato rispetto all’orario prestabilito e malgrado il cambio turno del personale si decise di proseguire l’esperimento. Il team in servizio al momento dell’esplosione non aveva ricevuto una formazione adeguata, il passaggio di informazioni era stato frammentario e probabilmente gran parte delle persone presenti ignoravano i rischi potenziali delle manovre che stavano eseguendo.  Secondo le fonti russe “ Gli operatori non avevano un’esperienza sufficiente con le caratteristiche dei processi tecnologici proprio di un reattore nucleare”


L’obiettivo delle risorse coinvolte era quella di completare al più presto l’esperimento e questo ha prodotto una serie di violazioni e di sottovalutazioni importanti. Gli operatori agirono in modo del tutto indipendente dal contesto e dai feedback che provenivano dal sistema. Sono da considerare anche altre variabili come la stanchezza dei tecnici per l’eccessiva attesa, le aspettative, i rapporti gerarchici e gli aspetti emozionali che possono aver contribuito a distorcere i processi decisionali. Per salvaguardare il piano del test gli operatori continuarono ad operare in un contesto destrutturato che divenne sempre più instabile arrivando a privare “volontariamente” il reattore di tutte le sue difese e compiendo una serie di violazioni “consapevoli”. L'obiettivo di tutti coloro che erano presenti nella sala di controllo era d iventato semplicemente completare il test ad ogni costo . L’errata diagnosi di quanto stava accadendo, le contromisure prese in modo reattivo e i feedback del sistema vennero filtrati attraverso uno s chema interpretativo che presentava già delle distorsioni dall’inizio dell’esperimento. La tragica storia di Chernobyl era già stata scritta nel momento in cui venne deciso il test. L'International Atomic Energy Agency (IAEA) parla di “una straordinaria sequenza di incuria, mal gestione, violazione delle regole di sicurezza che hanno portato all’incidente”. All’1.23 di sabato 26 aprile 1986 due esplosioni distrussero le 1000 tonnellate di cemento che sigillavano il reattore numero 4 diffondendo rapidamente nell’ambiente i prodotti del processo di fissione con le drammatiche conseguenze che tutti conosciamo. L’incidente di Chernobyl fu provocato da una serie di fattori psicologi e da carenze organizzative. Anche se successivi approfondimenti hanno sottolineato la presenza di carenze progettuali relative al reattore, alle barre di controllo e al sistema di protezione del nocciolo. Gli esperti in ambito nucleare sottolineano che il fattore principale che ha portato al disastro è rappresentato da una progettazione povera del reattore, noto come RMBK (ReaktorBolšoj Moščnosti Kanalnyj – Reattore di alta potenza a canali), particolarmente propenso a sovraccarichi improvvisi come accadde a Chernobyl.

Ma senza questo mix di fattori letali (umani e tecnologici) molto probabilmente si sarebbe potuta evitare la catastrofe. Il comportamento degli operatori nel corso dei 20 minuti che precedono l’esplosione sottolinea la presenza di violazioni eccezionali, che a prescindere dalle intenzioni delle persone risultano inevitabili una volta innescato il processo. Per certi versi era praticamente impossibile evitare l’incidente proprio per le condizioni organizzative e psicologiche che si erano venute a creare intorno al test. Infatti secondo la WNA (World Nucelar Association), l’incidente fu causato anche dalla «violazione delle procedure operative e assenza di una cultura della sicurezza». Dopo l’incidente di Chernobyl molti rappresentati dell’industria nucleare e decisori politici si affrettarono a rassicurare l’opinione pubblica ponendo l’accento sulle questioni “tecnologiche” e progettuali evitando però di approfondire l’aspetto psicologico ed escludendo a priori che un evento del genere sarebbe stato possibile in occidente. Dimenticando di citare un grave precedente accorso alla centrale statunitense di Three Miles Island con dinamiche psicologiche e organizzative per certi versi similari. Oggi il nucleare ha fatto passi enormi e in generale rimane una tecnologia sicura e un'ottima risposta per affrontare i problemi ambientali. Ma se le centrali nucleari si possono "aggiornare" e gli impianti possono essere soggetti a una costante manutenzione più complessa diviene la gestione del personale. Per questa ragione la dimensione psicologica e organizzativa diviene importante al pari della dimensione "tecnologica". 

Gli errori latenti hanno originato l'incidente di Chernobyl

Gli errori latenti che hanno dato origine al disastro di Chernobyl sono potenzialmente presenti in ogni organizzazione. Una struttura gestionale imperfetta, cristallizzata su modalità burocratiche, lenta nel rispondere, una scarsa cultura della sicurezza, dei processi decisionali farraginosi, la deresponsabilizzazione, le dinamiche di potere, gli aspetti emozionali e veri e propri bias di carattere cognitivo possono nascondersi in ogni realtà e dare origine a situazioni di emergenza piùo meno gravi in base al contesto in cui opera l’organizzazione. Quindi potremmo avere aziende che sviluppano gravi problemi di business, che lanciano prodotti fallimentari sul mercato o situazioni in cui questi fattori contribuiscono a creare una catastrofe delle proporzioni di Chernobyl e di esempi ne abbiamo purtroppo tanti anche in Italia (ad es. Seveso, la tragedia del Vajont e il Ponte Morandi).

Dott.Igor Graziato

Psicologo del Lavoro e delle organizzazioni

Specialista in Psicoterapia

Esperto di VRT (Virtual Reality Therapy)

Master in Cognitive Behavioural Hypnotherapy

Ipnosi Clinica Evidence Based

Membro dell'American Psychological Association

Membro della Division 30 Society of Psychological Hypnosis

Past Vice President Ordine degli Psicologi del Piemonte

Bibliografia

  • James Reason. Human Error.  Cambridge University Press. 1990
  •  Alberto Baldissera. La tecnologia difficile. Per un'analisi sociologica dei rapporti tra uomo e macchina e degli incidenti nei sistemi tecnologici complessi. Tirrenia-Stampatori. 1992.

 

Desideri maggiori informazioni?

Inviando una richiesta si dichiara di aver letto il disclaimer sulla privacy e si autorizza lo studio RPStrategy© ad elaborare una risposta.

Share by: