martedì 21 aprile 2020

L’inscrizione dell’energia nucleare nel sistema economico. Valutazioni storico-concettuali.




#Economia, #Chernobyl, #EnergiaNucleare, #Ricchezza, #Reddito, #TeoriaEconomicaClassica, #AdamSmith, #DavidRicardo, #ThomasRMalthus, #Petrolio, #ModelloStandardEnergia, #WilliamStanleyJevons, #TeoriaEconomicaMarginalista, #CrescitaPopolazione, #DepauperamentoRisorse, #RisorseEnergetiche, #RivoluzioneIndustriale, #ReattoriNucleari, #INES, #DisastriNucleari, #EnergiaElettrica, #Sviluppo, #Benessere, #Ambiente, #Atomo, #Carbone, #Combustibili




Molti ricordano (quelli della mia generazione certamente) la data del 26 aprile 1986, è il giorno in cui nel quarto impianto sovietico di energia elettrica a reazione nucleare intitolato Nicolai Illic Lenin, presso Pripjat, nella regione ucraina di Chernobyl, esplode il reattore numero 4, del tipo RBMK, sigla che nel ministero per lo sviluppo tecnologico sovietico indicava una particolare tipologia di reattori nucleari, nello specifico i reattori ad acqua, tipologia molto diffusa al tempo in Unione Sovietica. In questo caso, i reattori RBMK sono uno sviluppo – ed il reattore numero 4 di Chernobyl era un prototipo recente e considerato all’avanguardia – del primo reattore nucleare sovietico costruito dal fisico Igor Vasil’evic Kurcatov, padre della fisica nucleare sovietica e figura di grande importanza nella scienza russa novecentesca. Il reattore di Chernobyl dunque, era uno degli occhielli della scienza e dell’industria sovietica, tanto che la produzione nucleare era al centro della propaganda sovietica di quell’epoca ed in fondo dell’ orgoglio scientifico dell’U.R.S.S. Come accennato, tutto ciò termina, anche in modo inopinato proprio in quel dì di aprile del 1986, tanto che molti critici e storici contemporanei concordino nel ritenere il disastro ucraino un fattore decisivo sulle vicissitudini della stessa perestroika avviata dall’allora segretario comunista Mikhail Gorbaciov.

Il disastro è datato 26 aprile, ma la conferma ufficiale da parte del governo sovietico si avrà solo tre giorni dopo e tra l’altro in una confusa ridda di informazioni contraddittorie e contrastanti, trapelata, come è in questi casi, sotto forma di insinuazioni, di rimostranze politiche da parte delle nazioni confinanti e come onda inarrestabile di sospetti alimentata a sua volta dall’insufficiente azione di contenimento della censura governativa, non così efficiente nel soffocare l’ingombrante vicenda: le difficoltà a cui andarono incontro le autorità sovietiche furono molte e tutte di gravità sempre crescente, soprattutto in un’epoca in cui non esisteva un codificato protocollo di sicurezza e di intervento in casi di disastri nucleari; i fatti di Chernobyl a riguardo, avranno come conseguenza quella di avviare una standardizzazione internazionale delle procedure d’intervento e dei protocolli immediati d’emergenza, ma anche una visione complessiva della gestione del nucleare che non sarà più materia nazionale o regionale: la fine della politica della tensione, a mio avviso, può chiaramente collocarsi con quest’evento.

Nessuno insomma, poteva dirsi realmente preparato ad un evento di quel genere e nonostante i grandi sforzi e i drammatici sacrifici, i sovietici non lo erano certamente. Tuttavia, prim’ancora di essere banco di prova delle capacità scientifiche in materia di nucleare, il disastro di Chernobyl ha paventato spettri che avevano da tempo una loro collocazione nella propaganda sovietica in primis, ma più in generale nella stessa opinione pubblica internazionale. La gravità di un disastro nucleare, in questo caso quello ucraino, era comparato all’immaginario postbellico ampiamente codificato dalla Guerra Fredda, tanto che giudizi e concetti venivano riferiti quasi per una sorta di automatismo cognitivo all’esperienza e al terrore instillato nel dopoguerra dall’ordigno atomico. Uno degli aspetti insiti nella vicenda ucraina è appunto, quello di costringere la stessa politica internazionale a rivedere opinioni e valutazioni sul nucleare: un esempio, è la fine dell’idea terribile della bomba atomica come mezzo di deterrenza contro eventuali aggressioni militari, anche se alcuni casi recenti hanno riproposto, solo come mera protesta verbale e per fortuna mai accompagnate da intenzioni reali, il vecchio tema della minaccia atomica, argomento che a causa del principio bushiano della guerra preventiva trova un appiglio concettuale e politico (es. la lotta al terrorismo internazionale), ma ampiamento anacronistico nella situazione attuale della politica internazionale: a tal riguardo, gli episodi a cui mi riferisco sono la crisi indo-pakistana e la crisi USA-Corea del Nord (febbraio 2019), momenti di tensione diplomatica dove almeno in un caso (quello USA-Corea del Nord) il confronto s’incentrava anche sulla possibilità degli ordigni di distruzione di massa.

Comunque, negli anni la vicenda di Chernobyl è stato oggetto di una produzione trasversale tra letteratura, cinema e teatro, oltre a varie citazioni qua e là anche in canzonette musicali, che ha mirato a documentare, ad approfondire o semplicemente a divulgare (vedasi le varie inchieste giornalistiche sui fatti giudiziari collegati alla vicenda e sulla cronaca del dopo-Chernobyl) ciò che nel frattempo emergeva dalle inchieste governative e da quelle scientifiche, oltre che dai documenti politici secretati e resi consultabili proprio per arginare il vasto movimento di opinione pubblica innescato dalle restrizioni collegate alle procedure di salute pubblica avviate per contrastare il diffondersi del contaminazione radioattiva. Di recente, una versione affidabile di docu-fiction, realizzata dalla statunitense HBO, ripropone un’altra ricostruzione fedele delle vicende del disastro; questa produzione è interamente incentrata sui tre giorni concitati e drammatici successivi all’esplosione e traccia una narrazione delle settimane successive, quelle caratterizzate dal processo ai responsabili del disastro e dalla svolta politica che l’evento ebbe nell’azione del governo dell’epoca. La serie trae spunto dall’audio-diario del fisico sovietico Aleksander Legasov, responsabile e coordinatore scientifico del gruppo operativo a Chernobyl, morto suicida nel secondo anniversario del disastro, ma implementa la narrazione con alcune ricostruzioni scientifiche e giornalistiche che hanno in tutti questi anni chiarito molti aspetti della vicenda: il rapporto tra lo evento in sé e le disastrose conseguenze da esso prodotte è ampiamente avvertibile nei sei episodi della serie, ma si avverte anche come la serie televisiva statunitense ammetta abbastanza esplicitamente valida la versione del governo sovietico dell’epoca, che per certi aspetti appare convincente, anche se ovviamente non cancella, né si può dimenticare il pesante fardello di responsabilità che comunque rimane in capo al governo sovietico dell’epoca (noncuranza e sottovalutazione dei rischi produttivi per citarne un paio).


Dopo Chernobyl, non si ripeteranno altri disastri così gravi e tutta l’attività industriale sovietica legata all’energia nucleare sarà rigidamente regolata in base ad un rigido protocollo di sicurezza, tuttavia la gravità dell’evento ha richiesto la formulazione di uno strumento epistemologico di valutazione del rischio reale di contaminazione ambientale ad uso soprattutto per la comunicazione pubblica: l’intento è di evitare l’insorgere di confusione e di disinformazione (o possibili censure) che facilitano l’allarmismo nelle opinioni pubbliche nazionali. Tra la fine degli anni Ottanta ed i primi anni Novanta viene formulato uno strumento di comparazione del rischio ambientale noto come Scala INES, elaborato e proposto dalla IEAE, dall’Ente Internazionale per l’Energia Atomica, un’organizzazione fondata negli Stati Uniti d’America nel luglio del 1957 e promossa nel dopoguerra dall’amministrazione di Dwight D. Eisenhower (1953). La Scala INES prevede sette livelli di gravità (rischio effettivo) ed è estesa ad ogni fatto che comporti una contaminazione ambientale, lo si applica a.e. anche in caso di incidenti relativi al trasporto. Nel caso della centrale ucraina l’evento viene classificato con l’ultimo livello, il settimo, considerato «catastrofico». Per quanto in quel caso si sia trattata, almeno inizialmente, di una semplice esplosione delle condutture dell’acqua che componevano l’apparato di refrigerazione del reattore, infatti il disastro è collegato alla disseminazione dopo l’esplosione del reattore della grafite del nocciolo nell’ambiente intorno all’edificio, allo sversamento dell’acqua contaminata nel terreno sottostante al reattore – proveniente in parte dalla vasca del reattore, in parte dalle pompe dei vigili del fuoco che per l’intera notte innaffiarono il reattore in fiamme - e all’irraggiamento delle particelle radioattive nell’aria sotto forma di polvere e di fumo di combustione che determinarono il crearsi di una nube tossica di particelle sospese sopra tutta la Polonia e buona parte dell’Europa orientale: il disastro si verifica per le conseguenze da esso prodotto e non per una specifica meccanica del disastro. In tal senso infatti, la cronaca attesta un disastro ancora più catastrofico di quello sovietico e riguarda il disastro presso il complesso industriale giapponese di Fukushima Daiichi, avvenuto in concomitanza con il più grave terremoto ed il relativo tsunami mai verificatosi in Giappone (11-16 marzo 2011): ciò a testimonianza che gli incidenti sono sempre possibili, nonostante le pregresse esperienze, le rigide norme di sicurezza o i più sofisticati dispositivi che si possano utilizzare.


Eppure, il disastro sovietico occupa un posto nell’immaginario mondiale molto importante e ciò non a caso, visto che è il primo evento dell’era globale, anzi forse l’evento che introduce l’Europa nella nuova era della globalizzazione e ciò lo rende non solo fondamentale, ma un costante modello di riferimento nelle valutazioni che a livello europeo si possono fare in merito alle opportunità prodotte dall’utilizzo dell’energia nucleare. Se infatti, le prime applicazioni della scoperta dell’utilizzo dell’energia prodotta dalla fissione del nucleo atomico di metalli pesanti e radioattivi come l’uranio235 ed il plutonio sono state di natura bellica, la via verso un uso pacifico o per un uso civile come si dice in genere, è tracciata in parte come esito dell’azione pacifista di una parte degli scienziati, ricordo la petizione avanzata dal premio Nobel James Frank nel 1945 contro l’uso delle nuove bombe contro il Giappone, in parte da alcune esigenze energetiche che scaturiscono dal raggiunto livello di sviluppo tecnologico ed economico-sociale del mondo occidentale. Ora, la costruzione dei reattori nucleari sovietici, ma allo stesso modo altrove, deriva da un obiettivo costante nella politica sovietica, quello cioè di realizzare la completa autarchia energetica dell’U.R.S.S. e quindi, realizzare un’effettiva autonomia dalle risorse economiche tradizionali. Nell’era contemporanea pianificare un’“autarchia energetica” vuol dire ragionare su uno scenario energetico dove non compaia l’utilizzo del petrolio e dei suoi derivati, ma significa anche tentare la via per elaborare un sistema economico nazionale incentrato su risorse energetiche totalmente alternative a quelle convenzionali. Ecco allora, che lo sviluppo dell’energia atomica inizia ad acquisire motivazioni che non sono più solo militari, ma più realisticamente di tipo energetico ed economico, anche se convertire barre di combustibile in esplosivo non è un’operazione irrealizzabile. Il disastro di Chernobyl pertanto, ha incrinato quella facile illusione che il nucleare potesse rappresentare quella risorsa energetica alternativa al petrolio, da cui a sua volta trarre una differente definizione di benessere economico, di giustizia sociale autenticamente “democratica” o “popolare” e ovviamente, una fonte energetica potenzialmente infinita.

La drammatica vicenda di Chernobyl ripropone una questione di grande interesse nella società contemporanea il tema del fabbisogno energetico, soprattutto da quando la stessa teoria economica mondiale ha ormai preso atto dell’esauribilità delle convenzionali risorse energetiche e del futuro rischio di collasso dello stesso sistema economico che ha indicato in queste risorse energetiche non solo i propri asset economici, ma anche gli stessi fondamenti delle dinamiche economiche. La scoperta di un utilizzo a scopo civile del nucleare determina uno scenario energetico possibile ed alternativo a quello tradizionale, ma prima del disastro di Chernobyl è difficile che si ragionasse sulla possibilità che l’estensione dell’energia nucleare al tradizionale modello energetico fosse del tutto incompatibile con il sistema economico che è venuto a definirsi dopo la Rivoluzione Industriale, e non tanto per le evidenti motivazioni ecologico-ambientali relative all’altissimo rischio di contaminazione che rappresenta l’utilizzo dei metalli radioattivi, ma per ragioni inerenti al modello economico che ancora adesso utilizziamo.

La ricerca e l’uso di risorse economiche che fungano da fonti energetiche (combustibile) è di molto precedente alla nascita dello stesso sistema capitalistico, si è passati dall’uso del legno come fonte energetica domestica all’uso del carbone, ricavato da miniere scavate nel terreno; tuttavia, il legame tra energia e sistema capitalistico appare meno stringente, cioè meno determinante rispetto alle epoche attuali, e ciò nonostante l’utilizzo dei prodotti fossili come il carbone sia attestata chiaramente fin dall’epoca medievale, per non parlare del legno che è un materiale che attraverso la stessa storia dell’uomo fin da epoche remote. Il rapporto dunque, tra l’economia e l’energia è labile e comunque segue le regole ed i criteri di un’economia pre-industriale, lontana dall’integrare i due termini in un sistema interconnesso così come lo conosciamo oggi: la richiesta energetica non è tale da convertirsi automaticamente in attività economica vera e propria, per ottenere questo infatti, occorre che la civiltà umana inizi a dotarsi di un apparato tecnologico che riveli l’esigenza di un supporto energetico sempre più performante e determinante. Il coke, il cherosene (oli infiammabili per le lampade) ed infine il petrolio sono venuti ad imporsi gradualmente nel corso della storia energetica moderna e con essi inizia a modificarsi anche il paesaggio tecnologico e sociale della civiltà europea, tanto che diventeranno i perni di uno sviluppo modernistico inarrestabile delle società occidentali. A riguardo, la data da fissare è il 28 agosto 1859, quando un ferroviere americano, un certo Edwin Laurentine Drake, realizza il primo pozzo petrolifero a Titusville, in Pennsylvania occidentale: un pozzo di una ventina di metri e con l’intento di cercare non il petrolio, ma quello l’olio infiammabile su cui il ferroviere pensava di iniziare una fiorente attività commerciale. Inizialmente la scoperta del petrolio non fu così decisiva nella definizione degli assetti economici della società occidentale, ma bisogna attendere l’invenzione del motore a scoppio e la scoperta industriale di ottenere un certo liquido frazionato del petrolio, più leggero e con alte capacità detonanti, la benzina.

È da questo momento che inizia la corsa al petrolio ed in fondo, è a partire da questo momento che inizia la svolta fondamentale impressa dalla Prima Rivoluzione Industriale, la quale definirà non solo un diverso modo di produrre (meccanizzazione), ma condizionerà le stesse strutture del capitalismo pre-industriale, all’epoca un mero capitalismo agrario.


Il rapporto che intercorre tra le risorse energetiche ed il sistema economico viene a palesarsi con chiarezza solo all’epoca della meccanizzazione della produzione e con il trascorrere del tempo diventerà un legame sempre più stringente, tanto che nell’ambito della teoria economica classica viene a comporsi un modello specifico relativo proprio all’utilizzo del petrolio e dei suoi derivati, detto «modello standard dell’energia», che è il solo paradigma concettuale relativo al fabbisogno energetico che si sia mantenuto nel corso della storia economica recente. Il problema energetico dunque, è forse il primo e più importante tema affrontato dal pensiero liberista e dal liberalismo ottocentesco, forse più decisivo della stessa nascita del capitalismo. Tuttavia, l’approccio della scuola economica classica elabora lentamente la possibilità di considerare il tema energetico come un capitolo a sé o comunque, formulato in una prospettiva dove bene economico e risorsa energetica descrivono aspetti differenti di un medesimo prodotto. Alla base di quest’approccio infatti, si collocano le tesi economiche dello inglese Adam Smith, iniziatore di ciò che oggi intendiamo con Teoria Economica Classica. Smith non ha di per sé esposto una precisa teoria energetica, infatti il tema dell’energia compare nel suo La ricchezza delle nazioni (1776)[i] sotto forma di una valutazione economica dell’opportunità di produrre carbone, all’epoca importante (ed unica) fonte energetica e combustibile decisivo dei primi incerti passi della meccanizzazione industriale. Tuttavia, il discorso sul carbone non è un problema a sé, ma viene collocato in un discorso più ampio e più generico relativo alla rendita dei prodotti della terra. La rendita ottenuta dalla produzione del carbone appare all’economista inglese irrilevante, o comunque non così decisiva, nell’incidenza della rendita terriera; in tal senso, fattori determinanti che compongono una rendita significativa è l’utilizzo intensivo della stessa terra come fondo agricolo o altrimenti, la deposizione del terreno come demanio incolto dove lasciare che venga a crescere una macchia boschiva, in quanto la produzione di legname appare una produzione più redditizia, ma ovviamente ancora collegata ad un uso domestico dell’energia. In ogni caso, il valore di una materia è direttamente correlato al suo volume produttivo, ma nel caso del carbone, per quanto possa esserne prodotto, non è una materia così pregiata che possa rappresentare una rendita economicamente interessante. «Il carbone – dice Smith ne La ricchezza delle nazioni – è un combustibile meno gradevole del legno; si dice anche che sia meno salubre» (pp.184-85), e comunque indipendentemente da questi giudizi, il suo costo di produzione appare (e deve essere) più basso della produzione di legname. Infatti, qualunque essa sia la rendita che possa dare la produzione di carbone «questa è in genere una quota più piccola del suo prezzo rispetto alla maggior parte degli altri prodotti grezzi della terra» (p.186), perché solo un prodotto naturale, già diffusamente presente in natura, rappresenta un bene economico rilevante e non un prodotto che richiede alcuni processi di lavorazione che ne abbassano il valore: per queste ragioni risulta poco conveniente la produzione autoctona del carbone e si suggerisce l’importazione, costa di meno e si salvaguarda l’integrità del proprio territorio, magari in proiezione di una buona politica forestale di rimboschimento.


Da quanto detto, è evidente che il tema energetico in Smith non è per nulla individuato e comunque la sua valutazione evidenzia un primo elemento che confluisce nel rapporto tra energia e sistema economico, cioè la gratuità della risorsa energetica. L’investimento nella produzione del carbone non è un’attività economica rilevante, perché per ottenere questa materia si deve attivare un ciclo produttivo che non riesce a valorizzare la materia oggetto della lavorazione. Questo motivo è una delle ragioni principali che caratterizzano il modello economico di Smith, ma che ci suggeriscono anche in che modo nel corso degli approfondimenti teorici viene a delinearsi il rapporto tra economia ed energia. Dal modello di Smith per adesso, si trae solo uno schema di base di come comporre i rapporti economici, uno schema dove al centro vi è la rendita terriera che, assieme al capitale ed al lavoro, configura i termini economici più rilevanti. L’idea di fondo nel discorso di Smith è che la terra di per sé è un bene economico, in quanto se rimane incolta produce risorse come il legname che hanno di suo un certo valore economico, se invece, è oggetto di una coltivazione intensiva produce una serie di prodotti agricoli che producono una certa rendita, ma iniziare un’attività produttiva, con la quale estrarre quella rendita conservata nelle materie naturali, significa iniziare ad utilizzare la terra, cioè significa depauperare la stessa risorsa che nel sistema economico smithiano ha una doppia funzione, quella di risorsa economica essa stessa e quella di spazio entro cui viene a realizzarsi la stessa attività produttiva. Smith non pone con molta chiarezza il problema del depauperamento dei terreni, anche se suggerisce che una terra che viene sottratta ad un’attività produttiva convenzionale (agricola nella fattispecie) smette di essere un bene economico come a.e. nel caso delle miniere di carbone – non c’è l’idea di bonifica in Smith, ma c’è l’idea di massimizzare ciò che la natura sembra offrire all’uomo (visione edenica) -, tuttavia dalle sue tesi economiche si rileva
  1. Lo spreco economico delle terra che cessa di essere bene economico.
  2. La convinzione per cui compito e funzione del lavoro è solo quello di estrarre (valorizzazione) quel valore economico insito nei prodotti spontanei della terra e di capitalizzare, cioè di accumulare sotto forma di rendita, ciò che viene estratto dalla lavorazione. Il lavoro ha una rilevanza economica solo nella misura in cui estrae un valore economico già pre-esistente nel prodotto che viene lavorato, ma non c’è produzione di valore economico nella semplice attività fine a se stessa. L’intervento del lavoro non è economicamente determinante per se stesso, ma è finalizzato semplicemente ad incrementare la ricchezza che deriva dalla sua attività. In tal senso, la ricchezza del lavoratore non deriva del suo essere tale, ma dalla sua capacità di incrementare il volume di ricchezza collegato alla sua stessa attività.

È evidente a questo punto, che se esiste una problematica energetica, essa viene inscritta da Smith in una cornice economica pre-industriale e chiaramente in un regime agricolo, tuttavia pone subito il problema, che è di natura squisitamente economica, dello spreco dei beni economici, anche se nel suo modello lo spreco non riguarda tutte le risorse in generale, ma una risorsa specifica che è quella della terra, il che giustifica ovviamente il regime privatistico che diventa l’ordine con il quale preservare dalla distruzione questa risorsa fondamentale sia per l’esistenza umana, sia per le attività economiche. Ed infatti, il problema energetico inizia ad affacciarsi nella riflessione economica nei termini smithiani di depauperamento della terra, ma quest’ultima ricollocata e presentata sotto forma di difesa monopolistica del benessere economico nazionale.

Il primo a porre chiaramente il tema è un economista contemporaneo a Smith, David Ricardo, il quale pone l’accento sul depauperamento del terreno. L’attività produttiva trasforma il fondo terriero in un bene economico, ma maggiore è l’orientamento in questa direzione, minore sarà la disponibilità di questo bene: per questo economista il problema determinante è l’effettiva disponibilità produttiva della terra, quantità messa in rischio da un utilizzo che non ha finalità produttive (es. terreni edificabili). L’alienabilità del terreno diventa un tema preoccupante negli economisti, i quali tentano di risolverla tramite prospettive sempre più restrittive ed in ogni caso orientate ad una austerity apocalittica, come nel caso di un altro economista inglese, Thomas R. Malthus, che fisserà un principio economico basato sulla crescita demografica: la crescita demografica è un grave fattore di rischio, perché aliena la terra dal suo compito economico, quello di essere utilizzata per finalità produttive. La valutazione malthusiana afferma che il volume produttivo cresce più lentamente della richiesta di cibo da parte della popolazione e ciò accade perché le quantità messe in relazione descrivono due differenti progressioni matematiche: la produzione procede secondo una progressione aritmetica, il cui ritmo di crescita ha un andamento costante ed è fissato annualmente con un valore che si addiziona al dato già raggiunto; è una progressione del tipo n + 1; di contro, la crescita della popolazione non segue lo stesso andamento, ma segue una progressione geometrica, in quanto il dato demografico è un valore di superficie, cioè legato all’estensione, per cui procede con strutture del tipo n2.


Il modello malthusiano, seppur segnala un fatto grave, non raggiunge i toni di drammaticità che si avranno con l’economista tedesco Johann Heinrich Gottlob von Justi, che denuncia come la crescita senza controllo della popolazione possa incidere negativamente nello sfruttamento delle superfici e nel consumo delle risorse economiche, ma è soprattutto un altro economista inglese William Stanley Jevons, autore di Il problema del carbone (1865) a codificare definitivamente il modello energetico entro il quale verrà inscriversi lo sviluppo in senso civile del nucleare. La valutazione apocalittica di Jevons introduce esplicitamente il tema della penuria di risorse, così come l’aveva posto Smith, ma rovesciandone la prospettiva ed il significato: Smith valutava l’idea che nazioni competitrici non potessero avere le stesse risorse economiche, di qui l’opportunità di trasformare il gap negativo in un’effettiva opportunità di creazione di ricchezza, individuando e favorendo la produzione di quei prodotti che potessero assurgere al ruolo di beni di consumo nel proprio mercato interno come nel mercato estero, magari nel mercato di un diretto competitore. Lo scopo nel modello smithiano è creare un P.I.L. e basare la ricchezza nazionale su quelle attività che incrementino questo valore. Ora, Jevons, muovendo da questa stessa prospettiva, valorizza invece gli effetti depauperativi ed esaustivi della stessa attività produttiva. L’intenso utilizzo delle risorse economiche comporta un loro esaurimento che alla fine incide negativamente sul valore economico dell’intero sistema produttivo. La preoccupazione di Jevons non è orientata dai timori relativi al sistema economico in sé, verso cui c’è una sorta di indifferenza, tipica negli economisti classici, ma è orientato alla conservazione del monopolio economico, in questo caso il monopolio ed il benessere acquisiti dall’utilizzo del carbone. Non è minimamente ipotizzabile da questi economisti che l’elaborazione di altri meccanismi, quali a.e. una ridistribuzione in termini di servizi sociali (come farà la welfare economy) della ricchezza prodotta possano contribuire al mantenimento degli alti tassi di benessere, ma mostrano una certa sensibilità (ovviamente senza coscienza ecologica di sostenibilità ambientale) al tema del depauperamento delle risorse, ma si limitano ad immaginare solo politiche di razionalizzazione (sprending review) e comunque tese a difendere monopoli acquisiti o nel caso di crearne di nuovi.

Lo scenario paventato da Jevons descrive un duro contraccolpo economico sia a livello produttivo che a livello occupazionale, molto simile a quello vissuto a.e., a fine Ottocento in Sicilia con la crisi dei Fasci Siciliani e del commercio del salgemma raccontato da Luigi Pirandello in I Giovani e i vecchi, ma lo sfruttamento intensivo denunciato da questo economista è effetto non del modello economico adottato, bensì dalle conseguenze derivanti dall’innovazione tecnologica innescata proprio dalla Rivoluzione Industriale: la meccanizzazione della produzione ha creato le condizioni affinché esistesse uno sfruttamento intensivo del carbone, ma il fenomeno della Rivoluzione Industriale risponde ad un’esigenza insita nel modello economico classico, vale a dire creare volumi di produzione sempre più grandi, in quanto da questi volumi dipende la ricchezza, il benessere e lo stesso reddito da lavoro. Alla valutazione energetica proposta da Jevons non è estranea la stessa impostazione classica, semmai introduce nel linguaggio economico termini quali «disutilità», «utilità negativa» e «utilità marginale» che troveranno una sistematica applicazione nella teoria economica dell’austriaco Carl Menger, iniziatore di quell’indirizzo economico austriaco che fa capo alla teoria economica marginalista, duramente avversata da Karl Marx[ii], un modello economico cioè, che privilegia la tesi per cui il valore di scambio di una merce debba calcolarsi sul fabbisogno effettivo di quello stesso bene economico e non sul suo presunto valore intrinseco. In questo modello, la sfera emotiva e le stesse suggestioni dei consumatori sono assunti come criteri decisivi per la definizione di una politica economica liberista, collocando de facto la riflessione economica nello stesso ambito della psicologia e del controllo sociale, dell’ideologia e del circuito istituzionale della cultura e della trasmissione pubblica dei saperi: il condizionamento effettivo dei comportamenti dei consumatori diventa un interesse economicamente rilevante, oltre che una strategia valida di contenimento di tutte quelle condotte ritenute disagianti e sperequative.


La teoria marginalista di Menger in particolare, rivela un fatto economico che merita di sottolinearsi, cioè che nella determinazione del valore della merce il processo produttivo non è esente dal condizionamento della stessa tecnologia produttiva, soprattutto se si inizia a muoversi in una logica di razionalizzazione degli stessi processi produttivi, come farà in seguito Friedrich August von Hayek (Vienna 1899 – Friburgo 1992). La via della razionalizzazione, considerato da questo filosofo austriaco è l’unico strumento in mano al produttore su cui può ricavare informazioni certe e valide e queste informazioni spingono la produzione a valorizzare non tanto il prodotto in quanto tale (visione artigianale), ma come produrlo al meglio, in quanto è dalla tecnologia che si utilizza che dipende il successo della stessa attività produttiva. Vista in questo modo, il tema energetico comincia ad assumere una rilevanza maggiore, non solo perché è l’energia che permette che la produzione rimanga attiva (cfr. la crisi energetica degli anni Settanta del secolo scorso), ma anche perché sempre più il costo energetico fa sentire il suo peso tra i costi produttivi. Ecco allora, che si delineano due questioni:
  1. L’attività produttiva richiede un fabbisogno energetico sempre crescente e non solo perché si produce di più, ma perché si riesce a produrre meglio e tramite un apparato tecnologico sempre più ampio e complesso.
  2. I volumi produttivi non sono direttamente comparabili ai volumi energetici, quest’ultimi crescono non a causa della logica della sovraproduzione, ma per preservare l’integrità del sistema economico basato sulle stesse risorse energetiche, poiché la produzione, la diffusione e infine, il consumo di energia sono quelle voci che permettono di scaricare su di esse le stesse contraddizioni economiche del sistema attuale in termini a.e., occupazionali.

Ecco delinearsi il nodo economico su cui verrà ad inserirsi la ricerca nucleare. La capacità produttiva del petrolio compensa tutte le note ordinarie dei processi economici, ma riesce addirittura a produrre un surplus che può essere depositato, accumulato. Ciò ha reso il petrolio quell’asset economico indispensabile nello sviluppo della civiltà umana attuale e ciò ha finito per definire quel modello energetico che è ancora oggi in uso, ma l’uso intensivo del petrolio e dei suoi derivati ha riproposto quelle stesse questioni che a suo tempo avevano tenuto banco con l’uso del carbone, cioè il suo depauperamento. La crisi energetica degli anni Settanta del XX secolo ha ampiamente confermato tutti i timori che già tra gli anni Cinquanta e Sessanta si erano palesati e che avevano dato avvio ad una serie di politiche energetiche nazionali orientate per lo più alla autarchia energetica, anche se de facto l’utilizzo del petrolio rimane diffusissimo e vincolante. L’esigenza di trovare un’altra fonte energetica alternativa e credibile, che riuscisse ad assolvere a tutte le funzioni economico-produttive assegnate al petrolio e che permettesse, si sperava in via definitiva, di sostituire il modello standard dell’energia con un nuovo modello economico, almeno a livello industriale, era un tema che si rilevava con sempre più evidenza: risolvere le problematiche energetiche dell’industria diventa un’urgenza sociale, oltre che economica, poiché da essa dipende lo stesso benessere nazionale. La speranza è a questo punto della storia economica dell’energia che il nucleare fosse appunto, questa panacea economica.

La scoperta della fissione del nucleo atomico e la consapevolezza dell’enorme potenziale elettrico che può ottenersi dalla spaccatura del nucleo di un atomo non sono di per sé sufficienti per inscrivere l’energia nucleare nell’ambito del sistema tradizionale dell’energia. Infatti, a parte la prima applicazione in termini bellici non era possibile ancora pensare uno scenario differente, a meno che si riuscisse ad inventare un apparato industriale che inserisse l’energia nucleare tra le convenzionali fonti energetiche. La soluzione arriva dalla scienza applicata e dalla possibilità di convertire meccanicamente le varie forme di energia. In tal senso, una reazione nucleare è comparabile ad una qualsiasi reazione chimica, vale a dire può essere di due tipi:
  • Reazione esoenergetica, vale a dire una reazione che ha un’energia maggiore di zero, energia indicata con la lettera Q, da cui si ha Q > 0: in questo tipo di reazioni si ha un enorme rilascio energetico sotto forma di calore e di emissioni elettromagnetiche (radioattività).
  • Reazione endoenergetica, vale a dire una reazione che ha un’energia inferiore a zero, il che vuol dire che anziché rilasciare quantità di energia, la assorbe (Q < 0).

Dal punto di vista della produzione energetica le reazioni che sono tecnicamente di grande interesse sono le fissioni e le fusioni, in quanto rilasciano grandi quantità di energia. La reazione di una bomba atomica è una reazione di fissione, in quanto l’innesco di una bomba atomica porta alla frammentazione dei nuclei atomici dell’elemento che funge da esplosivo, ciò si traduce in una produzione enorme di elettroni che a loro volta spaccano i nuclei in una proliferazione geometrica estesa e all’apparenza irreversibile. Questo tipo di principio è alla base della produzione di energia nucleare, in quanto consiste nell’eccitare la barra di combustibile in modo da farle rilasciare elettroni. La differenza fondamentale rispetto allo scoppio di una bomba atomica è la possibilità di poter controllare il processo di frammentazione nucleare e soprattutto la possibilità di convogliare queste enormi energie in un sistema da cui ricavare energia. A riguardo, la via iniziale che si percorrerà è quella di costruire dispositivi atomici integrando diversi principi fisici, nello specifico ricorrendo agli studi della termodinamica ottocentesca ed utilizzare i cambi di stato della materia come produttori energetici. Ma per fare questo occorre poter controllare in qualche modo la reazione a catena che è alla base del processo radioattivo del metallo. Lo scienziato italiano Enrico Fermi nel 1934 aveva elaborato un sistema che faceva uso di una sostanza detta moderatore elettronico con la quale inibire la radioattività dell’uranio-235 in fase di fssione: la interconnessione del moderatore elettronico ha lo scopo di assorbire parte dell’energia della reazione nucleare e rilasciarla (senza fermarla, beninteso) sotto forma di energia termica, prodotta a sua volta da particelle dette neutroni lenti che hanno l’effetto di diminuire la crescita esponenziale delle particelle proiettili della fissione. In riferimento alla teoria della relatività di Albert Einstein, la presenza di questo moderatore elettronico fa sì che la reazione nucleare converta quest’enorme quantità di energia in massa, condizionando la meccanica della reazione. Si realizza quello che viene detto difetto di massa, che descrive de facto il consumo del materiale atomico, il quale a lungo andare finisce per esaurirsi. E tuttavia, maggiore è la radioattività, più grande è la produzione di elettroni, che in termini economici si trasforma in abbondante produzione di energia elettrica.

La costruzione ed il funzionamento infatti, del primo dispositivo nucleare (pila atomica) lo si devono a Fermi il 2 dicembre del 1943 a Chicago, un dispositivo che utilizza e sviluppa un effetto fisico detto effetto Seebeck, con il quale si descrive l’insorgere di un potenziale elettrico da un metallo sottoposto ad una stimolazione elettromagnetica. Thomas Johann Seebeck è stato un fisico tedesco che nel 1823 realizza una esperienza empirica di conversione del calore in elettricità. Alla base dell’esperienza di Seebeck vi è semplicemente l’esigenza di evitare lo spreco del combustibile emittente calore e a tal riguardo, il fisico tedesco realizza un dispositivo composto da un unico circuito chiuso che prevede due metalli di diversa natura tenuti assieme da un terzo metallo di congiunzione (vedasi figura). Lo scopo dell’esperienza è quello di creare un potenziale elettrico ottenuto mediante il riscaldamento per induzione del metallo di congiunzione ed osservabile con un amperometro collegato ai due metalli, che fungono da poli magnetici. L’intuizione fondamentale di Seebeck è quella di utilizzare il calore per generare una trasmissione di elettroni nello spazio compreso tra i due metalli. L’effetto che si ottiene produce la termoelettricità, cioè la capacità di ottenere da un metallo un irraggiamento di elettroni una volta sottoposto a determinate condizioni di temperatura: basta tenere un ago polarizzato vicino al circuito per osservare l’esistenza di questa trasmissione elettronica.


La produzione di energia nucleare si sviluppa a partire da quest’effetto, tanto che un reattore nucleare di prima generazione è un combinato di dispositivo eterogenei, nello specifico la tecnologia combina il potenziale elettrico derivante dalla radioattività dei semiconduttori con alcuni principi di termodinamica; il menzionato fisico sovietico Kurcatov realizza nel giugno del 1954 in Unione Sovietica il primo reattore nucleare, piuttosto piccolo e con una potenza non superiore a 5000 kilowatt. Sulla stessa tipologia nell’ottobre del 1956 la Gran Bretagna mette in funzione la centrale elettrica di Calder Hall che sviluppa una potena di 50000 kilowatt. Il 26 maggio 1958 negli Stati Uniti d’America la Westinghouse inizia la produzione di corrente elettrica da un piccolo reattore costruito a Shippingport, in Pennsylvania, che sviluppa 60000 kilowatt. Nell’aprile del 1965 viene messo in orbita il primo satellite artificiale a propulsione atomica. L’energia atomica dunque, ha per tutto il periodo della Guerra Fredda uno sviluppo costante ed una proliferazione ampia, ovviamente sotto il regime di programmi industriali e non militari e ciò nonostante questo sviluppo non sembrava rappresentare un grave rischio, almeno fino al 28 marzo 1979, data in cui si registra il primo grave incidente nucleare nel reattore di Three Mile Island, sul fiume Susquehanna, vicino a Harrisburg, con dinamiche molto simili a quelle che contraddistingueranno il disastro di Chernobyl, ma con conseguenze decisamente meno gravi e più sostenibili, anche se ciò ha comportato un’ampio programma di bonifica del territorio. Prima di questa data il movimento anti-nucleare è cresciuto poco per volta e se non ha potuto impedire la proliferazione di questa energia, ha in parte contribuito a creare una certa coscienza dei rischi collegati all’uso industriale del nucleare, coscienza che però non può eludere la questione di fondo, quello di dare una qualche risposta credibile al fabbisogno energetico sempre crescente della civiltà umana: i movimenti ambientalisti attuali offrono solo una parziale e limitante risposta al quesito, in quanto la riflessione riguarda l’impiego industriale e non – come viene posta da questi gruppi – un eventuale impiego domestico dell’energia, questa fase è stata ampiamente superata da più di un secolo e la sfida energetica si configura in uno scenario molto differente da quello conosciuto e che una semplice regressione tecnologica non può né preservare, né risolvere le contraddizioni in esso presenti.
Le contraddizioni economiche che il sistema capitalistico industriale scaricava chiaramente sull’attività di lavoro dipendente, con grande disappunto dei socialisti e del filosofo tedesco Karl Marx, sono state progressivamente scaricate quasi interamente sulle stesse risorse energetiche. Non si produce più per consumare o per realizzare quella sovrapproduzione che reggeva l’intero sistema economico capitalistico ottocentesco, ma si produce per consumare le risorse energetiche, per distruggere proprio quello spazio vitale che ci sostiene, perché è l’unica attività, almeno prima della svolta elettronico-digitale degli ultimi decenni, che dà modo di compensare a tutte le storture che spontaneamente il mercato, il capitale e lo stesso lavoro non riescono a risolvere. Le enormi quantità energetiche prodotte dall’energia nucleare compensano, almeno in questa fase di civiltà, gran parte di queste esigenze economiche, al netto ovviamente degli alti costi legati alla sua stessa produzione. Ciò rende l’energia nucleare non solo compatibile con il convenzionale ed attuale modello economico, ma ne rende possibile la sua stessa inscrizione nel classico modello energetico, anche se il nucleare è un’energia non convenzionale e non esibisce le caratteristiche economiche del modello standard.

L’energia nucleare, per quanto enorme possa essere, non ha il vantaggio di trovarsi così diffusamente in natura, cioè non è che praticando un buco sul terreno si ottiene il materiale radioattivo che serve per la produzione del combustibile atomico. La radioattività diventa una risorsa energetica dopo un lungo e complicato processo produttivo che sintetizza il combustibile che serve per la produzione industriale. Ciò si traduce in costi che rendono l’energia nucleare anti-economica, almeno secondo i criteri della teoria economica classica; senza contare gli alti costi di stoccaggio per lo smaltimento delle stesse barre esauste. Ecco perché, nonostante i gravissimi disastri ambientali, la domanda relativa all’uso del nucleare per soddisfare il fabbisogno energetico attuale e futuro non è eludibile, anzi trova addirittura, una risposta affermativa. Sì, il nucleare è una risorsa energetica che, volenti e nolenti, compone oggi uno scenario energetico che si ritroverà anche in futuro; un futuro composto da molti soggetti (non necessariamente economici) che interagiscono tra loro in un equilibrio precario, sia dal punto di vista economico che sociale, oltre che finanziario: qui, precarietà vuol dire che sarà un sistema facilmente condizionato e facilmente disarticolabile, a meno che iniziamo l’avventura egemonica spaziale, ma anche in quel caso l’intervento del nucleare sarà fondamentale.


In tal senso, la sostenibilità del nucleare può essere una strategia che assieme ad altri dispositivi normativi e non solo permettono di gestire al meglio tutte le varie dinamiche che agiscono a favore oppure contro l’equilibrio economico della società umana del futuro, soprattutto tenendo ben a mente che il G20 del 2015 ha confermato alcuni motivi fondamentali:
  • La lotta contro l’inquinamento passa anche attraverso una diversa e più oculata gestione di tutte le risorse energetiche e non solo (vedasi il consumo idrico e lo sfruttamento delle terre coltivabili), ma condotta entro un diverso regime di sostenibilità ambientale, che però può solo strappare parziali compromessi per la salvaguardia e l’integrità delle risorse territoriali (vedasi ciò che sta accadendo in Amazzonia).
  • Nonostante tutti i buoni propositi e le sincere intenzioni ambientaliste, non vi è alcuna nazione al mondo in questo momento che abbia una reale intenzione di rallentare i propri ritmi produttivi, ripresi dopo una leggera crisi del turbocapitalismo finanziario degli anni Ottanta del secolo scorso. Il consumo energetico si è adeguato a quest’esigenza che non è solo egemonica, ma è anche insita nel modo attuale di intendere l’economia e la stessa attività produttiva: l’ampliamento delle pratiche di riciclo sono un modo per non gravare sulle risorse energetiche esistenti, ma anche un modo per poter “rallentare” senza incidere significativamente sui ritmi economici degli ultimi decenni. Tuttavia, la velocità che caratterizza l’attuale attività produttiva non richiede strategie di rallentamento, ma di una diversa implementazione dei sistemi ad essa correlati: nessuna intenzione di rallentare, ma di variare velocità tenendo gli stessi livelli di potenza.
  • Rallentare non è possibile, a meno che si decida scientamente di cronicizzare fenomeni sociali come la disoccupazione, di strutturare definitivamente ciò che un tempo si chiamava “povertà relativa” in una nuova “povertà assoluta” e cronica, di sperimentare svariate formule di contenimento dell’esplosione demografica in base ad una nuova e cinica ragion di stato e via dicendo in barba al principio di autodeterminazione individuale e collettivo.
  • …E via dicendo su scenari ed altre situazioni che oggi non riusciamo ad immaginare, ma che sono realisticamente possibili.  





Post Scriptum. In un messaggio su una chat una compagna di liceo ha fatto riferimento al concetto di «civiltà», che mi tentava seriamente nel darle risposta e commento da cui però mi sono astenuto, perché in alcuni casi si ha la sensazione di voler dire qualcosa in merito, ma poi scavando più attentamente forse in quel momento non c’è veramente nulla da dire. Meglio il silenzio direbbe alcuni, ma per quanto si possa stare in silenzio c’è sempre quella voce interiore che ti costringe a rimuginare su temi, argomenti illudendo che abbiano un qualche valore intrinseco. Ebbene, allo stato attuale non saprei cosa significhi la parola “civiltà”, anzi di più, personalmente fa parte di un lessico e di un apparato concettuale verso cui ho indifferenza ed in alcuni caso anche grande diffidenza. Certo, apro un libro qualsiasi di storia (politica, d’arte, di scienza, di…) e trovo buoni motivi per dire che esiste la civiltà e che è anche un valore, ma questi stessi libri mi dicono pure che esistono tante altre civiltà quante sono le epoche, gli stili artistici e letterari che si sono succedute nel corso dei millenni, e senza incappare in qualche pregiudizio etnico, magari legato a qualche automatismo narrativo, sembra che in fondo, il genere umano ha dato vita una serie di civiltà che allo stato attuale sono state soppiantate da una sola e grande civiltà, quella genericamente detta “Occidentale”. Certo, noi che ne facciamo parte di questo “Occidente” è un gradevole piacere pensare che tutti i fili possibili della storia si siano intrecciati in questo grande tessuto che è l’Occidente, finendo per relegare a periferiche tutte le altre espressioni di civiltà. Ma questo discorso non vale solo nei confronti di altri uomini, il che legittimerebbe un’eventuale accusa di razzismo, ma anche nei confronti delle altre specie viventi, es. gli animali selvatici: vivono in una pax che gli è imposta dal nostro regime di dominatori della scala alimentare e non solo. Più che risposte, parole come queste, parole come “civiltà”, “cultura” et similia mi fanno insorgere solo dubbi, perplessità sul loro effettivo significato e soprattutto sul loro effettivo potere rappresentativo di ciò che sento di essere adesso e di ciò che altri come me o differentemente da me sentono di essere. Non chiedo una moratoria, né un’abolizione di tali termini, ma mi interrogo seriamente a cosa servano e a cosa significhino, perché ho paura che non abbiano alcun significato per me e la cosa sorprendente (ma forse riguarda solo me) è che questa loro irrilevanza è progredita di pari passo con il complicarsi del mio rapporto con la letteratura: più sentivo estranea una certa narrazione letteraria, più sentivo l’evanescenza del concetto stesso di civiltà e di cultura. Non è che alla base di queste rappresentazioni vi sia l’azione perversa delle strutture narrative e della loro azione configuratrice, quella per cui la verità è un fatto ideologico anzitutto e non un dato oggettivo, per cui la fede è soprattutto tradizione che un fatto incontrovertibile e via dicendo. Insomma, il punto è (da parte mia, ovviamente) se conoscenza, erudizione, approfondimento e via dicendo sia solo un fatto intellettuale o sia in fondo (come ho sempre pensato che sia) il tentativo di un’emancipazione vera e propria, cioè un problema di libertà? E se è così, come questa stessa libertà possa garantirsi in un regime dove la narrazione domina l’azione comunicativa creando e configurando precisi confini allo spazio di libertà, al determinismo della volontà individuale e/o collettiva? È conveniente appellarsi al “buon senso” o alla stessa storia civile del proprio gruppo di appartenenza?




[i] Adam Smith, La ricchezza delle nazioni, introduzione di Alessandro Roncaglia, con contributi teorici di Lucio Colletti, Claudio Napoleoni e Paolo Sylos Labini, traduzione italiana di Francesco Bartoli, Cristiano Camporesi e Sergio Caruso, 1995 Newton Compton editori s.r.l., Roma.
[ii] A riguardo, da non dimenticare la pessima opinione espressa sulla teoria marginalista da Anotnio Gramsci, fondatore e dirigente del Partito Comunista d’Italia, che rappresenta pienamente l’avversione costante della Sinistra europea ed italiana, in questo caso, sull’estensione in termini economici di alcune soluzioni analitiche.

domenica 12 aprile 2020

La data del compleanno, ovvero una simmetria complessa in un sistema di eventi probabili.



#Matematica, #Compleanni, #Probabilità, #ErroreAssoluto, #ErroreRelativo


Il giorno del mio compleanno è il 21 aprile e fatto sorprendente per alcuni è che condivido questa data con un mio cugino, seppur più giovane di me. Coincidenze di questo tipo appaiono sorprendenti, perché si pensa, forse per qualche retaggio culturale, che la struttura profonda della realtà sia in fondo un ordine regolato e che la meccanica che la presiede, quello che si registra quotidianamente con i sensi, abbia una sua direzione che non prevede simmetrie di questo tipo: rapporti di causalità e di successione, non di intersezione. Ora, un evento così piccolo come la coincidenza della propria data di compleanno è in effetti, motivo di preoccupante (o di meraviglioso) sconvolgimento di questo tipo di determinismo, perché suggerisce un tipo di struttura su cui non è possibile affermare alcuna previsione perché non può formularla e a causa della quale non può ravvisarsi nel comportamento degli eventi uno scopo che informi su un eventuale progetto di vita, perché questa finalità, qualora esistesse, è diventata nel frattempo una direzione di indirizzo generica, un’ipotesi di lavoro tutt’al più.

Ecco che le certezze meccanicistiche e deterministiche di un tempo vengono sostituite da ipotesi e congetture, ma soprattutto da valori probabilistici che negano ciò che l’intuizione ordinaria sembra suggerire e confermare o che privano la stessa dinamica esistenziale di quel poco di fantasia o di quella poesia che si è in dovere di riconoscerle– ma alla fine, si è veramente sicuri che sia necessario farlo?

La storia del calcolo probabilistico inizia da un fatto occasionale e senza pretesa di sconvolgere i massimi sistemi metafisici che governano da sempre il pensiero filosofico europeo; in particolare nasce da un’esigenza molto meno nobile di quel che si potrebbe pensare, cioè dall’avidità, in particolare di quella del giocatore d’azzardo intento nel cercare e trovare la strategia di gioco migliore per capitalizzare al massimo le proprie vincite. Ora, la filosofia europea si è sempre interrogata sul concetto di possibilità, ma ovviamente lo ha fatto tenendo ben presente che il significato di questo concetto andava sempre correlato al determinismo ontologico e gnoseologico dell’attività intellettuale del soggetto: a riguardo, decisiva è la formulazione del filosofo tedesco Immanuel Kant del termine di “possibile” (Möglichkeit) come una specifica condizione dialettica dell’esistenza che permette di estendere a quest’ultima molti dei concetti tradizionali della filosofia formulati e collocati sul piano delle idealità astratte (cfr. Guido Zingari, Speculum possibilitatis. La filosofia e l’idea di possibile, 2000 Editoriali Jaca Book, Milano). Ecco, la probabilità matematica che si sta considerando è in una certa misura una condizione strutturale di un certo modo di rappresentare le dinamiche degli eventi, tanto che questa è espressa da un valore ottenuto dal rapporto tra il numero dei casi favorevoli ed il numero dei casi possibili. Insomma, un valore con il quale indicare quelle condizioni per cui un certo evento possa accadere realmente.

Ovviamente, il dato probabilistico non è una certezza, ma quantifica quanto possa realisticamente accadere un certo evento rappresentato da quel valore. In tal senso, la certezza – tra l’altro opinabile – per cui la probabilità sia un dato certo la si ottiene quando il rapporto in questione si risolve in una unità, cioè quando dà 1. In tutti gli altri casi, il valore esprime la tendenza dell’evento ad approssimarsi ad 1, cioè la tendenza dell’evento a verificarsi realmente. Pertanto, in linea di principio si può dire che la probabilità sia qui sotto descritta:

P(E) = P/n (1), dove con P(E) si indica il valore probabilistico di un evento, mentre la frazione è composta da “p” che sono gli eventi favorevoli e “n” tutti i casi relativi all’evento in questione. L’esempio più semplice è dato dal calcolo probabilistico che si ottenga un numero dal lancio di un dado: supponiamo di ottenere l’asso, la probabilità è pari a 1/6.

Una semplice descrizione dello argomento, senza entrare in eccessivi tecnicismi, è l’introduzione che Martin Gardner in un capitolo dedicato del suo libro del 1975, pubblicato in Italia con il titolo Ah! Ci sono! Paradossi stimolanti e divertenti, di cui è possibile trovare una edizione del 2008 della RBA Italia, ma volendo per avere un prospetto storico-concettuale si può consultare la breve appendice storica di Elementi di algebra per i licei, vol.2 del La Monnier (1990) di Cateni-Bernardi-Maracchia. Quando si ragiona di probabilità bisogna fare una distinzione degli eventi valutati in tre diversi tipi di situazioni probabilistiche:
  • Probabilità classica: indica la stima valutata in modo aprioristico dell’accadimento degli eventi. Un esempio tipico è la stima della probabilità che si ottenga un certo numero dal lancio di un dado. La struttura di questa probabilità è data dal rapporto k/n (2), dove con n si indicano tutti gli eventi possibili, mentre con k un suo sottoinsieme. Esempio, dato che un dado ha sei facce, quindi 6 è la possibilità che il dado mostri una delle sue facce, mentre se si punta sull’uscita almeno di un numero pari (2, 4, 6), sapendo che i numeri pari in un dado sono 3, il rapporto (2) è 3/6 = 1/2. Ovviamente, se si vuole la stima di un numero qualsiasi la probabilità è 1/6.
  • Probabilità statistica: indica la stima della frequenza con cui accade un certo evento. Supponiamo la uscita del numero 6 da un lancio di dadi. Fissiamo un intervallo di 100 lanci, la probabilità è stimata 7/10.
  • Probabilità induttiva: indica la stima che lo scienziato formula in relazione alla validità di una legge generale o di un principio teorico.

Ciò detto, l’argomento che ho introdotto parlando delle date dei compleanni consiste nel rilevare come un evento di questo tipo, ritenuto sorprendente, sia più consueto di quel che si creda, anzi il caso opposto, cioè, della non coincidenza delle date è meno ricorrente. Una lettura di questo tipo è quanto proposto dal libro di Rob Eastaway e Jeremy Windham, i quali affermano che se certe coincidenze attirano più di altre è soprattutto per motivi psicologici, che non per vere ragioni matematiche, «gli eventi noiosi – dicono gli autori – vengono dimenticati in fretta, ma le coincidenze attirano l’attenzione e restano impresse nella memoria» (ib., Probabilità, numeri e code, 2017 Milano, p.84). Un argomento che rivela con spietatezza, anche se in una certa misura non completamente risolutivo, i limiti di un certo determinismo e della sua ontologia di riferimento, fosse anche un’ontologia storicistica.

Ciò detto, l’esempio della coincidenza delle date dei compleanni è molto diffuso nei manuali di divulgazione matematica, perché è un facile modo per spiegare l’andamento probabilistico e soprattutto il valore probabilistico relativo alle coincidenze. Infatti, quando si valuta il valore di una coincidenza si deve tenere in considerazione il fatto che si vuole instaurare una qualche relazione tra due eventi presi come eterogenei certamente, ma anche come equiprobabili, cioè come eventi che hanno la stessa probabilità di accadere singolarmente, ma anche simultaneamente. Spiegare le coincidenze delle date di compleanno significa immaginare che ci sia una simultaneità tra due eventi diversi. Ed è quanto si andrà a valutare.

Immaginiamo la seguente situazione. Ci si trova in una classe scolastica ancora vuota tranne per la presenza di due soli bambini. Ci si chieda infatti, quale sia la probabilità che i due bambini attualmente presente in aula abbiano la stessa data di compleanno. In base al breve prospetto sopra, la probabilità in generale che due bambini qualsiasi abbiano la stessa data è fissata dalla Probabilità classica, cioè pari a 1/365, ma qui si sta chiedendo una probabilità diversa, vale a dire quanto sia probabile che questi due bambini abbiano la stessa data. In questo caso, il ragionamento insiste sull’accadere simultaneo degli eventi, per cui la stima che si chiede è pari al prodotto dei due eventi, cioè ad AxB.

Per meglio comprendere questo meccanismo calcoliamo la probabilità con un sistema elementare, cioè con il lancio di una moneta. Una moneta ha due facce e quindi, la possibilità che in un lancio dia o testa o croce è pari a 1/2. Poiché ci interessa la frequenza probabilistica, la valutazione deve compiersi su un certo intervallo di lanci. Per ora, ci si limita a considerare un intervallo di due lanci. La stima che si ottiene è pari a:

½ x ½ = ¼.

La possibilità che nel lancio di una moneta possa uscire “testa” (o altrenativamente “croce”) è pari alla stima di 1 su 4, vale a dire che su due turni di lancio la possibilità che si ottenga la faccia della moneta desiderata, supponiamo “Testa”, è una su quattro, perché le combinazioni che si ottengono sono TC, CT, CC, TT: solo una combinazione è vincente, le altre hanno un valore o frazionario o nullo. Ora, torniamo all’esempio delle date dei compleanni.

Si supponga che i due bambini abbiano date diverse, il calcolo della loro probabilità indica nel valore pari a 364/365 la stima per cui ciò si realizzi: rispetto a quell’unico giorno in cui la data coincide, vi sono 364 giorni “liberi” e quindi, una di queste date libere è il giorno di compleanno diverso da quello dell’altro bambino in esame. Bene, a questo punto si osservi cosa accade se iniziano a giungere in classe, uno per volta, gli altri studenti, si avrà quanto segue:

la probabilità che il bambino successivo abbia una data diversa è pari stavolta a 363/365. Quella del bambino appresso è di 362/365 e quella dell’altro bambino appresso è di 361/365 e così di seguito fino a completare l’intera classe, qui nell’esempio supposto raggiunto a 23 bambini. La probabilità che tutti i bambini abbiano una data di compleanno diversa pertanto, è stimata a 343/365, che è il valore dell’ultimo bambino entrato in classe e quindi, è quello che assegna a tutta la classe il valore complessivo di probabilità.
La probabilità, cioè la frequenza che questi 23 bambini festeggino in una data diversa l’uno dall’altro il proprio compleanno è data dalla seguente serie

364/365 x 363/365 x 362/365 x 361/365 x … x 343/365 = 0,49, cioè al 49%.

Di riflesso, la percentuale di coloro che non sono compresi in questo 49% compongono l’insieme dei bambini che festeggiano il loro compleanno in una data comune ad altri loro compagni. Ciò significa che la stima probabilistica di osservare che due o più bambini festeggino il loro compleanno nella stessa data è leggermente superiore a quella dei bambini che festeggiano il compleanno in date diverse. Pertanto, lo stupore che si prova dinanzi a questo tipo di coincidenze è meno sorprendente di quel che sembrerebbe a prima intuizione.


Tramite la teoria della probabilità si comprende perché ciò accade. Nel determinare la simultaneità di due eventi, si mettono in correlazione alcune quantità, ma nel fare ciò deve distinguersi quanto segue:
  1. La possibilità che un evento specifico accada, pur ritenendolo improbabile;
  2. La possibilità che un evento qualsiasi accada, pur ritenendolo improbabile.

Questa distinzione rivela due diverse condizioni che sono riferite alla percezione che si ha di una medesima situazione. Nel valutare la probabilità di un evento deve considerarsi il contesto entro cui si colloca l’evento in questione, cioè se è un caso generalizzabile, oppure se sia un fatto specifico. L’avevo premesso sopra con l’esempio della moneta. La stima per cui si possa festeggiare il compleanno nella stessa data è infatti, pari a 1/365 (probabilità specifica) oppure nel caso del lancio di una moneta semplicemente a 1/2 (probabilità generica).

Eastaway e Windham in tal senso, per dimostrare l’esistenza di una certa correlazione probabilistica, propongono un gioco collettivo derivato da questo tipo di ragionamenti, che consiste nel prendere dei foglietti e far scrivere su di essi dal proprio gruppo di amici o di intervenuti un numero a scelta libera compreso tra 1 e 100. Si osserverà la seguente situazione:
  1. La scelta prevalente dei giocatori si muoverà verso numeri molto alti, per cui la stima probabilistica si baserà sulla frequenza di scelta che si colloca verosimilmente dopo il numero 50; in tal senso, la stima può configurarsi nel semplice 50-50.
  2. Più alto è il numero dei partecipanti al gioco, più evidente è la coincidenza dei numeri scritti dai giocatori. In merito, si è calcolato che per un gruppo di 20 persone, la stima probabilistica è di circa 7 a 1: ciò significa che almeno 7 persone scriveranno lo stesso numero, il che rapportato a 20 persone è una stima molto alta.

Fin qui il ragionamento si è indirizzato verso il calcolo della probabilità che hanno gli eventi di accadere, ma qual è, anzi come si fa a stabilire la possibilità nel caso in cui non accadano?

Anche in questo caso ci si sta riferendo alla frequenza probabilistica. Torniamo ad un esempio semplice come il lancio di un dado. Supponiamo di giocare a dadi, di utilizzare due dadi, anziché uno e di puntare di volta in volta sull’uscita di un certo numero: stabiliamo il numero 12, cioè la somma di «6+6». La stima della probabilità che da un lancio si abbiano due dadi che mostrino la faccia con il numero 6 è pari a 1/3 (3).

Detto questo, la percentuale probabilistica che esca “12” e quindi, il valore probabilistico atteso è pari al rapporto (3) moltiplicato per tante volte che si lanciano i dadi, per cui

1/3 x 1/3 x 1/3 x 1/3 x … cento volte, oppure venti volte, oppure cinquanta volte e così via.

In sintesi, l’incremento del periodo su cui si effettua la stima «serve solamente ad aumentare la probabilità di coincidenza» (cfr. Peter M. Higgins, Divertirsi con la matematica, ed.it. 2017, p.193) e non ad invalidare o a confermare l’argomento in questione. La fattorizzazione delle frazioni rivela che per quanto lungo possa essere l’intervallo su cui si osserva il comportamento probabilistico, il valore di probabilità rimane lo stesso, semmai la probabilità di non ottenere un “12” dal lancio di due dai è pari a 10/12, che un valore più alto dell’altra stima.

La logica che è alla base di questo ragionamenti è quella di comporre una struttura in cui le quantità stanno tra loro in un rapporto costante e ricorrente, nonostante si esplichi in sequenze numeriche lunghe e questa particolarità permette l’estensione del calcolo probabilistico non solo alle scommesse d’azzardo, da cui storicamente deriva, ma anche nella determinazione degli errori di misura, in base ai quali si determina il grado di incertezza dell’operazione che si sta svolgendo.

In fisica è noto che compiere una misura vuol dire essenzialmente realizzare un confronto con un’unità di misura, quest’ultime di diverso tipo a seconda dello stato fisico in cui si trova il campione da misurare. Nell’effettuare queste misurazioni si può incorrere in qualche errore di misura, cioè in una stima sbagliata dell’operazione che si sta effettuando. In genere, le incongruenze a cui si incorre sono di due tipi, anzitutto di tipo metodico, vale a dire errori causati dall’uso di strumenti con una sensibilità di misura eccessiva e che si riflette nel computo della misurazione: per “sensibilità” si intende la capacità di uno strumento di misurare unità di grandezza piccolissime e ciò descrive il suo grado di sensibilità. A questa tipologia deve aggiungersi quella degli errori accidentali, composta per lo più da non corretti posizionamenti dello strumento di misura e comunque legati all’attività dell’operatore: a loro volta questo tipo di errori si dividono in diretti e indiretti. Ciò che qui interessa è come calcolare una stima dell’errore o del grado di incertezza di una misura.
In linea generale, un indice generico di errore è dato dalla raccolta di un certo numero di misurazioni in una griglia di valutazione. Dal computo dei valori riportati in griglie di questo tipo si ottiene il valore medio di una misura, cioè il valore intorno al quale si attesta la stessa misurazione. Il valore medio ovviamente, non contempla in sé l’eventuale errore di misurazione, cioè legato alla sensibilità dello strumento di misura. Pertanto, l’errore può e deve determinarsi nei seguenti modi:
  1. Il grado di incertezza o di errore di misurazione che si sta cercando definisce in effetti ciò che in fisica si chiama «errore assoluto». L’errore assoluto è direttamente correlato alla sensibilità dello strumento di misura e descrive l’intervallo o il margine di tolleranza ammesso dallo stesso strumento. Esempio, data una misura che oscilla tra gli 80 mm e gli 81 mm, l’errore assoluto si calcola anzitutto, misurando il valore medio dell’errore, che si ottiene come la somma delle due misure più prossime diviso due: 80+81/2 = 80,5 mm. In seguito, si determina il grado di sensibilità dello strumento o errore assoluto, che si ottiene come la differenza delle due misure effettuate diviso due, 81-80 / 2 = 0,5 mm. Avuti questi dati l’errore assoluto si compone nel modo seguente 80,5 ± 0,5 mm.
  2. Tuttavia, in molti casi ciò che è di grande interesse, soprattutto in corso d’opera, è l’«errore relativo», che è quello con il quale si determina il grado d’incertezza effettivo di una misura. Il valore dello errore relativo è dato dal rapporto tra l’errore assoluto ed il valore medio della misura. Esempio, la frazione 0,5 / 80,5 = 0,0062 mm.

Questo discorso sull’errore in fisica si compone in questo ragionamento sulla probabilità in questo modo. Peter M. Higgins riporta un aneddoto che riguarda lo scienziato inglese Isaac Newton, a cui era stato chiesto da parte dello scrittore inglese Samuel Pepys, appassionato giocatore, di determinare la probablità di uscita dell’asso in un lancio di dadi. La situazione proposta da Pepys prevede due diverse modalità, una in cui un giocatore lanci due dadi, l’altra in cui un altro giocatore lanci invece dodici dadi. Il quesito posto è di determinare quale dei due si trovi in una posizione avvantaggiata per ottenere l’asso. L’impressione, la stessa avuta da Newton, ci spinge a pensare che la situazione così posta non pone alcun vantaggio specifico, ma Pepys in base alla sua esperienza proponeva tutt’altra valutazione.

Riprendiamo quanto finora detto sul calcolo delle probabilità, ma stavolta proviamo a determinare il valore di errore dell’evento probabilistico. In base a quanto detto prima, la Probabilità classica che un numero qualsiasi si ottenga dal lancio di un dado è pari a 1/6, ma la probabilità che ciò non avvenga è però 5/6; ebbene, questa frazione compone l’errore assoluto su cui si fonda la previsione relativa al lancio di un solo dado. Ma poiché il lancio riguarda i due dadi dell’aneddoto, il valore per cui l’evento atteso non si realizzi è pari alla stessa frazione elevata a sei, (5/6)6. L’errore è dunque, 1 - 0,335 = 0,665. Ora, l’intuizione sembra suggerire che il secondo giocatore, tirando dodici dadi, ha più opportunità di prendere l’asso richiesto dalla scommessa. Nel suo caso, la possibilità che non ottenga l’asso è pari al valore di (5/6)12, ma diversamente per il primo giocatore la determinazione del valore per l’evento non realizzato deve essere processato in una sequenza di dodici frazioni, così scritte
1/6 x 5/6 x 5/6 x … x 5/6         (4).

Dando una scrittura più sintetica, la (4) può scriversi nel modo seguente:

12 x 1/6 x (5/6)11, da cui si sottrae 1 per ogni quantità e si ha 1 – (5/6)12 – 12 x 1/6 x (5/6)11 = 0,619.

Dal risultato ottenuto si evince chiaramente che il suggerimento dell’intuizione è fuorviante, perché il valore della probabilità di prendere l’asso è più alto nel primo giocatore che non nel secondo giocatore che lancia dodici dadi: il margine di errore, cioè di non prendere l’asso, è più piccolo che non nella situazione a dodici dadi. A tal riguardo, la supposizione dello scrittore inglese risulta corretta.

Da questi esempi si evince un fatto comune, cioè che il rapporto che viene istituito tra le varie quantità per determinare la probabilità descrive una sorta di simmetria numerica che vale sia nel caso in cui si ragiona sulla verificabilità degli eventi, sia nel caso in cui si ragiona sulla loro non verificabilità. Questo modo di comporre le quantità ha anche il vantaggio di descriversi in termini grafici sotto forma di lunghezze. Infatti, si può ricorrere ad un sistema cartesiano ad assi ortogonali per ottenere un grafico con il quale descrivere l’andamento e/o prevedere l’esito finale di un evento. A titolo di esempio, la situazione che si descriverà è quella standard esemplificata di uno scrutinio elettorale relativo ai voti di preferenza raccolti da due candidati, il candidato A ed il candidato B.

Ora, è noto che per disegnare un punto su un sistema cartesiano occorra una coppia di valori (x, y), in questo caso però apportiamo una leggera variazione allo schema e la descrizione grafica tiene considera il numero totali di voti espressi e la collocazione in una regione del sistema in base al presunto vantaggio che si ammette di un candidato rispetto ad un altro: in figura vengono proposti due schemi diversi, ma impostati su un presunto vantaggio del candidato B. In questo tipo di situazioni, il grafico costruisce il valore della probabilità in base al seguente rapporto

p = n / n + 2           (5).

Per semplificare la spiegazione dell’argomento si è immaginato un numero totale di 12 voti, distribuiti lungo lo schema in due strisce di processo diverse. L’esito finale dello scrutinio è sempre il medesimo, la vittoria del candidato B, ma come si osserva dal grafico la probabilità che può evincersi è da un lato collegata alla distribuzione degli stessi voti durante il processo, dall’altro lato dal differente margine di vittoria che viene a delinearsi appunto in relazione all’andamento della probabilità.

Ciò detto, in conclusione, la struttura matematica che presiede alla costruzione di rapporti con i quali descrivere e rappresentare le coincidenze rivela con una certa evidenza che la circostanza per cui due eventi possano essere correlati ed essere altrettanto probabili, nel senso di verificabili, è una situazione più diffusa di quel che si creda. Il fatto che quest'evidenza non appaia tale è determinato da ambiguità linguistiche o da interpretazioni testuali e via dicendo, queste correlazioni tra gli eventi possono essere oggetto di giudizi che vengono formulati in base ad un registro qualitativo, in base ad una logica dell’interesse che può essere individuale o tutt’al più collettivo che assegnano un certo colore piuttosto che un altro, rendendole di volta in volta o di straordinario rilievo, o di indifferente irrilevanza. La citazione all’inizio relativa alla coincidenza di data tra quella mia e quella di un mio cugino ha questa doppia funzione, quella di mettere in chiaro fin da subito che questo tipo di situazione è più diffusa di quel che si creda e che, a suo modo e nel suo piccolo, è un evento di grande interesse sia personale, sia intellettuale o matematico che dir si voglia.




Post Scriptum. Inizialmente avevo pensato diversamente questo p.s., ancora adesso non sono neanche tanto convinto di cosa lasciare scritto su queste righe, di certo rimane la voglia di evitare di pensare alla data del compleanno come l’annuale conta del tempo passato e pensarla invece, come la formula con la quale riprendere se stessi, riprendere in particolare e forse con una certa consapevolezza quel momento in cui ho iniziato ad esistere; e quindi, dicendo la data del mio compleanno è come dire «eccomi qui!», con tutte le ovvie conseguenze che ciò comporti. Insomma, avendo la voglia di ragionare in termini di in-sistenza, boicottando la classica contrapposizione epistemica tra essere e nulla, ammettendo in fondo, che l’essere è un certo retaggio culturale primitivistico, se non un altro sinonimo del nulla e non per il gusto di cavillare sulle contraddizioni: pensare alla data di nascita come il momento in cui si inizia a vivere nella complessità, senza credere che ciò significhi crogiolarsi nelle contraddizione del tutto insanabili della realtà; ma iniziare a pensare allo stesso modo che vivere queste contraddizioni non significhi non poterle risolvere definitivamente in modo complesso. Se poi, si aggiunge che la mia data di compleanno cade nello stesso periodo quaresimale e pasquale, l’intera situazione si carica di tutti quei significati legati alla resurrezione e alla morte, alla rinascita cristiana dell’uomo nuovo e la vittoria contro il peccato originario e ad una diversa sensibilità nei confronti del tempo che non ha più la valenza ciclica della cultura pagana. A questo punto, la simmetria che viene allusa nella struttura probabilistica che permette di spiegare come l’incidenza per molti sorprendente delle coincidenze delle date dei compleanni rivela un diverso motivo deterministico e forse anche un’inattesa formula lontana dagli antichi saperi, bah forse sto rimuginando pensieri a vuoto tanto per giustificare queste ultime righe.