Il 5G è un pericolo?

Della tecnologia 5G se ne parla tanto, e non sempre correttamente. 

Alcune persone o associazioni hanno deciso che il 5G, lo standard più avanzato per i telefoni cellulari, è un pericolo da combattere. 

Proviamo a ragionarci sopra, ma prima dobbiamo mettere le basi, chiarire alcuni concetti, altrimenti rischiamo di fare dei discorsi campati per aria. Ci vuole un po’ di pazienza per capire bene le cose.

In questo articolo non voglio cercare di cambiare le idee di nessuno. La mia intenzione è solo quella di offrire il punto di vista di un tecnico, di uno che ha studiato queste materie e ci ha lavorato per quarant’anni. Gli elementi tecnici base per capirci qualcosa di più li troverete qui, poi ognuno si farà la sua idea. 

Premetto che l’articolo è lunghetto. D’altra parte è indirizzato soprattutto a chi non ha competenze specifiche ma assume posizioni critiche. E’ possibile criticare senza sapere? Dire “non voglio il 5G” senza neanche sapere di che cosa si tratta è un atteggiamento (assunto da molti) poco razionale. Oggi, purtroppo, va di moda prendere posizioni “contro” anche senza conoscere veramente le cose. Io resto dell’idea di Luigi Einaudi: occorre conoscere per deliberare

ONDE RADIO

Viviamo immersi nelle onde radio. La luce è un caso estremo di onda radio naturale, e la luce ci dà la vita. Ma da quando Marconi ha inventato la radio, ci sono altre onde radio di origine artificiale, ovunque. Vediamo le applicazioni che conosciamo meglio:

La Televisione.

 

 

 

 

Le immagini televisive partono come onde radio dall’antennone che le trasmette e arrivano fino all’antenna sul tetto. Mentre gli apparecchi TV che abbiamo a casa hanno dei livelli di emissione EM irrisori, le antenne centrali invece usano potenze molto alte, dell’ordine di qualche decina o centinaia di kW, per coprire un ampio territorio. Vengono solitamente posizionate in posti molto alti, colline o montagne. A volte in cima ai grattacieli. 

Le radio dei pompieri, ambulanze, polizia, tram, treni, quasi tutti i servizi pubblici

Le radio dei sevizi pubblici sono collegate alle centrali di comunicazione tramite onde radio. Stessa cosa per gli aerei. Sia le trasmittenti dei mezzi mobili che quelle delle centrali utilizzano potenze che vanno dai 5 W alle decine o centinaia di W per le centrali. 

I walkie Talkie

I walkie talkie, sia quelli dei bambini che quelli professionali comunicano fra di loro tramite onde radio. Hanno emissioni che vanno dai pochi mW per i giocattoli per bambini fino a 5 o 10W per le applicazioni professionali.

Il RADAR degli aerei

I radar che controllano la sicurezza degli aeroplani utilizzano onde radio nel campo delle microonde. Indipendentemente dalla potenza della trasmissione, la forma a parabola dell’antenna concentra l’emissione in direzione degli aerei, quindi difficilmente può avere un impatto nei confronti delle persone a terra.

I CELLUARI ALL’APERTO

Quando siamo fuori casa i nostri cellulari funzionano collegandosi alle famose antenne dei cellulari, quelle che ci fanno sempre tanta paura. Le potenze in gioco sono variabili in base al numero di utenti e all’area da coprire. Si va da pochi mW per celle molto piccole a migliaia di W per impianti che devono coprire vaste aree. 

I CELLULARI A CASA

Quando invece siamo a casa i nostri cellulari si collegano al router WiFi di casa, almeno per quanto riguarda l’accesso a internet. Per legge i router per uso casalingo (indoor) possono avere potenza fino a 100mW, quindi molto limitata. 

E potrei sicuramente andare avanti per molto, ma penso che si sia capito il significato. Ormai non c’è posto al mondo che non sia inondato da onde radio generate dalle varie apparecchiature che in un modo o nell’altro ci aiutano a vivere meglio, più comodi, più sicuri. Può piacere o non piacere, ma provate a pensare cosa sarebbe oggi la nostra vita senza TV, Radio, WiFi e senza la sicurezza delle varie applicazioni pubbliche (Ambulanze, Pompieri, Polizia, Treni, Navi, Aerei) che si basano sulla radio per le loro comunicazioni. Neanche il navigatore della nostra auto potrebbe funzionare senza le onde radio dei satelliti del GPS. 

Per andare avanti quindi dobbiamo essere d’accordo su una cosa: le onde radio ci servono. Neanche nella maggior parte dei villaggi africani si fa a meno della radio. Anzi, più un posto è isolato più ha bisogno della radio per collegarsi al resto del mondo.

Entriamo un po’ nel dettaglio e parliamo quindi delle onde radio, e di due particolari aspetti che accomunano TUTTE le onde radio: frequenza e potenza. 

Partiamo da qualcosa che conosciamo bene: il suono. Immaginate due persone che parlano, un uomo con la voce molto grave e una donna con la voce molto acuta. Entrambe le persone possono parlare a bassa voce o urlare. Il tono della voce, grave o acuta, è la frequenza del suono. Il volume (sotto voce o urlata) è la potenza del suono. Un suono quindi può essere grave o acuto e contemporaneamente debole o forte. Situazione analoga per le onde radio che possono avere frequenza bassa e altissima e potenza bassa o altissima. Le due cose non vanno confuse, mente spesso negli articoli che trovate, soprattutto quelli allarmistici, si fa una grande confusione fra frequenza e potenza. Non è infrequente trovare frasi assurde del tipo “una trasmittente della potenza di 600 GHz”.  La frase dovrebbe essere “una trasmittente della frequenza di 600 GHz”. Confondere frequenza e potenza  potrebbe sembrare un semplice errore, se non ingenerasse in chi legge la sensazione che più alta è la frequenza, più forte e pericolosa è l’emissione. Cosa che è vera solo in parte, solo agli estremi più alti della frequenza, là dove le onde radio diventano radiazioni ionizzanti. 

FREQUENZA DELLE ONDE RADIO

Qui si fa un piccolissimo passo avanti nella tecnica. Le onde radio sono onde, come quelle che si ottengono buttando un sasso nello stagno. 

Butta un sasso nell’acqua e vedrai delle onde allontanarsi del punto in cui è caduto. Le onde radio sono la stessa cosa. Vengono emesse dall’antenna, ma non le vediamo. Possiamo solo immaginarle. Ci sono onde “lunghissime” e onde “ultracorte”. La lunghezza è quella che c’è fra una cresta e la successiva. 

Le onde lunghissime sono quelle a sinistra, che ricordano una molla molto tirata. Quelle ultracorte sono quelle a destra, che ricordano una molla molto compressa. Ecco due immagini simili che visualizzano tutte le onde radio che ci circondano,  alcune naturali e altre artificiali.

Si può facilmente vedere come fra la radiazione infrarossa e quella ultravioletta vi siano tutti i colori della luce visibile. 

La frequenza delle onde la misuriamo in Hertz (Hz) o con i suoi multipli kHz (1000 Hz), MHz (1’000’000Hz), GHz (1’000 MHz), EHz (1’000 GHz). 

In ordine crescente di frequenza abbiamo:

50 Hz Corrente elettrica casalinga onde lunghissime
100 KHz Radio a lunghissima distanza onde lunghe
1 MHz Radio a lunga distanza (AM) onde medie
100MHz Radio locali (FM) onde corte
1 GHz Televisione – cellulari onde ultracorte
 10 – 100 GHz RADAR microonde (millimetriche)
oltre 1000 GHz
(oltre 1EHz)
Luce infrarossa, visibile, ultravioletta onde micrometriche
oltre 1’000 EHz Radiazioni ionizzanti pericolose onde nanometriche

Ogni tipo di emissione ha bisogno della sua frequenza, a seconda del tipo di servizio che deve fare. Le radio che trasmettono musica possono usare onde dalle lunghe alle medie alle corte. Quello che cambia è la distanza che le onde radio riescono a coprire. Le onde lunghe viaggiano fra i continenti. Le onde corte invece coprono solo le zone locali, ma hanno il vantaggio di offrire più “canali”. Più si sale di frequenza, verso le onde ultracorte, più aumentano i canali. Per avere più canali occorre salire di frequenza. Si perde in distanza (quindi servono più antenne) ma si guadagna in canali. Le televisioni con il passare dei decenni stanno usando onde sempre più corte, per avere più canali disponibili. 

Le onde radio che vanno dalle lunghissime su su fino alle microonde e alla luce visibile non sono considerate pericolose, se non a potenze elevate (della potenza ne parliamo più avanti). 

Dall’ultravioletto in poi le onde radio diventano radiazioni ionizzanti, e qui son dolori. Esempi di radiazioni ionizzanti sono i raggi X, e i raggi gamma. Con queste radiazioni occorre andarci piano, esporsi il meno possibile perché si va a rischio tumori o addirittura ustioni e morte.

Ma allora la frequenza è pericolosa? Sui pericoli derivanti dalle emissioni elettromagnetiche, ossia le onde radio, torniamo dopo. Possiamo però anticipare che, si, più sale la frequenza più aumentano i rischi, soprattutto dai raggi UV in poi. Ma in realtà tutto dipende dalla potenza.

POTENZA DELLE ONDE RADIO

Capita più o meno cos’è la frequenza, adesso parliamo della potenza. Il confronto con la voce è facile facile: se sussurro (bassa potenza) mi sente solo chi è vicino a me. Se urlo mi sentono anche persone dall’altro lato della valle. Le onde radio seguono lo stesso principio: se la potenza è bassa l’onda radio “si spegne” rapidamente e non va molto lontano. Se la potenza è alta l’onda radio può andare molto più lontano.

La potenza si misura in Watt (W) con i suoi sottomultipli (milliwatt mW) o multipli (kilowatt kW).

pochi milliwatt (mW) telecomandi apricancello, giocattoli per bambini, telefoni cellulari
watt walkie talkie professionali, radio polizia e servizi pubblici
kilowatt (kW) emittenti radio / TV
megawatt (MW) armi a microonde o laser

Solitamente si usa la potenza più bassa che garantisce il risultato. Nessuno penserebbe a fare un telecomando apri-cancello della potenza di qualche watt, sarebbe assurdo dato che pochi milliwatt sono più che sufficienti. Per coprire una vasta area con una emittente televisiva servono invece impianti da migliaia di watt (kilowatt).

La potenza rappresenta la vera FORZA con cui un’onda radio ci colpisce. Qualsiasi sia la sua frequenza, un’onda radio debole difficilmente potrà causare qualche danno significativo. Un’onda molto forte (molto potente) potrà invece generare danni, soprattutto se oltre ad essere molto forte (alta potenza) è anche molto veloce (alta frequenza).

Introduciamo quindi un concetto base: il pericolo è dato dalla combinazione fra alta potenza e alta frequenza. 

Questo concetto lo si capisce molto bene se si pensa al forno a microonde che molti di noi hanno a casa. 

Il forno a microonde genera lo stesso tipo di radiazione generata dai telefoni cellulari e dalle armi più o meno segrete che si usano per disperdere le folle o per abbattere missili a distanza. La differenza sta nella potenza.

  • I nostri telefoni generano microonde a potenze bassissime, di pochi millesimi di Watt (pochi mW) e presentano rischi difficilmente quantificabili.
  • I nostri forni a microonde generano potenze intermedie, di quasi DUEMILA Watt, quindi un milione di volte più potenti di un telefono cellulare. Siccome sono isolati perfettamente non presentano rischi quando sono chiusi. Ma all’interno del forno il rischio di danni alla persona è alto.
  • Le armi a microonde generano potenze di svariati MILIONI DI WATT, quindi miliardi di volte più potenti dei nostri cellulari. Si tratta di armi, quindi qui il rischio è alto, garantito. 

E’ evidente che non ha senso accomunare telefoni cellulari, forni a microonde e armi a microonde. Tutti usano le microonde ma a potenze diversissime. Chi ti dice: “pensa, il tuo cellulare è come un forno a microonde, ti cuoce il cervello” o è ignorante o cerca di fregarti. Sarebbe come dire che un pizzicotto e una pressa da 10 tonnellate sono la stessa cosa e fanno lo stesso danno.

A costo di essere noioso ti propongo un’altra similitudine. Tutti usiamo l’acqua, per bere e per lavarci. A nessuno verrebbe in mente di essere in pericolo.

Ma la stessa acqua, usata a pressione di 7000 bar può essere usata per tagliare lastre d’acciaio fino a 15mm di spessore, con il TAGLIO AD ACQUA

Quindi concludiamo che l’acqua è pericolosa? La risposta è “dipende”. Se la beviamo dal bicchiere, la risposta è no. Se viene compressa a 7000 bar la risposta è SI. Dipende dalla potenza.

Adesso ci siamo fatti un’idea di cosa sono le onde radio, la frequenza e la potenza.

EVOLUZIONE TECNOLOGICA DEI CELLULARI

Abbiamo capito che i cellulari non sono altro che apparecchi radio forniti di tastiera e display.

I primissimi cellulari degli anni ’80 erano grossi e pesanti e la loro apparecchiatura radio era piuttosto rudimentale. Per garantire la comunicazione usava molta potenza, fino a 10W nei casi peggiori. L’emissione radio di onde EM era quindi piuttosto forte. 

Poi, con il passare del tempo ed il progredire della tecnologia i cellulari sono diventati molto più “furbi”. Utilizzano potenze bassissime e solo quando serve. Se ad esempio noi facciamo una breve pausa fra una parola e l’altra, il cellulare abbassa di molto la potenza, quasi a zero, perché non ha niente da trasmettere.  Inoltre la potenza di emissione del cellulare viene automaticamente regolata in base alla distanza dalla stazione base. Se la stazione base è vicina la potenza utilizzata è bassissima. Questo è vero anche per le antenne sui tralicci. La potenza viene emessa solo quando serve. Sono migliorate di molto anche le sezioni riceventi dei cellulari. Questo significa che il cellulare “prende meglio”. Ogni nuova tecnologia (1G, 2G, 3G, 4G, 5G) utilizza meno potenza della tecnologia precedente. Questo fatto è legato soprattutto ad una esigenza primaria: consumare meno batteria. Se il cellulare utilizza meno potenza la batteria dura di più, e questo è un vantaggio commerciale per chi produce e vende cellulari. Per questo i produttori di cellulari cercano soluzioni tecnologiche che consentano di utilizzare meno potenza, prolungando così la vita delle batterie e limitando nel contempo le emissioni EM. Con conseguente diminuzione dei rischi associati.

CELLE

La telefonia mobile si chiama “cellulare” proprio perché divide il territorio in molte “celle” contigue. Ogni cella ha la sua stazione base con relativa antenna. Quando il nostro cellulare si muove da una cella all’altra, mentre ci spostiamo a piedi o in auto, viene preso in carico dalla cella successiva, quindi si connette ad un’altra antenna. Perché questo meccanismo funzioni occorre che la potenza delle antenne sia limitata in modo da non interferire con la cella contigua. Questo è il motivo in base al quale la potenza delle stazioni basi e delle antenne dei cellulari è comunque una potenza limitata, per non creare interferenze con le celle circostanti. Nel caso del 5G questo meccanismo è spinto ancora più avanti: le celle sono molto più piccole rispetto al 4G e quindi  le potenze devono essere ancora inferiori.

 

SI, MA DICONO CHE IL 5G E’ PIU’ PERICOLOSO

Questo secondo me è tutto da dimostrare. Sono stati usati tanti argomenti contro il 5G, per motivi che io non capisco. 

FREQUENZE

Il 5G utilizza in parte le stesse frequenze (700 MHz e 3GHz) delle tecnologie precedenti. Quindi, a rigor di logica, presenta gli stessi (eventuali) problemi delle generazioni precedenti (1G fino a 4G). Poi è previsto in futuro anche l’utilizzo della banda a 26GHz (gigahertz), che è quella che spaventa qualcuno. Ma anche qui siamo ancora nel campo delle radiazioni non ionizzanti, che alle bassissime potenze utilizzate dai cellulari non creano alcun problema. 

ANTENNE

Una delle caratteristiche innovative e positiva del 5G è il sistema di “antenna intelligente”.

A differenza del 3G / 4G, dove l’antenna “illumina” con un ventaglio di onde radio tutta la sua zona di competenza, anche lì dove ci sono telefoni non attivi, l’antenna 5G è intelligente e convoglia le onde radio in forma di “raggi” (beam) solamente in direzione dei telefoni attivi. Questo, anche per chi si preoccupa della salute, è un grande passo avanti perché consente di non inviare onde radio dove non servono. Paradossalmente ci si deve preoccupare molto meno del 5G che del 4G.

Si ma con il 5G metteranno milioni di piccole antenne, saremo circondati.

Non nego che l’argomento possa essere di un certo effetto, ma ad una analisi più dettagliata è inconsistente.

Soprattutto nella banda più alta (ancora non usata in Italia) dei 26GHz le onde radio si propagano molto male e vengono fermate facilmente da qualsiasi ostacolo. Per questo l’idea è quella di usare molte antenne a bassissima potenza invece che poche antenne a potenza maggiore. Le celle, come detto in precedenza, saranno molto più piccole, e la potenza di conseguenza dovrà essere molto più bassa. Si, saremo circondati da tanti trasmettitori, ma a bassissima potenza. 

Ho letto che con il 5G ci potranno controllare meglio perché le onde del 5G penetrano meglio nei muri.

Questo è un argomento totalmente infondato. Per quanto riguarda le bande di frequenza già usate dal 4G (700 MHz e 3 GHz) non ci sarà alcuna differenza. Mentre per quanto riguarda la banda più alta, a 26GHz, è un dato tecnico risaputo che più alta è la frequenza delle microonde più bassa è la loro capacità di penetrazione degli ostacoli. 

Saremo circondati da miliardi di dispositivi IoT (Internet of Things) che generano campi EM pericolosi.

Anche questa è una affermazione totalmente infondata, per questi motivi:

  • I dispositivi IoT non sono strettamente legati al 5G. Già oggi siamo circondati da dispositivi IoT: telecamere di sorveglianza, elettrodomestici, interruttori intelligenti, lampade intelligenti. La maggior parte di questi dispositivi si collegano al WiFi di casa, e sono del tutto indipendenti dal 5G. Altri dispositivi IoT arriveranno, e alcuni di loro si connetteranno alla rete 5G. Altri invece si connettono ad altre reti (LoRa), sulle stesse frequenze degli attuali cellulari (430 MHz, 868 MHz). Cito da un interessante articolo: “Una Low Power-Wide Area Network, per essere considerata applicabile in un’ambientazione Internet of Things deve avere delle ben precise caratteristiche, prima di tutto basso costo e bassi consumi. Infatti se si considera che in certe installazioni gli end-node device, o punti terminali di comunicazione come sorgenti di dati, potrebbero essere parecchie migliaia, i costi unitari sono il punto di partenza per determinare il ritorno dell’investimento, e i bassi consumi sono imprescindibili laddove la funzionalità dipende da batterie.
  • I dispositivi IoT generano un bassissimo flusso dati, e sono spesso alimentati a batteria. Si accendono al momento di trasmettere dati e poi si spengono. Sono in pratica normalmente inattivi, silenziosi. Ad esempio, un sensore di temperatura o umidità non genera un flusso continuo di dati, che sarebbe inutile e provocherebbe la scarica prematura della batteria. Diciamo che il sensore di temperatura o umidità invia i suoi dati una volta al minuto, per un tempo brevissimo. E poi torna a “dormire”. La stessa cosa vale più o meno per tutte le applicazioni IoT. E’ quindi del tutto infondata la paura di essere “circondati e bombardati” da un continuo flusso di onde radio generate dai dispositivi IoT. 

PERICOLI DELLE ONDE RADIO

Le onde radio sono pericolose per la nostra salute? Alcune si, di sicuro. Già sappiamo che i raggi UV possono danneggiare la nostra pelle e provocare dei tumori. A maggior ragione le onde radio diventano pericolose man mano che saliamo di frequenza nel campo delle radiazioni ionizzanti.

RADIAZIONI IONIZZANTI

Per radiazioni ionizzanti si intendono quelle onde radio a frequenza altissima (maggiori di 10EHz) che vanno dai raggi UV ai raggi alfa, raggi X e raggi gamma. Qui si entra nel campo delle energie e delle radiazioni nucleari la cui pericolosità è conosciuta da quando sono state scoperte. Queste radiazioni possono essere usate per scopi medici (radiografie, TAC) ma solo occasionalmente e a dosi bassissime. Chi lavora a contatto con queste radiazioni deve proteggersi e utilizzare strumenti (dosimetri) che misurino l’assorbimento, per evitare esposizioni prolungate che sarebbero dannose. Ma le onde radio utilizzate per le comunicazioni hanno frequenze milioni di volte inferiori.

EMISSIONI NON IONIZZANTI

Le emissioni radio non ionizzanti sono quelle che vanno dai 50Hz (frequenza della corrente elettrica di casa) fino alla luce visibile. Sulla pericolosità delle emissioni non ionizzanti c’è una questione aperta da decenni. Si stanno conducendo studi sia sulla parte bassa dello spettro (i 50Hz di casa) che sulla parte alta (microonde per comunicazioni radio). 

Un filone di studi riguarda i possibili effetti cancerogeni delle onde a bassissima frequenza (ELF), ossa quella della corrente di casa e dei tralicci ad alta tensione. I vari studi non hanno portato a risultati definitivi perché è estremamente difficile effettuare degli studi epidemiologici seri. Come in tutti gli studi medici occorre avere dei campioni che non vengono esposti e degli altri campioni che vengano esposti ad un solo elemento. E occorre che la sola differenza sia l’elemento in questione. Ma è impossibile trovare qualcuno che viva come noi, mangi come noi, respiri come noi, ma che non venga esposto a radiazioni a bassa frequenza. Tutti siamo esposti alle radiazioni emesse dagli impianti elettrici di casa, dell’ufficio, ovunque. Un altro problema è che le persone che vivono in diretta prossimità dl linee ad alta tensione e che sviluppano tumori o altre malattie raramente vivono sempre a contatto con quei campi EM. Potrebbero andare a lavorare in altri posti con altri agenti cancerogeni. O potrebbero incorrere in altri contatti (alimentazione, inquinamento atmosferico) che potrebbero provocare tumori o altre malattie. E’ questa estrema difficoltà ad effettuare i necessari studi epidemiologici che ha fino ad ora reso inconcludenti gli studi che cercano di mettere in relazione l’esposizione a emissioni ELF con l’insorgenza di tumori al cervello. Alcuni studi (questo) indicano una debolissima correlazione nel caso del glioma e praticamente nessuna correlazione nel caso del meningioma. 

Altri filoni hanno studiato gli effetti delle onde radio a varie frequenze, dalle trasmissioni radio e TV ai telefoni cellulari e router WiFi, ma nessuno studio è arrivato a dimostrare correlazioni significative.

In definitiva, al momento attuale non è possibile dire con certezza che le emissioni radio possano provocare dei tumori. Le correlazioni identificate da alcuni studi sono talmente deboli da poter dire che il rischio è certamente di parecchi ordini di grandezza inferiore rispetto ad altre cause accertate di tumore e in genere di malattie potenzialmente mortali, come il fumo, l’inquinamento atmosferico, la sedentarietà, le cattive abitudini alimentari. 

Da quel che ho capito fino ad oggi, e domani potrei cambiare idea, i veri problemi riguardanti la nostra salute riguardano ben altri aspetti. 

Per quanto riguarda nello specifico il 5G, non si vede perché dovrebbe presentare problemi maggiori riguardo a quelli già eventualmente presentati dalle precedenti tecnologie (1G, 2G, 3G, 4G) che erano e sono anzi più pericolose sotto il profilo della potenza emessa. 

Se davvero volessimo metterci al riparo dal pericolo (non dimostrato) delle emissioni EM, dovremmo:

  • Smettere di utilizzare elettrodomestici di qualsiasi tipo nelle nostre case
  • Vivere lontani da trasmettitori radio e tv di qualsiasi tipo
  • Smettere di utilizzare telefoni cellulari di qualsiasi tipo

E’ del tutto evidente che simili soluzioni drastiche sono possibili solo vivendo isolati dal mondo lontani da ogni forma possibile di civiltà, rinunciando ad utilizzare qualsiasi forma di elettricità, Possibile, certo, ma non facilmente realizzabile. 

Nel momento stesso in cui accettiamo di vivere in una città, grande o piccola che sia, utilizzando elettrodomestici e telefoni cellulari, in quel momento ci troveremo esposti a numerosi e inevitabili campi EM.

Quindi a mio parere il vero problema non è il 5G, ma la civiltà tecnologica tutta. 

La vita è colma di rischi, da sempre. Rischiamo malattie, incidenti, inquinamenti. Spesso siamo costretti a barattare parte della nostra sicurezza in cambio di una qualche forma di stabilità lavorativa. Molti lavori mettono a rischio la nostra salute, in un modo o nell’altro. E lo stesso vivere in determinate aree ci sottopone a forti dosi di inquinamento atmosferico o di altro tipo. E’ giusto preoccuparsi di minimizzare le fonti di inquinamento, essere critici ed analizzare tutto. Ma nel fare questo occorre stabilire delle priorità, e concentrare la nostra attenzione soprattutto a quei fenomeni che per loro stessa natura comportano i più alti e documentati rischi per la nostra salute. Al momento, salvo successivi approfondimenti, il rischio 5G è un lusso che possono permettersi solo coloro che vivono al di fuori di aree altrimenti inquinate. Ma chi vive, ad esempio, in pianura Padana, ha molti altri motivi di preoccupazione, decisamente più incisivi e dimostrati. 

 

Greta, che palle!

Siamo alluvionati dalle notizie su Greta e sulla sua dilagante iniziativa Fridays for Future. Alluvionati dalla retorica ambientalista e, in tono minore, dai ringhi delle destre unite nella retorica anti-ambientalista. 

Io, come sempre, ho poche idee ma ben confuse. Per questo leggo, soprattutto gli articoli della destra. Domina, come sempre in questi aridi territori, uno stato d’animo ringhioso, rancoroso, acre, che si riflette anche nel linguaggio, nella scelta degli aggettivi. Quelli che apprezzano Greta sono definiti gretini, intelligente e sapida crasi fra il nome di Greta e l’aggettivo “cretino” che evidentemente estendono a tutti i fan di Greta. Con simile processo lessicale i (pochi) sostenitori del PD diventano pidioti, chi pensa che sia giusto salvare i migranti in mare è un accoglione mentre chi sostiene sia follia l’idea di uscire dall’euro diventa un euroinomane. Beh, non che dall’altra parte si usino i guanti di velluto: Salvini è stato spesso definito il capitone. E’ una sgradevole deriva del linguaggio politico che predilige rapidi e poveri giochi di parole di sicuro effetto. 

Comunque, linguaggio a parte, resta il fatto che molti giovani e meno giovani sono affascinati dal messaggio di Greta. I primi per sano entusiasmo giovanile, per quella incontenibile voglia di cambiare in meglio il mondo. I meno giovani si dividono fra quelli sinceramente preoccupati per i disastri ecologici e quelli che si accodano al flusso, vuoi per riemergenti nostalgie barricadiere, vuoi per pigro conformismo, alcuni approfittando della situazione per guadagnarsi un grammo di visibilità, nella speranza di guadagnare qualche consenso, qualche briciola di voto.

Cercando di ridurre la questione all’osso, il confronto è fra quelli che sono preoccupati per lo stato presente e futuro dell’ambiente in cui viviamo e quelli che negano che ci sia qualcosa di cui preoccuparsi e che accusano gli ambientalisti di essere o stupidi o ignoranti o corrotti.

Ho cercato di chiarirmi le idee sulle questioni chiave, il riscaldamento globale, la sua origine antropica e le possibili conseguenze. Poi, ovviamente, le energie rinnovabili, la questione dell’auto elettrica e mille altre cose. 

Le obiezioni sono di varia natura. Si va dal semplice e misurato “non è vero un cazzo, ci avete proprio rotto i coglioni: il riscaldamento globale non esiste, anzi, d’inverno fa un freddo fottuto! E non è vero che il livello del mare si sta alzando.” al più elaborato “ok, il riscaldamento globale forse è vero, ma è successo in passato, succederà in futuro e le attività umane non c’entrano niente. Così come è una bufala l’innalzamento dei mari, sono normalissime oscillazioni naturali“. 

Osservazioni suggestive e tranquillizzanti. Fosse così potremmo smettere di preoccuparci, continuare tranqulli ad usare l’auto anche per andare al bar all’angolo, tenere accese tutte le luci di casa, lasciar scorrere l’acqua per ore e fare uso di tutte le plastiche possibili. 

O no?

A cercare i dati, i numeri, si va a sbattere contro il muro dei dati aleatori. Potrei mettere qui una marea di link, e forse lo farò, ma purtroppo internet è il suk delle certezze, basta chiedere e trovi dati che confermano la tua tesi, qualunque essa sia. Prendiamo ad esempio la valutazione dei consumi dei vari tipi di veicolo. Cito da questo articolo tratto da Wired-it:

Iniziamo con una precisazione: esistono diverse stime relative all’impatto ambientale delle differenti forme di trasporto oggi disponibili, ma i numeri sono estremamente ballerini. Differenti agenzie nazionali e internazionali offrono stime diverse, e su alcuni particolari non esistono certezze. Per fare un esempio, a parità di emissioni un viaggio in aereo dovrebbe inquinare più di un trasporto terrestre, perché gas come gli ossidi di azoto hanno effetti più drammatici e duraturi sul clima se emessi in quota (come capita con i motori degli aerei), rispetto a quanto avvenga sulla superficie. Quantificare questi effetti però non è facile. Per questo motivo l’International Civil Aviation Organization (Icao) non ne tiene conto quando calcola l’impatto dei voli aerei in termini di emissioni inquinanti. Mentre il Department for Business, Energy and Industrial Strategy (Beis) del governo inglese per rendere più realistici i suoi calcoli aumenta del 90% le statistiche sulle emissioni del traffico aereo. Detto questo, nonostante qualche differenza nei numeri la classifica dei mezzi di trasporto più inquinanti è abbastanza chiara.

Insomma, il problema dei numeri è che dipendono dai criteri di valutazione. Anche ad essere in buona fede, agenzie diverse forniscono dati diversi. Poi ci sono le valutazione totalmente divergenti, i dati che variano a secondo di chi li propone. Per dire, parliamo di CO2. Il sito della NASA ci propone questo grafico che descrive l’andamento della CO2 negli ultimi 800’000 anni:

E’ facile vedere come negli ultimi anni la CO2 sia salita in maniera netta e molto al di sopra rispetto agli 800’000 precedenti, approssimativamente il doppio rispetto alle oscillazioni del passato. 

In compenso c’è chi (ad esempio tale Lorenzo Zuppini sul sito sovranista “il Primato Nazionale”) ci dice che “L’anidride carbonica è tra i gas capaci di trattenere il calore dei raggi solari ed è costantemente accusata di essere prodotta in eccesso dalle attività lavorative dell’uomo. Sapete quanta ne produciamo, in realtà? Il 4,5%“. Come dire “un niente”, ma in grado di produrre una variazione verticale doppia rispetto a quasi un milione di anni precedenti. Vien da chiedersi quale fenomeno, assente negli 800’000 anni precedenti, possa aver causato una tale impennata della concentrazione di CO2.

Per dire, proviamo a guardare all’aumento di temperatura. Il solito sito della NASA dice: “The planet’s average surface temperature has risen about 1.62 degrees Fahrenheit (0.9 degrees Celsius) since the late 19th century, a change driven largely by increased carbon dioxide and other human-made emissions into the atmosphere“. Quindi 0.9C° dalla fine del 1800. E cosa ci dice il nostro sovranista Lorenzo Zuppini? “La temperatura si alza: e sticazzi? Dal 1880 a oggi, l’incremento effettivo della temperatura è stato di 0.6 °C.“. Certo, non è una differenza abissale, ma da 0.6°C a 0.9°C c’è un errore del +50%, insomma. 

Poi si può discutere se un incremento di 0.6 o 0.9°C debba o meno preoccuparci. C’è, ovviamente, chi dice no, e chi dice invece che la cosa potrebbe avere effetti catastrofici. Chi? Da un lato, ad esempio, c’è la NASA, il IPCC, il NOAA, la quasi totalità dei climatologi e dei meteorologi. Dall’alto una sparuta pattuglia di eroici scienziati dissidenti, raramente esperti del ramo. Beh, sparuta mica tanto! Recentemente (non ho trovato la data) ben 500 scienziati hanno scritto una lettera al Segretario dell’ONU per protestare contro tutto questo allarmismo sulla questione climatica.

Eh beh, ragazzi, 500 scienziati non sono tantissimi, ma è un bel punto di inizio, vero? Vediamo allora chi sono questi 500 scienziati. Non abbiamo il CV di tutti, non l’ho trovato, ma partiamo dall’inizio e poi vediamo.

  • Il professor Guus Berkhout è un ingegnere olandese che ha lavorato per la multinazionale petrolifera Shell;
  • Il professor Reynald Du Berger insegna geofisica all’Università del Quebec;
  • Il professor Ingemar Nordin è un filosofo considerato uno dei maggiori rappresentanti del neoliberismo svedese, ovvero la dottrina economica in base alla quale il mercato deve regolarsi da sé, scevro da ogni condizionamento da parte delle istituzioni;
  • Terry Dunleavy è un ex giornalista neozelandese, è stato anche un tipografo commerciale e ha lavorato nel settore vinicolo;
  • Jim O’Brien è un consulente energetico irlandese. Inoltre è il presidente onorario del Uepg, una associazione che rappresenta un insieme di aziende che assieme fatturerebbero 20 miliardi di euro, sparse in 30 Paesi europei «e fa pressioni [lobbies] sulle principali sfide del settore con istituzioni europee, Ong e altre parti interessate». Buona parte delle industrie rappresentate sono estrattive, insomma non proprio il massimo dal punto di vista dell’indipendenza circa tematiche legate al cambiamento climatico;
  • Il geologo australiano Viv Forbes è il presidente della Carbon Sense Coalition, creata appositamente per «difendere il ruolo del carbonio sulla terra e nell’atmosfera»;
  • In professor Alberto Prestininzi è un geologo in pensione, è stato anche membro del Comitato tecnico scientifico per il Ponte sullo Stretto di Messina.
  • Il professor Richard Lindzen è forse il più competente tra i firmatari. Fisico dell’atmosfera è stato anche docente di meteorologia al Mit, inoltre è stato anche un conferenziere del Cato institute. Lindzen è stato uno dei primi ad aver parlato di «allarmismo climatico».

E, a proposito del prof. Lindzen, vale la pena di notare che il suo lavoro è stato criticato diverse volte da climatologi come Gavin Schmidt, il quale fece notare anche diverse imprecisioni nella presentazione dei dati relativi alla temperatura, in maniera così palese da ottenere persino le scuse di Lindzen. Del resto il professore si è dimostrato anche contraddittorio in diverse affermazioni, come quella in cui confonde il concetto di “incertezza” con quello di “ignoranza”.

Per chi volesse approfondire si trovano in rete moltissimi articoli che parlano di questa famosa lettera, fra i quali mi pare corretto citare questo, da cui ho tratto alcuni estratti, e quest’altro da ilGiornale, che parteggia apertamente per il gruppo dei 500.  Vale appena notare che ilGiornale elenca alcuni dei 500, sorvolando elegantemente sulle competenze. Alcuni vengono pudicamente citati come “professore”. Altri, per modestia, neanche questo. Vedere per credere:

Gli ambasciatori e portavoce di questa idea sono: Guus Berkhout, professore (Paesi Bassi), Richard Lindzen, professore (Stati Uniti), Reynald Du Berger, professore (Canada), Ingemar Nordin, professore (Svezia), Terry Dunleavy (Nuova Zelanda), Jim O’Brien (Irlanda), Viv Forbes (Australia), Alberto Prestininzi, professore (Italia), Jeffrey Foss, professore (Canada), Benoît Rittaud, docente (Francia), Morten Jødal (Norvegia), Fritz Varenholt, professore (Germania), Rob Lemeire (Belgio), Viconte Monkton of Brenchley (Regno Unito).

I soliti maligni, mi par di sentirli, hanno pronta la domanda: professori ddechè? Ma non c’è risposta, per lo meno non ne ilGiornale. 

A questi 500 potrei certamente aggiungere il nostro emerito prof. Zichicchi e molti altri, che hanno presentato al presidente della Repubblica una petizione. che fra le altre cose dice: “E’ scientificamente non realistico attribuire all’uomo la responsabilità del riscaldamento osservato dal secolo passato ad oggi. Le previsioni allarmistiche avanzate, pertanto, non sono credibili, essendo esse fondate su modelli i cui risultati sono in contraddizione coi dati sperimentali. Tutte le evidenze suggeriscono che questi modelli sovrastimano il contributo antropico e sottostimano la variabilità climatica naturale, soprattutto quella indotta dal sole, dalla luna, e dalle oscillazioni oceaniche.” 
Ok, Zichicchi è certamente un grande scienziato, ma è un fisico delle particelle. Come la quasi totalità dei (pochi) scienziati che ritengono non plausibile la convinzione generale sull’origine antropica dei cambiamenti climatici, non è un esperto climatologo e neanche un meteorologo. Provo ad essere più chiaro: gli esperti del ramo sono praticamente tutti concordi nel ritenere che l’uomo stia facendo grandi danni e che sia ora di porre rimedio. Alcuni non esperti invece ritengono che sia tutta una bufala, un complotto, o semplicemente una follia collettiva. Come dire: gli esperti sono preoccupati, i non esperti fanno spallucce. 

A costo di essere ripetitivo: par di capire che gli esperti del settore climatologico e meteorologico hanno grosso modo tutti un atteggiamento preoccupato. Tutti “gretini”, non tanto perché si schierino con Greta, che è l’ultima arrivata sulla scena, ma perché sostengono che se continuiamo su questa strada rischiamo di pagare pesanti conseguenze. E lo dicono con fior di studi che seguono il famoso iter della pubblicazione su riviste scientifiche e della “peer review“, ossia la la procedura di selezione degli articoli o dei progetti di ricerca proposti da membri della comunità scientifica effettuata attraverso una valutazione di specialisti del settore che ne verificano l’idoneità alla pubblicazione scientifica su riviste specializzate o, nel caso dei progetti, al finanziamento degli stessi, evitando errori, distorsioni, bias, plagi, falsità, o truffe scientifiche.

Gli “altri”, una sparuta minoranza, non mi risulta che abbiano pubblicato studi credibili.

C’è una seria obiezione a questa cosa della peer review e della pubblicazione. C’è una corrente di pensiero che dice “certo, ovvio che non ci sono pubblicazioni di studi contrari al mainstream! I comitati scientifici incaricati della selezione sono in mano alle lobbies ambientaliste! Uno scienziato serio non ha possibilità di far carriera e di pubblicare, se rifiuta di allinearsi al pensiero dominante politicamente corretto“. Ipotesi suggestiva, la stessa che viene regolarmente utilizzata per dimostrare la credibilità di:

  • Movimenti anti-vaccini
  • Coloro che affermano che la cura contro il cancro esiste, ma la tengono nascosta per garantire i guadagni dell’industria farmaceutica mondiale: “CANCRO : B17, la vitamina anticancro B17, la vitamina anticancro boicottata dalle multinazionali farmaceutiche per questioni di utili La vitamina B17 è presente nei noccioli amari di albicocca, e di pesca e nelle mandorle amare.
  • Coloro che affermano che non serve curare il cancro, basta bere succo di limone, assumere bicarbonato, mangiare vegetariano ecc ecc
  • Coloro che affermano che l’AIDS non esiste, è una bufala che serve a garantire guadagni ecc ecc: “Grazie al terrore creato intorno alla malattia sin dal suo apparire, è stato possibile far accettare la somministrazione di farmaci altamente tossici, che hanno portato benefici solo alle multinazionali che li producono. “
  • Coloro che affermano che la terra è piatta.
  • Coloro che affermano che Tesla ha inventato un modo per avere energia gratuita per tutti, ma la lobby del petrolio e del nucleare ce lo tiene nascosto (“Già 116 anni fa c’era la visione di un mondo con l’energia pulita e libera o free energy, gratuita da non misurare con un contatore per poi mandare una bolletta da pagare a ogni singolo    cittadino. In questa visione era contemplata la libertà dal giogo delle multinazionali, un nuovo modo di vivere in un mondo moderno con l’energia fornita liberamente da Madre Terra. L’oligarchia economica di allora, sostanzialmente la stessa di adesso, non volle assolutamente rinunciare ai suoi stratosferici profitti che provenivano dall’imporre ad ogni cittadino di pagare una quota per cucinare, illuminare la sua casa, scaldarsi, lavarsi, viaggiare, in definitiva per vivere nel mondo civilizzato.“)

E si potrebbe andare avanti parecchio, elencando tutta una serie di ipotesi non dimostrate perché “le lobby, le élite, le multinazionali ce lo tengono nascosto controllando la scienza ufficiale”.

Quel che manca per rendere il tutto credibile, nel caso della supposta emergenza climatica, è il mandante. 

Voglio dire, nel caso dei vaccini, del cancro, dell’AIDS e dell’energia gratuita e abbondante è chiaro che i mandanti possono essere le multinazionali del farmaco e dell’energia. Tutti capiscono che una multinazionale o un pool di queste potrebbe effettivamente usare il proprio potere economico per piegare la ricerca scientifica ai propri beceri e inconfessabili interessi. Basta pagare o minacciare chi di dovere ed ecco che gli studi scientifici “liberi” vengono boicottati,  nascosti. Gli scienziati non possono pubblicare i loro studi sulle più blasonate riviste scientifiche o, peggio ancora, vengono isolati e messi in condizione di non poter fare il loro lavoro.

Ma nel caso della cospirazione mondialista ecologista non è chiarissimo chi dovrebbe essere il mandante. Le multinazionali? Beh, no! Le multinazionali del petrolio e del nucleare preferiscono finanziare studi CONTRO l’emergenza ambientale, preferiscono la versione dei 500 eroici scienziati liberi. E chi, al mondo, ha più soldi e più potere delle multinazionali dell’energia? Soros? La cospirazione pluto-giudaico-massonica? E a che scopo? 

Tutte domande che noi, che non siamo esperti climatologi, dobbiamo porci per cercare di capire quali sono gli interessi in gioco.

E torniamo a Greta. E’ facile farle le pulci e trovare delle pecche, degli errori nei suoi discorsi. E’ una ragazzina di 16 anni che non dovrebbe avere tutto questa copertura mediatica. Ma i media hanno bisogno di fenomeni, e la povera Greta ha tutte le caratteristiche per assicurarsi le prime pagine: è giovane, determinata, testarda, e in più ha questa cosa un po’ misteriosa che è la sindome di Asperger. La domanda che sorge spontanea ai suoi detrattori è “chi c’è dietro?”. Già, vuoi mica che qualcuno possa fare qualcosa solo perché ci crede, ci vuole sempre il complotto, dietro. E infatti ecco puntuale, dalla scuderia de ilGiornale, l’articolo di InsideOver, dal titolo stentoreo: Ecco chi c’è davvero dietro Greta Thumberg. Mica paglia. Mi fiondo nella lettura (fatelo anche voi, ne vale la pena) e trovo finalmente la cruda verità: “Secondo Andreas Henriksson, giornalista d’inchiesta svedese, c’è chi sull’immagine di questa ragazza adorabile ci ha marciato, eccome. Secondo la sua ricostruzione, lo sciopero scolastico altro non era che parte di una strategia pubblicitaria più ampia per lanciare il nuovo libro della madre di Greta, la celebre cantante Malena Ernman – che nel 2009 partecipò anche all’Eurovisione vanta diverse apparizioni televisive. E il grande stratega mente di questa campagna sarebbe Ingmar Rentzhog, esperto di marketing e pubblicità, che ha sfruttato a sua volta l’immagine della ragazza per lanciare la sua start up.” Non starò qui a riportare altri estratti dell’articolo, non vorrei rischiare qualche citazione per plagio. Ma capito il terribile retroscena? Dietro di Greta c’è niente di meno sua madre! E l’esperto di marketing che vuole lanciare la sua start-up. Ma come, niente Soros? Niente rivelazioni sul grande complotto? Tutto qui? Cioè, tutto il mondo si fa menare per il naso da una grande cantante per altro poco famosa fuori dalla Svezia, e da un “grande esperto di marketing” che sta ancora cercando di far decollare la sua start-up? Siamo a posto!

Greta non è uno scienziato, è una ragazzina probabilmente poco informata, ma non è la prima a tirare il campanello d’allarme! Prima di lei ci sono praticamente tutti gli scienziati che si occupano di clima (a parte i nostri 500 eroi, che però di clima pare che ne sappiano pochino, perché per professione si occupano per lo più d’altro), la NASA, l’IPCC (ONU), e parecchie altre agenzie. 

Tutto vero allora? Tutto risolto? No, ci sono dubbi riguardo alle rilevazioni delle temperature. Qualcuno dice che il NOAA (National Oceanic and Atmospheric Administration) potrebbe aver aggiustato i dati relativi all’aumento delle temperature. Ci sono vari articoli online, come questo del Daily Mail che dice niente di meno: “Due settimane fa, sotto il titolo “Come siamo ingannati da dati imperfetti sul riscaldamento globale”, ho scritto di Paul Homewood, che, sul suo Notalotofpeopleknowt quel blog, aveva controllato i grafici di temperatura pubblicati per tre stazioni meteorologiche in Paraguay contro le temperature che era stato originariamente registrato. In ogni caso, la tendenza effettiva di 60 anni di dati era stata radicalmente invertita, così che una tendenza di raffreddamento fu cambiata in una che mostrava un marcato riscaldamento.” Ah perbacco, qui si parla addirittura di frode, di dati manipolati. Potenza della lobby ecologista, vero? Sarà anche vero che non hanno dalla loro i fondi pressoché illimitati delle multinazionali dell’energia, ma riescono addirittura a condizionare l’ONU, la NASA, il NOAA e praticamente tutti gli scienziati del ramo. Che complotto ragazzi! Beh, per bilanciare un po’ la cosa,  quei ragazzacci di Snopes: hanno fatto un articolo molto rigoroso (e lungo!) che vi invito a leggere. Qui riporto solo la conclusione: “Mentre Karl et al potrebbero ragionevolmente essere criticati per essere stati meno che rigorosi nella loro documentazione dei dati, i loro risultati sono stati verificati indipendentemente, contrariamente alle affermazioni secondo cui gli autori hanno manipolato i dati per raggiungere la conclusione desiderata:
Quello che David Rose non menziona è che i nuovi risultati NOAA sono stati validati da dati indipendenti provenienti da satelliti, boe e galleggianti Argo e che molti altri gruppi indipendenti, tra cui Berkeley Earth e il Met Office Hadley Centre del Regno Unito, ottengono effettivamente gli stessi risultati.
L’affermazione di Rose secondo cui i risultati di NOAA “non possono mai essere verificati” è palesemente errata, poiché abbiamo appena pubblicato un documento che verifica in modo indipendente la parte più importante dei risultati di NOAA.

Non pretendo qui di arrivare ad alcuna conclusione definitiva. Ognuno resta probabilmente della sua idea, anche perché ormai ci si muove per tribù, non per serena analisi dei dati. 

Il mio intento era solo di sottolineare il fatto che, comunque la si pensi, le conseguenze dell’inquinamento dell’aria, dei fiumi, delle terre e dei mari sono sotto gli occhi di tutti. Nessuno può negare il fatto che le calotte si stanno restringendo, che gigantesche isole di plastica stanno coprendo larghe aree dei nostri mari, che le microplastiche sono ormai ovunque, anche nello stomaco dei pesci che mangiamo, che i morti per inquinamento atmosferico sono milioni: “Il rapporto ha rilevato che nel 2015 sono morte 8,8 milioni di persone a causa dell’inquinamento atmosferico, nonostante le stime precedenti prevedessero solo 4,5 milioni di morti.“. Allora mi pare strano liquidare tutto come un complotto di non si sa quale entità e sadio per quali motivi. 

Il fatto è che i problemi esistono davvero. Ma, da sempre, ci sono due correnti di pensiero. Quelli che si preoccupano e quelli che se ne fregano. 
Quelli che si preoccupano spesso fanno errori, come tutti. E a volte alcuni di loro cercano copertura mediatica, cercano un posto al sole, o semplicemente trovano una nicchia mediatica in cui fare la loro piccola fortuna fatta di libri, di passaggi televisivi, di conferenze. O magari fondano un partito verde, un movimento, e si garantiscono un futuro, magari un posto in parlamento. 
Oppure semplicemente sbagliano nelle previsioni. Per dire, sono 50 anni che si dice che il petrolio sta per finire, e siamo ancora qui con le nostre macchine a benzina e i camion a gasolio. Può anche essere che, come dice Zichichi :”il clima rimane quello che è: una cosa di cui si parla tanto, senza usare il rigore logico di un modello matematico e senza essere riusciti a ottenere la prova sperimentale che ne stabilisce il legame con la realtà. “. Potrebbe essere che il modello matematico utilizzato dagli scienziati non sia corretto, e non abbiamo la “prova sperimentale” della sua correttezza. Ma noi gente comune, senza una preparazione scientifica specifica, non abbiamo gli strumenti teorici per capire chi ha ragione, se i climatologi o i fisici delle particelle. Volendo ricorrere ad un po’ di buon senso, verrebbe voglia di usare un vecchio detto milanese: “ofelè fà il tò mestée“, verrebbe cioè voglia di dar retta a Zichicchi per quanto riguarda i problemi di fisica delle particelle, e ai climatologi per quanto riguarda le questioni del clima. Semplicistico? Forse. Sicuro? No di certo, potrebbero aver ragione Zichicchi & C. Ma date di nuovo un’occhiata alle referenze degli scienziati che si oppongono agli allarmi degli ambientalisti.

Greta sarà anche una gran rompipalle, ma non è uno scienziato e non lo vuole essere. E’ il dito che indica la luna. E molta gente continua a guardare il dito, e a dire che ha l’unghia sporca. 

EDIT 10/10/2019

Ho ricevuto, su un altro blog, vari commenti negativi che mi hanno stimolato ulteriori riflessioni.

Prima di tutto occorre parlare della differenza che c’è fra le scienze esatte (o scienze dure o naturali, come pare sia più giusto definirle) e le scienze molli. Invito tutti a leggere l’articolo di wikipedia che spiega la differenza. Ma per i più pigri ricordo solo che le scienze dure sono “quelle in cui predominano i dati quantitativi, raccolti con misure sperimentali ripetibili ed elaborati con formule matematiche, analisi statistiche e grafici“. Cosa che non è possibile fare con scienze che si occupano di un gran numero di elementi (es: le molecole d’acqua, gli atomi e le molecole che compongono l’atmosfera ma anche le persone, gli investitori, i consumatori) i cui movimenti non sono matematicamente ed esattamente prevedibili. Nelle scienze molli non è possibile fare esperimenti di laboratorio ripetibili, e neanche spiegare e prevedere esattamente i fenomeni mediante formule matematiche per quanto complesse. Quel che si può fare è andare per tentativi, per approssimazioni successive. Si raccolgono dati statistici e si cerca una formula matematica, un modello, che ricalchi il più possibile i dati raccolti. Poi si fanno delle previsioni con il modello trovato e si otterranno SICURAMENTE degli errori. Il modello andrà quindi modificato per tener conto dei nuovi dati, e così via. Alla base di questo processo ci sono ovviamente computer sempre più potenti per elaborare modelli matematici sempre più complessi. Non ci sarà mai, credo, il modello matematico definitivo per ottenere previsioni meteorologiche esatte al millesimo nel lungo periodo. Ma ogni modello sarà più preciso del precedente. Avremo computer più potenti, il 5G e l’IOT  renderanno disponibili dati sempre più dettagliati migliorando il processo di iterazione da un modello preciso ad uno ancora più preciso.
Questo significa che non dobbiamo fidarci dei modelli? Questo mi pare un atteggiamento stolto. I modelli sbagliano e sbaglieranno sempre. Ma sbagliano sempre di meno, come dimostrano le previsioni meteo sempre più precise. Anche i modelli matematici usati dagli economisti sbagliano, ci mancherebbe. Ma vengono ugualmente utilizzati, perché è meglio comunque avere una qualche indicazione che non averne nessuna. Per quanto riguarda le questioni climatiche e più specificamente l’AGW (Anthropogenic global warming), gli scienziati che sostengono questa ipotesi fanno uso di modelli matematici che qualcuno (es. Zichichi) ha definito “non dimostrati”. Come ho detto prima, ogni modello matematico parte dai dati raccolti. Come tutti i modelli matematici non sarà certo perfetto, ma mi risulta essere l’unico attualmente disponibile. Da quel che ne so, e resto in attesa di smentite, non esistono modelli matematici alternativi a quello dell’AGW. 
La questione, ridotta all’osso, è la seguente: la produzione di CO2 ed altri gas serra POTREBBE avere conseguenze nefaste sul clima degli anni e dei decenni a venire. Oppure no. La stragrande maggioranza dei climatologi pensa che le conseguenze potrebbero esserci, in base ai modelli che hanno elaborato. Qualcuno invece pensa che siano tutte balle. Chi ha ragione? Lo sapremo solo con il tempo, e forse lo sapranno i nostri figli o i nostri nipoti. Vale la pena di preoccuparsi? Beh, le previsioni dei primi sono abbastanza spaventose, se avessero ragione loro varrebbe sicuramente la pena di preoccuparsi. 
Tutto sta a capire se il gioco vale la candela, tutto sta a capire cosa si rischia. 

Intelligenza artificiale

Se ne parla sempre, ovunque. E comunque non abbastanza, non nelle sedi giuste. E la gente ha le idee confuse. 

Oggi ormai anche il frullatore è interconnesso e gestito (dicono) dall’intelligenza artificiale, spesso abbreviata in IA, all’italiana, o in AI, all’inglese.

E se ne parla spesso a sproposito. 

In queste brevi note vorrei tentare di spiegare cos’è la IA e cosa non è.

(Quando ho iniziato a scrivere l’intenzione era di buttar giù poche idee sintetiche. Ma poi l’entusiamo mi ha preso la mano….)

Nel caso tragico dei recenti incidenti aerei che hanno visto coinvolti due aeromobili 737Max si è parlato di automatismi fuori controllo, di software troppo complessi, di sistemi che richiedono conoscenze informatiche di alto livello per essere pilotati. Si è scomodato persino il pres.Trump affermando che “Gli aerei di oggi sono troppo complessi. Non voglio che a guidarli sia Einstein“, perdendo ancora un’ottima occasione per stare zitto. 

Gli automatismi degli aerei non sono troppo complessi. Non si tratta di un unico software che governa tutto l’aereo, ma di tanti moduli separati, spesso fisicamente confinati in computer separati, ognuno per un compito specifico. 

E ognuno di questi computer facilita il lavoro del pilota, tanto che il numero dei membri di equipaggio in cabina è passato da quattro a due. Nei tempi andati, quando si doveva fare tutto a mano, oltre ai due piloti erano presenti in cabina, soprattutto sui grandi aerei nei voli transoceanici, l’ingegnere di volo ed il navigatore. I loro compiti sono stati adesso sostituiti da sistemi elettronici che gestiscono autonomamente i motori, il condizionamento, la navigazione. 

Questi sistemi automatici hanno una caratteristica precisa, non sono “intelligenti”, nel senso che svolgono un lavoro preciso in un modo prevedibile, matematico, logico. Si pensi ad esempio al sistema FADEC di controllo dei motori:

electronic engine control aircraft Best of Schematic of a jet engine Fadec control system

 

Il sistema si limita a ricevere dal pilota la richiesta di potenza dalla manetta. E pensa a tutto il resto, regolando i vari attuatori per ottenere la potenza richiesta. Ogni attuatore viene regolato in base ad una legge matematica, il comportamento del sistema è, in qualche modo, meccanico e totalmente prevedibile. L’intelligenza, in tutto questo, è rischiesta solo in fase di progettazione. Ma il sistema di controllo non è intelligente.

Forse dovremmo fermarci un attimo a tentar di definire cosa intendiamo per intelligenza.  Pensiamo al nostro cervello umano, simile a quello di tanti mammiferi. Nasciamo sostanzialmente incapaci di eseguire qualsiasi compito che non sia quello di succhiare il latte dalla mammella o dal biberon. Tutto il resto lo impariamo, seguendo l’esempio dei nostri genitori, accumulando informazioni. L’intelligenza consiste nel saper risolvere problemi in base all’esperienza accumulata. 

I sistemi di controllo automatico non fanno niente del genere, non accumulano informazioni. Si limitano ad applicare equazioni matematiche stabilite dal progettista. Per ottenere una certa potenza richiesta leggono i sensori di temperatura, pressione, velocità, applicano certe equazioni, regolano l’apertura e la chiusura di certe valvole. Punto. E, soprattutto, quando escono dalle linee di produzione hanno già nel loro software tutte le informazioni che servono, ossia tutta l’intelligenza del loro progettista. E, soprattutto, non fanno niente che il progettista non sappia fare. Magari lo fanno molto più velocemente, questo si. Un po’ come una calcolatrice, che sa fare gli stessi calcoli che sanno fare i progettisti. Solo che li fa molto più velocemente. 

Un passo avanti rispetto ai meccanismi “stupidi” di regolazione sono i sistemi ad autoapprendimento. Si pensi ad un regolatore di temperatura, il termostato di casa nostra. Il suo algoritmo è elementare: quando la temperatura è inferiore a quella desiderata, un relè accende la caldaia. Quando la temperatura sale e supera quella desiderata, los tesso relé spegne la caldaia. Questo è un meccanismo un po’ rudimentale, che crea un andamento ondulatorio della temperatura, un po’ sopra e un po’ sotto rispetto alla temperatura desiderata. A questo si aggiunga che quando il termostato spegne la caldaia, i termosifoni restano caldi per un po’, e continuano a scaldare l’ambiente ancora per un po’. Analogamente, quando il relè accende la caldaia, i termosifoni ci mettono un po’ di tempo prima di andare in temperatura. E quindi il riscaldamento interviene in ritardo, rispetto al necessario. Una “imperfezione” simile nelle nostre case non crea alcun danno, non importa a nessuno se la temperatura oscila di mezzo grado o di un grado. Ma nei processi industriali un simile errore è spesso inammissibile, servono regolatori molto più precisi. E’ possibile allora sfruttare le funzioni di “autoapprendimento”. Per fare questo si lancia il processo di autoapprendimento. Il regolatore effettua dei cicli di prova e memorizza la risposta del sistema. Potrà in questo modo calcolare l’inerzia termica, e aprire e chiudere in anticipo le valvole dell’acqua calda o fredda in modo da minimizzare le oscillazioni di temperatura in un range molto ristretto.  Possiamo parlare in questo caso di “intelligenza”? No, anche se i depliant pubblicitari li descrivono come “controllori intelligenti”. Anche in questo caso l’intelligenza è quella del progettista, che programma una sequenza di autoapprendimento molto rigida e molto prevedibile. Il regolatore esce di fabbrica già pronto ad effettuare il suo ciclo di autoapprendimento per calcolare i parametri di risposta del sistema. 

I sistemi di controllo che abbiamo visto fino ad ora, semplici o complessi che siano, seguono in ogni caso una logica del tipo IF-THEN-ELSE (in italiano SE-ALLORA-ALTRIMENTI). Vediamo il caso del termoregolatore semplice, la logica sarebbe questa:
IF (“temperatura attuale” minore di “temperatura desiderata”) THEN
        accendi la caldaia
ELSE
       spegni la caldaia

Anche il regolatore più furbo ragiona nello stesso modo, solo che impara a giocare d’anticipo.

Passiamo ora a sistemi che siano davvero intelligenti. Proviamo a definire cosa significa “davvero intelligenti”. Devono saper fare qualcosa che il progettista non sa fare, in un modo che il progettista non sa prevedere. Il primo esempio che mi viene in mente è AlphaGo, il software sviluppato da Google per giocare al gioco del Go, con la speranza di vincere i migliori campioni di questo gioco. Speranza rivelatasi fondata in quanto AlphaGo ha vinto per 5 a 0, nel 2015, contro il campione europeo Fan Hui e poi per 4 a 1, nel marzo 2016 contro il campione coreano Lee Sedol

Cosa rende speciale AlphaGo rispetto ai sistemi che abbiamo visto in precedenza? Il fatto che AlphaGo ha imparato letteralmente a giocare studiando migliaia di partite di Go giocate in precedenza dai grandi campioni. Nel software di AlphaGo non sono state inserite le regole del Go, non è stato creato un algoritmo del tipo IF-THEN-ELSE, non è stata inserita nessuna regola del tipo “se il tuo avversario gioca questa mossa, tu rispondi con quest’altra”. Tutto si è svolto “semplicemente” sottoponendo ad AlphaGo migliaia e migliaia di partite. Studiando le partite AlphaGo ha imparato a giocare, e a vincere. La cosa particolare, rispetto al passato, è che i progettisti di AlphaGo non sono in grado di prevedere quale sarà la prossima mossa giocata dal computer, perché non sono stati loro a progammare gli algoritmi. Loro si sono limitati a programmare un sistema in grado di imparare. Il resto l’ha fatto AlphaGo, da solo. E’ chiaro che AlphaGo è stato pensato, ottimizzato e addestrato proprio per quel tipo di compito. 

Messa in maniera molto rudimentale, una IA altro non è che un tentativo di replica della nostra struttura cerebrale, in cui reti neurali elettroniche cercano di simulare, in modo per ora piuttosto rozzo, le nostre sinapsi. 

Le reti neurali nascono vergini e vengono addestrate, con un meccanismo che si chiama Machine Learning e  Deep Learning. L’addestramento consiste nel mostrare alla IA le situazioni che deve imparare a riconoscere e gestire. Un esempio classico è quello dei riconoscimento di immagini. Alla IA vengono mostrate quantità immense di foto contententi ciò che la IA deve imparare a riconoscere. Nelle reti neurali si formano delle connessioni tanto che alla fine la IA è in grado di di riconoscere anche immagini che non ha mai visto, per analogia a quelle già viste. Se ad esempio addestriamo una IA mostrandogli migliaia di foto di cani di ogni tipo, questa sarà in grado di riconoscere un cane specifico anche se non è mai apparso in nessuna delle foto viste, per analogia. 

Il riconoscimento di immagini è una delle componenti fondamentali delle autovetture a guida autonoma. Un primo modulo software usa le telecamere dell’auto per riconoscere tutti gli oggetti che la circondano: auto, camion, ciclisti, pedoni, segnali stradali, marciapiedi, ostacoli.  In questo video si può vedere una Tesla che guida in modo autonomo. Nelle tre immagini sulla destra si vede l’immagine catturata dalle tre telecamere e l’elaborazione della AI che si occupa del riconoscimento automatico degli oggetti che potrebbero interferire con la guida. 
Un altro modulo software esamina gli oggetti riconosciuti dal primo modulo ed elabora le strategie necessarie per la guida. Entrambi i moduli sono applicazioni di AI, il primo orientato al riconoscimento di immagini, il secondo alla elaborazione delle strategie di guida. Il primo viene addestrato con migliaia di immagini. Il secondo viene invece addestrato facendo inizialmente da “passeggero” mentre guidano autisti umani. La IA “guarda” il comportamento dell’autista e impara. 

Un altro esempio di applicazione della IA è la gestione automatica delle attività ripetitive. La società LoopAI, americana ma fondata da un italiano, crea sistemi in grado di gestire dati strutturati (schedari, database) e non strutturati (foto, audio, moduli scritti a mano) e crea macchine in grado di sostituire l’uomo per fare quei compiti d’ufficio ripetitivi, quali ad esempio il processo per la liquidazione delle pratiche assicurative. La macchina studia tutte le pratiche passate, in cui impiegati analizzano documenti di ogni tipo per capire se una certa pratica assicurativa va liquidata o è una truffa. Dopo un certo tempo di addestramento (settimane) la macchina è in grado di liquidare in pochi minuti (18 minuti) il lavoro che viene normalmente fatto da esseri umani in due anni di lavoro. Questo video spiega molto bene il processo e le sue prospettive.

Un campo in cui la IA sta trovando grandi applicazioni è quello del supporto decisionale ai medici. Il sistema IBM Watson, in passato (2011) usato per giocare e vincere al gioco televisivo Jepoardy! (dal quale è stato tratto l’italiano Rischiatutto). Watson è un computer in grado di capire e rispondere usando il linguaggio naturale, al punto di capire le domande molto criptiche che vengono usate nel gioco Jeopardy!. Oggi Watson viene usato per compiti molto più seri che si spingono fino alla assistenza ai processi diagnostici dei medici. 

Uno dei campi in cui la IA è più utilizzata è il supporto all’analisi della diagnostica per immagini. Ancora una volta alla IA è stato dato in pasto un gran numero di immagini diagnostiche (ecografie, radiografie, TAC, RM) con le relative diagnosi espresse dai medici. Alla fine dell’addestramento la IA è stata in grado di continuare in autonomia, emettendo diagnosi a fronte di una serie di immagini del paziente. 

Tuttti questi sistemi non vanno (per il momento) a sostituire il medico. Sono invece intesi come un ausilio, un aiuto, un supporto. Sarà sempre (per il momento) il medico a confermare o correggere la diagnosi della IA.  Sistemi di questo tipo si stanno sperimentando ovunque nel mondo, anche a casa nostra, all’ospedale di Vimercate.

Il vero punto di svolta dei sistemi AI è che sono automatismi che iniziano in qualche modo ad agire fuori dal nostro strettissimo controllo. Come dicevo prima, i sistemi di automazione classici sono totalmente conosciuti e prevedibili. Conoscendo i dati di ingresso se ne conoscono le azioni di uscita, matematicamente. Quando un sistema di automazione non fa quel che ci si aspetta questo dipende esclusivamente da un errore di progettazione o da un guasto.

I sistemi IA invece si comportano grosso modo come un animale addestrato. Se anche l’addestramento è perfetto, se anche l’animale reagisce come ci aspettiamo, noi non sappiamo davvero cosa succede nella sua testa, non sappiamo esattamente quali sinapsi si attivano, quali circuiti intervengono. Conosciamo, grosso modo, il sistema nel suo complesso. Ma non sappiamo in che modo le informazioni di addestramento sono state metabolizzate. Come dire che non abbiamo la certezza matematica che ad un certo input corrisponda un certo output. 

Questa non è una cosa che ci deve spaventare, così come non ci spaventano il nostro cane o il nostro cavallo. Se li abbiamo addestrati bene abbiamo la ragionevole certezza di saper prevedere quali saranno le sue reazioni. Nel caso di una IA questa certezza è maggiore, perché non ci sono reazioni istintive che possano interferire. Un cane, un cavallo, possono spaventarsi, eccitarsi, adirarsi. E queste reazioni possono interferire con il comportamento atteso. Nel caso della IA queste reazioni semplicemente non esistono. 
Il vero problema è che l’addestramento potrebbe non essere sufficiente, e la IA potrebbe trovarsi in una situazione in qualche modo nuova, che potrebbe gestire in modo errato. Qualcuno forse ricorda l’incidente occorso ad una Tesla in cui il pilota automatico, gestito da una IA, confuse il colore chiaro di un rimorchio con il cielo, e andò a sbattere uccidendo il proprietario. 
C’è da dire che il proprietario aveva inserito la guida automatica e non aveva fatto il suo dovere di supervisione. Viene infatti chiaramente detto che le capacità di guida autonoma di una Tesla devono servire da supporto al guidatore, che deve comunque sempre restare vigile, pronto ad intervenire nel caso in cui l’autopilot dovesse prendere lucciole per lanterne. E’ la stessa cosa che fanno i piloti d’aereo, che attivano il pilota automatico ma non perdono mai di vista gli strumenti e controllano sempre che l’autopilota faccia il suo dovere. 

Questo è qualcosa che dovremmo sempre ricordare, prima di affidare le nostre vite ad una IA. La supervisione umana è insostituibile, proprio perché la IA non è un automatismo totalmente prevedibile. Potrebbe sempre sbagliare. Paradossalmente è proprio il tentativo di riprodurre nella IA alcuni meccanismi del ragionamento dei cervelli animali che rende il loro comportamento in parte imprevedibile. 
E’ per questo che si continua a sottolineare il fatto che i sistemi IA devono servire da supporto alle decisioni umane e non devono in alcun modo sostituirsi agli esseri umani. Una IA potrà essere diabolicamente abile a diagnosticare malattie partendo da sintomi, anamnesi e risultanze di laboratorio. Ma sarà sempre il medico a supervisionare il lavoro della IA e a esprimere il giudizio finale. Così, per lo meno, dovrebbe essere. 
Il rischio è ovvio, l’uomo potrebbe pigramente abituarsi a prendere per buone le decisioni delle IA. 

I rischi e le paure.

Siamo appena all’inizio di questa era, molto ma molto lontani da quella che viene definita AGI (Artificial General Intelligence), in italiano Intelligenza Artificiale Forte, ossia una IA che possa emulare il cervello umano occupandosi di qualsiasi compito con la stessa efficacia con cui oggi le IA “deboli” si occupano solo di compiti specifici. 

Questa prospettiva spaventa molti, perché ricorda da vicino il mito di Frankenstein, che si ribella al suo creatore. Forse, ancora prima, il mito di Prometeo che si ribella a Giove. La letteratura ed il cinema, soprattutto quelli di fantascienza, sono pieni di storie (vedi 2001 odissea nello spazio) in cui le IA, in varie forme, si ribellano ai loro creatori e fanno di tutto per distruggerli. 

Siamo ancora molto lontani da una vera AGI, posto che ci arriveremo mai.  Molto interessante a questo proposito è il libro Superintelligence di Nick Bostrom che riflette molto sulle possibilità e le possibili conseguenze dell’avvento di una AGI. Se ben ricordo lui dice “probabilmente non succederà, ma se dovesse succedere che una IA raggiunga il livello di AGI, correremmo il rischio non accorgercene fino a quando non sarà troppo tardi”. 

A mio parere, il vero rischio dell’avvento delle IA, anche di quelle “mediocri” dei nostri giorni, è che vadano pian piano ad occupare molti dei nostri posti di lavoro.  Gli ottimisti dicono che è sempre stato così, che l’uomo ha sempre avuto paura delle novità tecnologiche, fin dal tempo dei luddisti che nel XIX secolo sabotavano i primi telai meccanici. Ed è sempre successo che le novità tecnologiche (il vapore, l’elettricità, il motore a scoppio) finivano per dare un notevole impulso all’economia aumentando a dismisura i posti di lavoro. Dicono, gli ottimisti, che sarà lo stesso per l’automazione e per l’applicazione delle IA. 

I pessimisti, invece, pensano che l’automazione, soprattutto con l’avvento delle IA, potrà sostiture l’uomo in tutte le posizioni lavorative intermedie, lasciando liberi solo i lavori meno qualificati (pulizie, manovalanza) e quelli più qualificati (management, ricerca scientifica). E’ facile vedere come, in effetti, le fabbriche oggi siano sempre più diventando “black factories” ossia “fabbriche a luci spente” in cui macchinari completamente automatici provvederanno alla produzione dei nostri beni di consumo e in cui la presenza degli umani sarà marginale. 
Nel settore impiegatizio succederà lo stesso, mille forme di IA provvederanno a sostituire man mano l’uomo nelle operazioni d’ufficio più ripetitive. Pochi esseri umani basteranno a sovraintendere e controllare il lavoro di pochi potenti computer in cui una IA farà in pochi minuti il lavoro che prima richiedeva migliaia di ore umane.  

Non so dire se abbiano ragione gli ottimisti o i pessimisti. So solo che un tema del genere dovrebbe essere al centro delle discussioni politiche attuali. Invece pare sia ancora ai margini, relegato in congressi specialistici.