Maggio Digitale

Il circolo ACLI di Cassano d’Adda ha organizzato una serie di quattro incontri di alfabetizzazione informatica che si sono tenuti ogni sabato, dalle 10:00 alle 12:00, al salone del centro diurno (via Dante 4). Per motivi familiari la persona che avrebbe dovuto tenere questi incontri non ha potuto occuparsene, e i responsabili del circolo hanno chiesto a me di fare supplenza, cosa che ho fatto molto volentieri, data la mia passione per l’insegnamento e per l’informatica. 

Locandina del Maggio Digitale
Locandina del Maggio Digitale

L’iniziativa ha visto la partecipazione di una dozzina di persone che mi hanno dato grande soddisfazione, seguendo con attenzione queste mie “lezioni” e bombardandomi di domande, segno che esiste una fascia di persone che per mille motivi non hanno seguito le evoluzioni della tecnologia, ma che si trovano a disagio adesso che anche la pubblica amministrazione si sta spostando sul digitale, richiedendo a tutti quel minimo di manualità con gli strumenti informatici. 

VIDEO DEGLI INCONTRI

Tutti gli incontri sono stati filmati, e i relativi video sono stati pubblicati su Youtube. Tutti i video sono stati  raccolti in una “playlist“, che è una specie di contenitore. Accedendo alla playlist (click qui per accedere) si avrà automaticamente accesso ai video che sono stati caricati.
Volendo si può accedere alla playlist inquadrando con lo smartphone il QR-code qui sotto

PRESENTAZIONI POWERPOINT

Le presentazioni sono disponibili nella cartella condivisa “Maggio Digitale” disponibile facendo click qui.  Volendo si può accedere alla cartella delle presentazioni inquadrando il QR-code qui sotto.

Gli incontri si sono svolti in forma di chiacchierata, usando come base quattro presentazioni realizzate mediante il programma Impress della famiglia Libre Office. Questa per lo meno era l’idea di partenza, perché sostanzialmente penso che sarebbe sempre meglio, quando possibile, usare programmi Open Source. Infatti ho iniziato il lavoro con Impress, ma poi, per pigrizia e scarsità di tempo, sono scivolato sul più familiare Power Point, della famiglia Office di Microsoft. Differenze? Poche. I programmi Microsoft sono più completi, offrono maggiori opzioni. Ma sono a pagamento e soprattutto non sono Open Source, il che significa in sostanza che il codice è blindato, non può essere copiato e utilizzato per imparare. Le presentazioni sono state salvate in formato “pptx“, che è della famiglia Microsoft ma è compatibile anche con Impress. 

Infine ho anche salvato le presentazioni in formato “Presentazioni Google“, per chi volesse cimentarsi con questa possibilità. Infatti Google offre ai suoi utenti una famiglia completa di strumenti simili a quelli di Microsoft: 

  • Documenti Google: compatibili con Microsoft Word
  • Fogli Google: compatibili con Microsoft Excel 
  • Presentazioni Google: compatibili con Microsoft Powerpoint

La caratteristica di questi programmi è che sono rigorosamente “online” e “web based”, ossia si possono usare solamente quando si è collegati a internet (online) e il programma funziona con architettura client-server, senza bisogno di installare alcunché. Il che può essere un vantaggio, quando la connessione è garantita. Diventa uno svantaggio nel momento in cui la connessione non è disponibile. I documenti prodotto possono essere salvati (esportati) in locale nei formati standard. 

 

 

 

OpenVPN server con Minirouter gl-inet GL-MT300N-V2

Finalmente ho trovato cosa fare con il minirouter GL-MT300N-V2 che ho acquistato già un anno fa. E’ comodissimo per creare una rete wifi dove c’è solo un attacco LAN con il cavo. Ma può anche essere usato come OpenVPN client, per collegarsi ad una qualsiasi VPN commerciale o personale. E, nel mio caso, come OpenVPN server, per creare una VPN sulla mia rete casalinga. 

Non sto qui a spiegarvi nel dettaglio cos’è una VPN, in rete trovate tutte le spiegazioni possibili. In estrema sintesi le VPN vengono usate per due scopi. Uno molto tecnico, vi consente di entrare “da fuori” in una qualche rete in cui siete ben accetti. Un esempio? Entrare, quando siete a casa o in viaggio, nella vostra rete aziendale, e poter quindi accedere a server, stampanti e quant’altro. O accedere, da “fuori”, alla vostra rete casalinga, per poter prelevare files dal vostro NAS o per accedere alla vostra Home Automation senza dover passare dai servizi cloud delle varie aziende. E’ una connessione protetta da una crittografia molto spinta, il che dovrebbe mettervi al riparo da brutte sorprese tipo hacker che si insinuano nella vostra rete aziendale o casalinga. 

L’altro tipico utilizzo della VPN commerciali è quello di creare un tunnel che vi permetta di arrivare dall’altra parte del mondo, per superare le limitazioni geografiche che molti fornitori di informazione pongono a chi vuole accedere ai loro contenuti. Esempio? Voglio vedere un programma RAI quando sono all’estero. Il più delle volte una schermata maligna mi dice “Non puoi accedere a questo contenuto da fuori Italia”. Ma se usi una VPN che ti fa “sbucare” in Italia, il server della RAI penserà che tu sia in Italia e ti farà accedere al contenuto. Con queste VPN puoi scegliere la tua “nazionalità fittizia” e quindi accedere ai contenuti del paese desiderato. 

Fine del pistolotto iniziale, vediamo adesso come ho installato la mia VPN.

Il punto di partenza è la mia rete casalinga su ADSL (!!!!) TIM e router Fritz!Box 7390. 

Quando scarti il TM300 devi procurarti un alimentatore USB. Io l’ho attaccato alla porta USB del Fritz. Attacchi anche il cavo di rete fra la porta WAN del TM300 e una delle porte LAN del tuo router. Se non hai una porta libera puoi anche andare via WiFi, ma chiaramente la velocità poi ne risente. 

Una volta acceso il TM300 cerca sul tuo PC la rete WiFi GL-MT300N-V2 e collegati. La password iniziale è goodlife, poi penserai a modificarla. 

Entra ora nella pagina web a indirizzo 192.168.8.1 e vai alla sezione INTERNET

Se vorrai collegarti al tuo router via WiFi dovrai selezionare la tua rete (scan) e collegarti. 

A questo punto apri la sezione OpenVPN Server

fai click su “generate a configuration file“, e ti si apre una pagina di parametri che puoi tranquillamente lasciare come sono:

Fai click su “Export Configuration” e salva da qualche parte il file “Client.ovpn” che ti servirà dopo sul tuo client. 

Salvata la configurazione puoi fare click su Start. Parte il server OpenVPN, e da questa parte abbiamo finito.

Ora dipende da come sei messo con l’indirizzo IP pubblico. La VPN necessita di un indirizzo pubblico statico, altrimenti il client non sa a che indirizzo venire a trovare il server. Solitamente i fornitori danno ai router un indirizzo che può cambiare di quando in quando. Per il server OpenVPN serve invece un indirizzo pubblico che non cambi mai. Devi quindi chiedere al tuo fornitore di servizi un indirizzo IP pubblico STATICO. Fastweb, ad esempio, te lo da gratis in poco tempo. Altri fornitori te lo danno a pagamento e ti fanno penare. Un’altra soluzione e quella del DDNS. Ossia un servizio (gratis o a pagamento) che provvede lui a generare un nome di dominio che corrisponde al tuo indirizzo IP Pubblico. E provvede lui ad aggiornare il collegamento quando l’indirizzo IP pubblico cambia. Il nome di dominio invece resta uguale, tipo “pincopallo.ns0.it“. Io uso il servizio gratuito DynDNS.it che ha l’unica noia di richiedere la conferma ogni mese. Ma funziona e quindi va bene. 

Quindi ricapitolando: se hai un IP pubblico statico sei a cavallo. 

Se non ce l’hai hai due soluzioni: (1) lo chiedi al tuo provider (2) usi un DDNS.

Per me vale la seconda opzione.

Nel primo caso, il tuo file “Client.ovpn” generato in precedenza è già pronto per essere installato sul client.

Nel secondo caso invece devi aprirlo con il notepad e cambiare la riga 4, quella che dice qualcosa come: 

remote 80.123.123.123 1194

Quello che vedi fra la parola “remote” e il numero “1194” è il tuo indirizzo IP pubblico. Lo puoi verificare andando sul sito myipaddress.com e visualizzando il tuo indirizzo IP pubblico. 

Se avrai correttamente attivato il tuo servizio DDNS, dovrai sostituire l’indirizzo IP pubblico con il tuo nome dominio, qualcosa come:

remote pincopallo.ns0.it 1194

Salvi il file ed è pronto per essere installato sul client OpenVPN.

Ora passiamo al router. Occorre aprire la porta 1194 (quella usata per OpenVPN) all’indirizzo IP del MT300 nella tua rete interna. 

Ogni router ha le sue modalità, non si può quindi fare una procedura generale. Vediamola per il Fritz!Box 7390

Prima di tutto occorre scoprire quale indirizzo IP corrisponde al MT300. Si va sulla pagina Schema rete domestica e si cerca il dispositivo GL-MT300N-V2-ed1 e si prende nota del suo indirizzo IP (nel mio caso 192.178.1.66). 

Sarebbe anche cosa buona editare la voce e imporre che al dispositivo venga sempre assegnato lo stesso indirizzo IP 

A questo punto aprire la sezione Internet – Abilitazioni e fare click su “Aggiungi dispositivo per abilitazioni”. Scegliere il nostro GL-MT300. 

Aggiungere poi una nuova abilitazione che chiameremo OpenVPN

Nei dettagli della nuova abilitazione scegliere il protocollo UDP e le porte da 1194 a 1194, con porta esterna 1194. In questo modo il solo traffico UDP attraverso la porta 1194 verrà abilitato a raggiungere solamente il nostro dispositivo. 

Il nostro router è ora pronto ad indirizzare il traffico OpenVPN al nostro dispositivo, sulla porta 1194. 

Non resta che installare sul nostro PC il client OpenVPN che si trova sul sito dei download di OpenVPN. E quindi avviare il client OpenVPN e importare il file Client.ovpn preparato in precedenza. 

Una volta avviata la connessione il nostro PC, da qualsiasi parte nel mondo, potrà collegarsi alla nostra rete domestica o aziendale.

 

 

 

 

Il 5G è un pericolo?

Della tecnologia 5G se ne parla tanto, e non sempre correttamente. 

Alcune persone o associazioni hanno deciso che il 5G, lo standard più avanzato per i telefoni cellulari, è un pericolo da combattere. 

Proviamo a ragionarci sopra, ma prima dobbiamo mettere le basi, chiarire alcuni concetti, altrimenti rischiamo di fare dei discorsi campati per aria. Ci vuole un po’ di pazienza per capire bene le cose.

In questo articolo non voglio cercare di cambiare le idee di nessuno. La mia intenzione è solo quella di offrire il punto di vista di un tecnico, di uno che ha studiato queste materie e ci ha lavorato per quarant’anni. Gli elementi tecnici base per capirci qualcosa di più li troverete qui, poi ognuno si farà la sua idea. 

Premetto che l’articolo è lunghetto. D’altra parte è indirizzato soprattutto a chi non ha competenze specifiche ma assume posizioni critiche. E’ possibile criticare senza sapere? Dire “non voglio il 5G” senza neanche sapere di che cosa si tratta è un atteggiamento (assunto da molti) poco razionale. Oggi, purtroppo, va di moda prendere posizioni “contro” anche senza conoscere veramente le cose. Io resto dell’idea di Luigi Einaudi: occorre conoscere per deliberare

ONDE RADIO

Viviamo immersi nelle onde radio. La luce è un caso estremo di onda radio naturale, e la luce ci dà la vita. Ma da quando Marconi ha inventato la radio, ci sono altre onde radio di origine artificiale, ovunque. Vediamo le applicazioni che conosciamo meglio:

La Televisione.

 

 

 

 

Le immagini televisive partono come onde radio dall’antennone che le trasmette e arrivano fino all’antenna sul tetto. Mentre gli apparecchi TV che abbiamo a casa hanno dei livelli di emissione EM irrisori, le antenne centrali invece usano potenze molto alte, dell’ordine di qualche decina o centinaia di kW, per coprire un ampio territorio. Vengono solitamente posizionate in posti molto alti, colline o montagne. A volte in cima ai grattacieli. 

Le radio dei pompieri, ambulanze, polizia, tram, treni, quasi tutti i servizi pubblici

Le radio dei sevizi pubblici sono collegate alle centrali di comunicazione tramite onde radio. Stessa cosa per gli aerei. Sia le trasmittenti dei mezzi mobili che quelle delle centrali utilizzano potenze che vanno dai 5 W alle decine o centinaia di W per le centrali. 

I walkie Talkie

I walkie talkie, sia quelli dei bambini che quelli professionali comunicano fra di loro tramite onde radio. Hanno emissioni che vanno dai pochi mW per i giocattoli per bambini fino a 5 o 10W per le applicazioni professionali.

Il RADAR degli aerei

I radar che controllano la sicurezza degli aeroplani utilizzano onde radio nel campo delle microonde. Indipendentemente dalla potenza della trasmissione, la forma a parabola dell’antenna concentra l’emissione in direzione degli aerei, quindi difficilmente può avere un impatto nei confronti delle persone a terra.

I CELLUARI ALL’APERTO

Quando siamo fuori casa i nostri cellulari funzionano collegandosi alle famose antenne dei cellulari, quelle che ci fanno sempre tanta paura. Le potenze in gioco sono variabili in base al numero di utenti e all’area da coprire. Si va da pochi mW per celle molto piccole a migliaia di W per impianti che devono coprire vaste aree. 

I CELLULARI A CASA

Quando invece siamo a casa i nostri cellulari si collegano al router WiFi di casa, almeno per quanto riguarda l’accesso a internet. Per legge i router per uso casalingo (indoor) possono avere potenza fino a 100mW, quindi molto limitata. 

E potrei sicuramente andare avanti per molto, ma penso che si sia capito il significato. Ormai non c’è posto al mondo che non sia inondato da onde radio generate dalle varie apparecchiature che in un modo o nell’altro ci aiutano a vivere meglio, più comodi, più sicuri. Può piacere o non piacere, ma provate a pensare cosa sarebbe oggi la nostra vita senza TV, Radio, WiFi e senza la sicurezza delle varie applicazioni pubbliche (Ambulanze, Pompieri, Polizia, Treni, Navi, Aerei) che si basano sulla radio per le loro comunicazioni. Neanche il navigatore della nostra auto potrebbe funzionare senza le onde radio dei satelliti del GPS. 

Per andare avanti quindi dobbiamo essere d’accordo su una cosa: le onde radio ci servono. Neanche nella maggior parte dei villaggi africani si fa a meno della radio. Anzi, più un posto è isolato più ha bisogno della radio per collegarsi al resto del mondo.

Entriamo un po’ nel dettaglio e parliamo quindi delle onde radio, e di due particolari aspetti che accomunano TUTTE le onde radio: frequenza e potenza. 

Partiamo da qualcosa che conosciamo bene: il suono. Immaginate due persone che parlano, un uomo con la voce molto grave e una donna con la voce molto acuta. Entrambe le persone possono parlare a bassa voce o urlare. Il tono della voce, grave o acuta, è la frequenza del suono. Il volume (sotto voce o urlata) è la potenza del suono. Un suono quindi può essere grave o acuto e contemporaneamente debole o forte. Situazione analoga per le onde radio che possono avere frequenza bassa e altissima e potenza bassa o altissima. Le due cose non vanno confuse, mente spesso negli articoli che trovate, soprattutto quelli allarmistici, si fa una grande confusione fra frequenza e potenza. Non è infrequente trovare frasi assurde del tipo “una trasmittente della potenza di 600 GHz”.  La frase dovrebbe essere “una trasmittente della frequenza di 600 GHz”. Confondere frequenza e potenza  potrebbe sembrare un semplice errore, se non ingenerasse in chi legge la sensazione che più alta è la frequenza, più forte e pericolosa è l’emissione. Cosa che è vera solo in parte, solo agli estremi più alti della frequenza, là dove le onde radio diventano radiazioni ionizzanti. 

FREQUENZA DELLE ONDE RADIO

Qui si fa un piccolissimo passo avanti nella tecnica. Le onde radio sono onde, come quelle che si ottengono buttando un sasso nello stagno. 

Butta un sasso nell’acqua e vedrai delle onde allontanarsi del punto in cui è caduto. Le onde radio sono la stessa cosa. Vengono emesse dall’antenna, ma non le vediamo. Possiamo solo immaginarle. Ci sono onde “lunghissime” e onde “ultracorte”. La lunghezza è quella che c’è fra una cresta e la successiva. 

Le onde lunghissime sono quelle a sinistra, che ricordano una molla molto tirata. Quelle ultracorte sono quelle a destra, che ricordano una molla molto compressa. Ecco due immagini simili che visualizzano tutte le onde radio che ci circondano,  alcune naturali e altre artificiali.

Si può facilmente vedere come fra la radiazione infrarossa e quella ultravioletta vi siano tutti i colori della luce visibile. 

La frequenza delle onde la misuriamo in Hertz (Hz) o con i suoi multipli kHz (1000 Hz), MHz (1’000’000Hz), GHz (1’000 MHz), EHz (1’000 GHz). 

In ordine crescente di frequenza abbiamo:

50 Hz Corrente elettrica casalinga onde lunghissime
100 KHz Radio a lunghissima distanza onde lunghe
1 MHz Radio a lunga distanza (AM) onde medie
100MHz Radio locali (FM) onde corte
1 GHz Televisione – cellulari onde ultracorte
 10 – 100 GHz RADAR microonde (millimetriche)
oltre 1000 GHz
(oltre 1EHz)
Luce infrarossa, visibile, ultravioletta onde micrometriche
oltre 1’000 EHz Radiazioni ionizzanti pericolose onde nanometriche

Ogni tipo di emissione ha bisogno della sua frequenza, a seconda del tipo di servizio che deve fare. Le radio che trasmettono musica possono usare onde dalle lunghe alle medie alle corte. Quello che cambia è la distanza che le onde radio riescono a coprire. Le onde lunghe viaggiano fra i continenti. Le onde corte invece coprono solo le zone locali, ma hanno il vantaggio di offrire più “canali”. Più si sale di frequenza, verso le onde ultracorte, più aumentano i canali. Per avere più canali occorre salire di frequenza. Si perde in distanza (quindi servono più antenne) ma si guadagna in canali. Le televisioni con il passare dei decenni stanno usando onde sempre più corte, per avere più canali disponibili. 

Le onde radio che vanno dalle lunghissime su su fino alle microonde e alla luce visibile non sono considerate pericolose, se non a potenze elevate (della potenza ne parliamo più avanti). 

Dall’ultravioletto in poi le onde radio diventano radiazioni ionizzanti, e qui son dolori. Esempi di radiazioni ionizzanti sono i raggi X, e i raggi gamma. Con queste radiazioni occorre andarci piano, esporsi il meno possibile perché si va a rischio tumori o addirittura ustioni e morte.

Ma allora la frequenza è pericolosa? Sui pericoli derivanti dalle emissioni elettromagnetiche, ossia le onde radio, torniamo dopo. Possiamo però anticipare che, si, più sale la frequenza più aumentano i rischi, soprattutto dai raggi UV in poi. Ma in realtà tutto dipende dalla potenza.

POTENZA DELLE ONDE RADIO

Capita più o meno cos’è la frequenza, adesso parliamo della potenza. Il confronto con la voce è facile facile: se sussurro (bassa potenza) mi sente solo chi è vicino a me. Se urlo mi sentono anche persone dall’altro lato della valle. Le onde radio seguono lo stesso principio: se la potenza è bassa l’onda radio “si spegne” rapidamente e non va molto lontano. Se la potenza è alta l’onda radio può andare molto più lontano.

La potenza si misura in Watt (W) con i suoi sottomultipli (milliwatt mW) o multipli (kilowatt kW).

pochi milliwatt (mW) telecomandi apricancello, giocattoli per bambini, telefoni cellulari
watt walkie talkie professionali, radio polizia e servizi pubblici
kilowatt (kW) emittenti radio / TV
megawatt (MW) armi a microonde o laser

Solitamente si usa la potenza più bassa che garantisce il risultato. Nessuno penserebbe a fare un telecomando apri-cancello della potenza di qualche watt, sarebbe assurdo dato che pochi milliwatt sono più che sufficienti. Per coprire una vasta area con una emittente televisiva servono invece impianti da migliaia di watt (kilowatt).

La potenza rappresenta la vera FORZA con cui un’onda radio ci colpisce. Qualsiasi sia la sua frequenza, un’onda radio debole difficilmente potrà causare qualche danno significativo. Un’onda molto forte (molto potente) potrà invece generare danni, soprattutto se oltre ad essere molto forte (alta potenza) è anche molto veloce (alta frequenza).

Introduciamo quindi un concetto base: il pericolo è dato dalla combinazione fra alta potenza e alta frequenza. 

Questo concetto lo si capisce molto bene se si pensa al forno a microonde che molti di noi hanno a casa. 

Il forno a microonde genera lo stesso tipo di radiazione generata dai telefoni cellulari e dalle armi più o meno segrete che si usano per disperdere le folle o per abbattere missili a distanza. La differenza sta nella potenza.

  • I nostri telefoni generano microonde a potenze bassissime, di pochi millesimi di Watt (pochi mW) e presentano rischi difficilmente quantificabili.
  • I nostri forni a microonde generano potenze intermedie, di quasi DUEMILA Watt, quindi un milione di volte più potenti di un telefono cellulare. Siccome sono isolati perfettamente non presentano rischi quando sono chiusi. Ma all’interno del forno il rischio di danni alla persona è alto.
  • Le armi a microonde generano potenze di svariati MILIONI DI WATT, quindi miliardi di volte più potenti dei nostri cellulari. Si tratta di armi, quindi qui il rischio è alto, garantito. 

E’ evidente che non ha senso accomunare telefoni cellulari, forni a microonde e armi a microonde. Tutti usano le microonde ma a potenze diversissime. Chi ti dice: “pensa, il tuo cellulare è come un forno a microonde, ti cuoce il cervello” o è ignorante o cerca di fregarti. Sarebbe come dire che un pizzicotto e una pressa da 10 tonnellate sono la stessa cosa e fanno lo stesso danno.

A costo di essere noioso ti propongo un’altra similitudine. Tutti usiamo l’acqua, per bere e per lavarci. A nessuno verrebbe in mente di essere in pericolo.

Ma la stessa acqua, usata a pressione di 7000 bar può essere usata per tagliare lastre d’acciaio fino a 15mm di spessore, con il TAGLIO AD ACQUA

Quindi concludiamo che l’acqua è pericolosa? La risposta è “dipende”. Se la beviamo dal bicchiere, la risposta è no. Se viene compressa a 7000 bar la risposta è SI. Dipende dalla potenza.

Adesso ci siamo fatti un’idea di cosa sono le onde radio, la frequenza e la potenza.

EVOLUZIONE TECNOLOGICA DEI CELLULARI

Abbiamo capito che i cellulari non sono altro che apparecchi radio forniti di tastiera e display.

I primissimi cellulari degli anni ’80 erano grossi e pesanti e la loro apparecchiatura radio era piuttosto rudimentale. Per garantire la comunicazione usava molta potenza, fino a 10W nei casi peggiori. L’emissione radio di onde EM era quindi piuttosto forte. 

Poi, con il passare del tempo ed il progredire della tecnologia i cellulari sono diventati molto più “furbi”. Utilizzano potenze bassissime e solo quando serve. Se ad esempio noi facciamo una breve pausa fra una parola e l’altra, il cellulare abbassa di molto la potenza, quasi a zero, perché non ha niente da trasmettere.  Inoltre la potenza di emissione del cellulare viene automaticamente regolata in base alla distanza dalla stazione base. Se la stazione base è vicina la potenza utilizzata è bassissima. Questo è vero anche per le antenne sui tralicci. La potenza viene emessa solo quando serve. Sono migliorate di molto anche le sezioni riceventi dei cellulari. Questo significa che il cellulare “prende meglio”. Ogni nuova tecnologia (1G, 2G, 3G, 4G, 5G) utilizza meno potenza della tecnologia precedente. Questo fatto è legato soprattutto ad una esigenza primaria: consumare meno batteria. Se il cellulare utilizza meno potenza la batteria dura di più, e questo è un vantaggio commerciale per chi produce e vende cellulari. Per questo i produttori di cellulari cercano soluzioni tecnologiche che consentano di utilizzare meno potenza, prolungando così la vita delle batterie e limitando nel contempo le emissioni EM. Con conseguente diminuzione dei rischi associati.

CELLE

La telefonia mobile si chiama “cellulare” proprio perché divide il territorio in molte “celle” contigue. Ogni cella ha la sua stazione base con relativa antenna. Quando il nostro cellulare si muove da una cella all’altra, mentre ci spostiamo a piedi o in auto, viene preso in carico dalla cella successiva, quindi si connette ad un’altra antenna. Perché questo meccanismo funzioni occorre che la potenza delle antenne sia limitata in modo da non interferire con la cella contigua. Questo è il motivo in base al quale la potenza delle stazioni basi e delle antenne dei cellulari è comunque una potenza limitata, per non creare interferenze con le celle circostanti. Nel caso del 5G questo meccanismo è spinto ancora più avanti: le celle sono molto più piccole rispetto al 4G e quindi  le potenze devono essere ancora inferiori.

 

SI, MA DICONO CHE IL 5G E’ PIU’ PERICOLOSO

Questo secondo me è tutto da dimostrare. Sono stati usati tanti argomenti contro il 5G, per motivi che io non capisco. 

FREQUENZE

Il 5G utilizza in parte le stesse frequenze (700 MHz e 3GHz) delle tecnologie precedenti. Quindi, a rigor di logica, presenta gli stessi (eventuali) problemi delle generazioni precedenti (1G fino a 4G). Poi è previsto in futuro anche l’utilizzo della banda a 26GHz (gigahertz), che è quella che spaventa qualcuno. Ma anche qui siamo ancora nel campo delle radiazioni non ionizzanti, che alle bassissime potenze utilizzate dai cellulari non creano alcun problema. 

ANTENNE

Una delle caratteristiche innovative e positiva del 5G è il sistema di “antenna intelligente”.

A differenza del 3G / 4G, dove l’antenna “illumina” con un ventaglio di onde radio tutta la sua zona di competenza, anche lì dove ci sono telefoni non attivi, l’antenna 5G è intelligente e convoglia le onde radio in forma di “raggi” (beam) solamente in direzione dei telefoni attivi. Questo, anche per chi si preoccupa della salute, è un grande passo avanti perché consente di non inviare onde radio dove non servono. Paradossalmente ci si deve preoccupare molto meno del 5G che del 4G.

Si ma con il 5G metteranno milioni di piccole antenne, saremo circondati.

Non nego che l’argomento possa essere di un certo effetto, ma ad una analisi più dettagliata è inconsistente.

Soprattutto nella banda più alta (ancora non usata in Italia) dei 26GHz le onde radio si propagano molto male e vengono fermate facilmente da qualsiasi ostacolo. Per questo l’idea è quella di usare molte antenne a bassissima potenza invece che poche antenne a potenza maggiore. Le celle, come detto in precedenza, saranno molto più piccole, e la potenza di conseguenza dovrà essere molto più bassa. Si, saremo circondati da tanti trasmettitori, ma a bassissima potenza. 

Ho letto che con il 5G ci potranno controllare meglio perché le onde del 5G penetrano meglio nei muri.

Questo è un argomento totalmente infondato. Per quanto riguarda le bande di frequenza già usate dal 4G (700 MHz e 3 GHz) non ci sarà alcuna differenza. Mentre per quanto riguarda la banda più alta, a 26GHz, è un dato tecnico risaputo che più alta è la frequenza delle microonde più bassa è la loro capacità di penetrazione degli ostacoli. 

Saremo circondati da miliardi di dispositivi IoT (Internet of Things) che generano campi EM pericolosi.

Anche questa è una affermazione totalmente infondata, per questi motivi:

  • I dispositivi IoT non sono strettamente legati al 5G. Già oggi siamo circondati da dispositivi IoT: telecamere di sorveglianza, elettrodomestici, interruttori intelligenti, lampade intelligenti. La maggior parte di questi dispositivi si collegano al WiFi di casa, e sono del tutto indipendenti dal 5G. Altri dispositivi IoT arriveranno, e alcuni di loro si connetteranno alla rete 5G. Altri invece si connettono ad altre reti (LoRa), sulle stesse frequenze degli attuali cellulari (430 MHz, 868 MHz). Cito da un interessante articolo: “Una Low Power-Wide Area Network, per essere considerata applicabile in un’ambientazione Internet of Things deve avere delle ben precise caratteristiche, prima di tutto basso costo e bassi consumi. Infatti se si considera che in certe installazioni gli end-node device, o punti terminali di comunicazione come sorgenti di dati, potrebbero essere parecchie migliaia, i costi unitari sono il punto di partenza per determinare il ritorno dell’investimento, e i bassi consumi sono imprescindibili laddove la funzionalità dipende da batterie.
  • I dispositivi IoT generano un bassissimo flusso dati, e sono spesso alimentati a batteria. Si accendono al momento di trasmettere dati e poi si spengono. Sono in pratica normalmente inattivi, silenziosi. Ad esempio, un sensore di temperatura o umidità non genera un flusso continuo di dati, che sarebbe inutile e provocherebbe la scarica prematura della batteria. Diciamo che il sensore di temperatura o umidità invia i suoi dati una volta al minuto, per un tempo brevissimo. E poi torna a “dormire”. La stessa cosa vale più o meno per tutte le applicazioni IoT. E’ quindi del tutto infondata la paura di essere “circondati e bombardati” da un continuo flusso di onde radio generate dai dispositivi IoT. 

PERICOLI DELLE ONDE RADIO

Le onde radio sono pericolose per la nostra salute? Alcune si, di sicuro. Già sappiamo che i raggi UV possono danneggiare la nostra pelle e provocare dei tumori. A maggior ragione le onde radio diventano pericolose man mano che saliamo di frequenza nel campo delle radiazioni ionizzanti.

RADIAZIONI IONIZZANTI

Per radiazioni ionizzanti si intendono quelle onde radio a frequenza altissima (maggiori di 10EHz) che vanno dai raggi UV ai raggi alfa, raggi X e raggi gamma. Qui si entra nel campo delle energie e delle radiazioni nucleari la cui pericolosità è conosciuta da quando sono state scoperte. Queste radiazioni possono essere usate per scopi medici (radiografie, TAC) ma solo occasionalmente e a dosi bassissime. Chi lavora a contatto con queste radiazioni deve proteggersi e utilizzare strumenti (dosimetri) che misurino l’assorbimento, per evitare esposizioni prolungate che sarebbero dannose. Ma le onde radio utilizzate per le comunicazioni hanno frequenze milioni di volte inferiori.

EMISSIONI NON IONIZZANTI

Le emissioni radio non ionizzanti sono quelle che vanno dai 50Hz (frequenza della corrente elettrica di casa) fino alla luce visibile. Sulla pericolosità delle emissioni non ionizzanti c’è una questione aperta da decenni. Si stanno conducendo studi sia sulla parte bassa dello spettro (i 50Hz di casa) che sulla parte alta (microonde per comunicazioni radio). 

Un filone di studi riguarda i possibili effetti cancerogeni delle onde a bassissima frequenza (ELF), ossa quella della corrente di casa e dei tralicci ad alta tensione. I vari studi non hanno portato a risultati definitivi perché è estremamente difficile effettuare degli studi epidemiologici seri. Come in tutti gli studi medici occorre avere dei campioni che non vengono esposti e degli altri campioni che vengano esposti ad un solo elemento. E occorre che la sola differenza sia l’elemento in questione. Ma è impossibile trovare qualcuno che viva come noi, mangi come noi, respiri come noi, ma che non venga esposto a radiazioni a bassa frequenza. Tutti siamo esposti alle radiazioni emesse dagli impianti elettrici di casa, dell’ufficio, ovunque. Un altro problema è che le persone che vivono in diretta prossimità dl linee ad alta tensione e che sviluppano tumori o altre malattie raramente vivono sempre a contatto con quei campi EM. Potrebbero andare a lavorare in altri posti con altri agenti cancerogeni. O potrebbero incorrere in altri contatti (alimentazione, inquinamento atmosferico) che potrebbero provocare tumori o altre malattie. E’ questa estrema difficoltà ad effettuare i necessari studi epidemiologici che ha fino ad ora reso inconcludenti gli studi che cercano di mettere in relazione l’esposizione a emissioni ELF con l’insorgenza di tumori al cervello. Alcuni studi (questo) indicano una debolissima correlazione nel caso del glioma e praticamente nessuna correlazione nel caso del meningioma. 

Altri filoni hanno studiato gli effetti delle onde radio a varie frequenze, dalle trasmissioni radio e TV ai telefoni cellulari e router WiFi, ma nessuno studio è arrivato a dimostrare correlazioni significative.

In definitiva, al momento attuale non è possibile dire con certezza che le emissioni radio possano provocare dei tumori. Le correlazioni identificate da alcuni studi sono talmente deboli da poter dire che il rischio è certamente di parecchi ordini di grandezza inferiore rispetto ad altre cause accertate di tumore e in genere di malattie potenzialmente mortali, come il fumo, l’inquinamento atmosferico, la sedentarietà, le cattive abitudini alimentari. 

Da quel che ho capito fino ad oggi, e domani potrei cambiare idea, i veri problemi riguardanti la nostra salute riguardano ben altri aspetti. 

Per quanto riguarda nello specifico il 5G, non si vede perché dovrebbe presentare problemi maggiori riguardo a quelli già eventualmente presentati dalle precedenti tecnologie (1G, 2G, 3G, 4G) che erano e sono anzi più pericolose sotto il profilo della potenza emessa. 

Se davvero volessimo metterci al riparo dal pericolo (non dimostrato) delle emissioni EM, dovremmo:

  • Smettere di utilizzare elettrodomestici di qualsiasi tipo nelle nostre case
  • Vivere lontani da trasmettitori radio e tv di qualsiasi tipo
  • Smettere di utilizzare telefoni cellulari di qualsiasi tipo

E’ del tutto evidente che simili soluzioni drastiche sono possibili solo vivendo isolati dal mondo lontani da ogni forma possibile di civiltà, rinunciando ad utilizzare qualsiasi forma di elettricità, Possibile, certo, ma non facilmente realizzabile. 

Nel momento stesso in cui accettiamo di vivere in una città, grande o piccola che sia, utilizzando elettrodomestici e telefoni cellulari, in quel momento ci troveremo esposti a numerosi e inevitabili campi EM.

Quindi a mio parere il vero problema non è il 5G, ma la civiltà tecnologica tutta. 

La vita è colma di rischi, da sempre. Rischiamo malattie, incidenti, inquinamenti. Spesso siamo costretti a barattare parte della nostra sicurezza in cambio di una qualche forma di stabilità lavorativa. Molti lavori mettono a rischio la nostra salute, in un modo o nell’altro. E lo stesso vivere in determinate aree ci sottopone a forti dosi di inquinamento atmosferico o di altro tipo. E’ giusto preoccuparsi di minimizzare le fonti di inquinamento, essere critici ed analizzare tutto. Ma nel fare questo occorre stabilire delle priorità, e concentrare la nostra attenzione soprattutto a quei fenomeni che per loro stessa natura comportano i più alti e documentati rischi per la nostra salute. Al momento, salvo successivi approfondimenti, il rischio 5G è un lusso che possono permettersi solo coloro che vivono al di fuori di aree altrimenti inquinate. Ma chi vive, ad esempio, in pianura Padana, ha molti altri motivi di preoccupazione, decisamente più incisivi e dimostrati. 

 

PLC WAGO

Questa è la cronca di una infelice applicazione di un PLC Wago. Spero possa servire a qualcuno, se dovesse trovarsi in condizioni analoghe. Prendete queste cronache per quel che sono. 

Ho fatto parecchi lavori usando i PLC della Wago. Nello specifico ho usato  quelli della serie PFC100 e quelli della serie superiore PFC200.  Per noi è stata una scelta imposta dal cliente, in quanto solitamente preferiamo andare su prodotti più consolidati, tipo i PLC della Siemens, sui quali abbiamo decenni di esperienza. Da qualche tempo invece un certo cliente ha preferito andare sui prodotti Wago, probabilmente per una questione di prezzo.

I PLC della Wago hanno il loro ambiente di sviluppo, che si chiama e!COCKPIT ed è basato a sua volta sull’ambiente di sviluppo CODESYS che aderisce allo standard industriale  IEC 61131-3   

Si può programmare nei soliti linguaggi PLC (cito dal wiki inglese:

La mia preferenza va al linguaggio ST, che nel mondo Siemens si chiama SCL, un linguaggio testuale basato sul Pascal

Quel che mi piace di più dell’ambiente Wago è che il PLC integra nel suo software un server WEB e la possiblità di disegnare abbastanza facilmente delle semplici interfacce utente che sarà poi possibile visualizzare su un qualsiasi client WEB.

In questo modo non è necessario fare ricorso a pannelli operatore specializzati. Wago mette a disposizione un pannello HMI ad hoc che altro non è che un pannello con integrato un browser WEB. Basta configurare l’indirizzo IP del PLC che si vuole monitorare. Ma, volendo, si può utilizzare un qualsiasi PC, tablet o dispositivo mobile (smartphone) dalla rete locale oppure (tramite VPN) da remoto. 

In’altra caratteristica simpatica del Wago è la possibilità di segmentare  facilmente il programma in vari task, ognuno con la sua priorità e con il suo ciclo di esecuzione. Caratteristica comuque non certo esclusiva del Wago. Tanto per dire, con i PLC Siemens si possono usare gli OB da 30 a 38.

Tutto bene dunque? Mica tanto.

Abbiamo fatto parecchi lavori con questo PLC, cose abbastanza semplici per il controllo di impianti industriali: aria condizionata, riscaldamento, gestione pompe di calore, interfaccie Modbus.

Ma i dolori sono iniziati quando ci è stato chiesto di integrare una rete di luci DALI  (5 controllori DALI 753-0647 e 5 bus DALI separati) e di interruttori e sensori Konnex connessi ad controllore KNX 753-0646 via bus KNX.

 

 

Bisogna comunque specificare il fatto che questo lavoro è stato fatto “a cuore aperto”, in una situazione in cui l’impianto era già in funzione, il cliente mal digeriva interruzioni del servizio e la deadline della inaugurazione era imminente. Non c’è stato tempo per fare le prove a banco con la necessaria calma. Il tutto complicato dal fatto che le specifiche praticamente non esistevano, che gli architetti del cliente aggiungevano e toglievano in continuazione i punti luce DALI, le utenze elettriche, i punti KNX. Un incubo. 

Wago ha a catalogo i moduli adatti per la gestione delle due realtà. Sul fronte DALI fornisce anche un utile strumento software, il Wago Dali Configurator che permette di configurare e controllare in modo abbastanza intuitivo la rete di illuminazione. 

I dolori per quanto mi riguarda sono arrivati sul fronte KNX. Per noi era la prima volta che usavamo l’accoppiata WAGO-KNX, quindi c’era una mancanza di know-how specifico.  E poi, forse per mia incapacità nel reperire le informazioni. è stato un delirio capire come configurare la parte KNX lato PLC. Sarà colpa mia, ma non sono riuscito a trovare un manuale con informazioni ed esempi esaustivi per tutte le possibili casistiche. Il service di Wago mi ha mandato i riferimenti di alcune application notes datate e assolutamente non sufficienti ad avviare un progetto KNX in totale autonomia. Vicino alla disperazione sono stato indirizzato ad un sistem integrator che, commosso dalle mie difficoltà, mi ha dato alcune dritte telefoniche che mi hanno finalmente permesso di uscire parzialmente dal pantano, almeno fino al punto di poter tenere la testa fuori dall’acqua.  Non voglio qui entrare nel dettaglio dell’applicazione che comunque mi è solo parzialmente chiara. Posso solo anticipare che l’applicazione prevede la definizione della rete lato PLC, l’esportazione dal PLC di un file XML che viene passato al software ufficale ETS5 della Konnex con il quale si fa la configurazione della rete KNX fisica. 

Nel caso DALI, il software WagoDaliConfigurator genera dei pacchetti di configurazione che transitano attraverso la CPU del PLC, arrivano al modulo Wago Dali Master (nel mio caso il 753-0647) e da li vengono inoltrati tramite bus DALI ai vari Driver Dali disseminati lungo la rete. In questo modo la configurazione della rete viene fatta tutta utilizzando il cavo Ethernet connesso alla CPU, lo stesso cavo utilizzato per la programmazione ed il debug del programma PLC.

 

 

In questo modo non è necessario utilizzare hardware ad hoc per la configurazione della rete DALI. Si può utilizzare lo stesso PC utilizzato per la programmazione del PLC, lo stesso cavo ethernet per connettere il PC al PLC e il flusso di configurazione passa quindi dal Wago Dali Configurator ai devices DALI passando attraverso il PC, la CPU del PLC ed il modulo DALI controller 753-0647. 

Anche se le attività di programmazione del PLC e di configurazione del DALI possono passare attraverso lo stesso canale ethernet, occorre evitare assolutamente la sovrapposizione delle due attività. Quando il sw Wago Dali Configurator è online sul bus DALI non è possibile contemporaneamente andare online sulla CPU. Se si dimentica questo limite ci si ritrova inspiegabilmente a non riuscire ad andare online sul PLC. RIcordare quindi:

  • quando si va online sul PLC non si può andare online sul bus DALI
  • quando si va online sul bus DALI non si può andare online sul PLC

Nel caso KNX invece la cosa è più complessa. Come dicevo prima, la configurazione viene fatta nel sw PLC, da qui si esporta un file XML che viene passato al software KNX ETS5 sul quale viene fatta la configurazione della rete fisica DALI. Ma il sw ETS5 non può collegarsi alla rete KNX tramite la CPU Wago e il modulo KNX/EIB/TP1 Interface 753-0646. Occorre invece un gateway, tipicamente una chiavetta USB da inserire nel PC dove viene eseguito l’ETS5, che dall’altro lato si collega alla rete KNX e che permette quindi la configurazione fisica dei singoli punti KNX. Occorre quindi una interfaccia ad hoc, che viene utilizzata solo per la configurazione.

 

Il PC utilizzato per la configurazione della rete fisica KNX può essere lo stesso usato per configurare il PLC o uno diverso. Deve però essere chiaro che, diversamente da quanto avviene nel caso DALI, il flusso di configurazione non può passare attraverso la CPU del PLC e il modulo 753-0646 per arrivare ai devices KNX. Il flusso di configurazione deve raggiungere i devices KNX attraverso il bus KNX, passando per un gateway apposito, sia esso USB o ethernet. 

Se troverò il tempo cercherò di scrivere un piccolo tutorial dedicato a questa operazione non proprio banale.

Una volta capito come fare, ed eseguite queste operazioni, sono riuscito a mettere in piedi tutta la rete DALI + KNX. Quando l’utente preme un pulsante KNX il PLC riceve l’informazione e accente o spegne o regola uno o più punti luminosi DALI relativi a quel pulsante.

Tutto a posto? Neanche per idea. Dopo qualche giorno di funzionamento regolare il cliente mi chiama inferocito per dirmi che il sistema si è bloccato e che non funziona più niente. Si è proprio bloccato tutto, il PLC non reagisce più, come se fosse morto. Mi reco sul posto, spengo e riaccendo il PLC. Niente, non va in RUN. Ha il led di RUN che lampeggia, rosso. Guardo sul manuale e mi dice che l’errore segnalato corrisponde alla situazione di “programma assente”. Provo a ricaricare il programma, ma non c’è verso, il PLC non accetta il programma. Eseguo il PING all’indirizzo IP della CPU e questa risponde. Ma di andare online e scaricare il programma non se ne parla. Il panico inizia a serpeggiare, ed il cliente è sempre più nervoso. Mi gioco la carta del reset di fabbrica. Il PLC torna come nuovo, e posso ricaricare tutto, il sistema riparte. C’è da dire per altro che con il Wago non c’è verso di caricare tutta la configurazione dal progetto. Alcune caratteristiche del PLC vanno necessariamente configurate tramite l’interfaccia web WBM (Web Based Management). Comunque me ne vado risollevato ma perplesso. Come mai è successa questa cosa?

Ovvio che, a distanza di qualche giorno e ad intervalli assolutamente irregolari l’evento si ripete. Con l’aggravante che, siccome il PLC gestisce anche le pompe di rilancio in fogna delle acque di cucina, quando il PLC si blocca le acque tracimano e finiscono sul pavimento. E vi garantisco che le acque di cucina di un ristorante sono davvero fetide. Immaginate cosa succede quando odori fetidi invadono la cucina e le sale di un ristorante di lusso. Il cliente è furioso. E Wago, interpellata, avanza le ipotesi più improbabili: forse la memoria non è sufficiente, forse la CPU non è abbastanza potente…. Controlliamo l’occupazione di memoria della CPU e i tempi di esecuzione del programma, e onestamente non sembra che siamo vicini al limite. 

Ma tant’è, all’ennesimo blocco della CPU cerchiamo di capire quando è iniziato il dramma, e puntiamo il dito sul momento in cui abbiamo attivato la rete KNX. Decidiamo quindi di disattivare tutti i blocchi sw relativi al KNX, ed il problema scompare. Chiaro quindi che abbiamo qualche problema con il konnex. 

Wago, interpellata, è sempre più perplessa. Ci consigliano di passare alla CPU di taglia superiore, una PCF200 8212. Ce la consegnano in tempi rapidi, vado a sostituire la CPU e poi riattivo il KNX. Tutto sta in piedi regolarmente. Bene, finalmente. 

Proviamo a spegnere e riaccendere, per vedere se il software riparte regolarmente: morto. Ma come “morto”? Che significa? C’è il solito LED rosso lampeggiante di RUN. Come dire “non ho più il programma da eseguire”. Ricarico il programma e il sistema riparte. Ripetiamo l’operazione più volte, ed il risultato è sempre lo stesso:  dopo uno spegnimento e successiva riaccensione del PLC il programma sparisce e va ricaricato. Come dire che se va via la luce il PLC non riparte. Grandioso! Mettiamo un UPS, tanto per proteggerci da piccoli black-out inferiori ai 20′, che Dio ce la mandi buona!

I tecnici di Wago ci dicono comunque che il nostro software è scritto male (grazie!), che usiamo troppe variabili ritentive e che abbiamo tutto il sw in un unico task, mentre lo dovremmo segmentare in diversi task con tempi di esecuzione differenziata. Il vero problema è che:

  • non c’è modo di sapere con certezza quanta memoria ritentiva stiamo utilizzando. Ci dicono, genericamente “ne utilizzate troppa”. Si, ma troppa quanto? L’unico riferimento è il data-sheet dell’8212 che dice che l’8212 ha 128kB di memoria ritentiva di cui 104kB utilizzabili per le variabili ritentive. E va bene. Ma come faccio a sapere quanta ne sto utilizzando? Non si sa. 
  • non c’è modo di sapere in base a quale criterio dovrei segmentare il programma in task a cadenza temporale differenziata. Dove lo trovo il criterio?

Decidiamo di soprassedere, anche perché il cliente è già furioso e non vede di buon occhio i nostri interventi, in quanto ogni volta che si ricarica il programma nella sua completezza il sistema si blocca per il tempo necessario al download completo con conseguente arresto delle utenze e indesiderati spegnimenti delle luci.

Passano le settimane e il sistema sta in piedi senza problemi. Alleluya! Si, d’accordo, non possiamo spegnere il PLC, ma speriamo nell’UPS. 

Finchè un giorno, dopo 6 settimane, il sistema si blocca di nuovo. Bestemmie. Grazie al cielo adesso abbiamo una VPN e possiamo collegarci da remoto. Il PLC sembra online, il server WEB funziona, e riesco a collegarmi. Quindi non è morto come in precedenza… Si, certo, il server WEB funziona, ma tutta la logica sottostante è morta. Non aggiorna neanche l’orologio sulla pagina web. Beh, provo a mettere il PLC in stop e poi di nuovo in run. Niente, non riparte. Nella diagnostica trovo un messaggio illuminante che dice che “un processo ha generato un’eccezione”. Quale processo? Che eccezione? Mistero. E io dove vado a cercare?

Insomma, ricarico il programma da zero, e il sistema riparte. Si, certo, ma viviamo con il fiato sospeso. E infatti dopo qualche giorno il sistema si blocca di nuovo. E poi di nuovo. 

Quelli di Wago ci dicono “colpa vostra che non avete ancora ridotto le variabili ritentive e segmentato il programma”. Si, certo, colpa nostra, come no.

Per farla breve, installiamo una versione del programma rimaneggiata secondo le indicazioni di Wago. Variabili ritentive ridotte all’osso e programma segmentato. Prima indicazione: il programma riparte anche dopo lo spegnimento, alleluya. Per lo meno adesso non dobbiamo aver paura dei black-out. Si verificherà di nuovo il problema del blocco? E chi lo sa? Per adesso sono due giorni  che funziona. Incrociamo le dita.

Una cosa è certa: problemi simili con PLC di altre marche (Siemens, Rockwell, Schneider) non ne abbiamo MAI avuti. Mai. Un PLC per definizione non si dovrebbe mai bloccare. Può guastarsi, oppure può andare in errore. Ma in quei casi ci sono tutte le indicazioni sul perché il PLC è andato in errore. E non può certo andare in una situazione che non si possa risolvere con un classico ciclo di power-off.  E non può certo “perdere il programma” quando si spegne. 

Insomma, non posso certo dire di essere soddisfatto. 

Per ora il sistema sta in piedi, ma fino a quando? L’esperienza precedente ci dice che neanche due mesi di funzionamento ci garantiscono di aver risolto il problema.

Intelligenza artificiale

Se ne parla sempre, ovunque. E comunque non abbastanza, non nelle sedi giuste. E la gente ha le idee confuse. 

Oggi ormai anche il frullatore è interconnesso e gestito (dicono) dall’intelligenza artificiale, spesso abbreviata in IA, all’italiana, o in AI, all’inglese.

E se ne parla spesso a sproposito. 

In queste brevi note vorrei tentare di spiegare cos’è la IA e cosa non è.

(Quando ho iniziato a scrivere l’intenzione era di buttar giù poche idee sintetiche. Ma poi l’entusiamo mi ha preso la mano….)

Nel caso tragico dei recenti incidenti aerei che hanno visto coinvolti due aeromobili 737Max si è parlato di automatismi fuori controllo, di software troppo complessi, di sistemi che richiedono conoscenze informatiche di alto livello per essere pilotati. Si è scomodato persino il pres.Trump affermando che “Gli aerei di oggi sono troppo complessi. Non voglio che a guidarli sia Einstein“, perdendo ancora un’ottima occasione per stare zitto. 

Gli automatismi degli aerei non sono troppo complessi. Non si tratta di un unico software che governa tutto l’aereo, ma di tanti moduli separati, spesso fisicamente confinati in computer separati, ognuno per un compito specifico. 

E ognuno di questi computer facilita il lavoro del pilota, tanto che il numero dei membri di equipaggio in cabina è passato da quattro a due. Nei tempi andati, quando si doveva fare tutto a mano, oltre ai due piloti erano presenti in cabina, soprattutto sui grandi aerei nei voli transoceanici, l’ingegnere di volo ed il navigatore. I loro compiti sono stati adesso sostituiti da sistemi elettronici che gestiscono autonomamente i motori, il condizionamento, la navigazione. 

Questi sistemi automatici hanno una caratteristica precisa, non sono “intelligenti”, nel senso che svolgono un lavoro preciso in un modo prevedibile, matematico, logico. Si pensi ad esempio al sistema FADEC di controllo dei motori:

electronic engine control aircraft Best of Schematic of a jet engine Fadec control system

 

Il sistema si limita a ricevere dal pilota la richiesta di potenza dalla manetta. E pensa a tutto il resto, regolando i vari attuatori per ottenere la potenza richiesta. Ogni attuatore viene regolato in base ad una legge matematica, il comportamento del sistema è, in qualche modo, meccanico e totalmente prevedibile. L’intelligenza, in tutto questo, è rischiesta solo in fase di progettazione. Ma il sistema di controllo non è intelligente.

Forse dovremmo fermarci un attimo a tentar di definire cosa intendiamo per intelligenza.  Pensiamo al nostro cervello umano, simile a quello di tanti mammiferi. Nasciamo sostanzialmente incapaci di eseguire qualsiasi compito che non sia quello di succhiare il latte dalla mammella o dal biberon. Tutto il resto lo impariamo, seguendo l’esempio dei nostri genitori, accumulando informazioni. L’intelligenza consiste nel saper risolvere problemi in base all’esperienza accumulata. 

I sistemi di controllo automatico non fanno niente del genere, non accumulano informazioni. Si limitano ad applicare equazioni matematiche stabilite dal progettista. Per ottenere una certa potenza richiesta leggono i sensori di temperatura, pressione, velocità, applicano certe equazioni, regolano l’apertura e la chiusura di certe valvole. Punto. E, soprattutto, quando escono dalle linee di produzione hanno già nel loro software tutte le informazioni che servono, ossia tutta l’intelligenza del loro progettista. E, soprattutto, non fanno niente che il progettista non sappia fare. Magari lo fanno molto più velocemente, questo si. Un po’ come una calcolatrice, che sa fare gli stessi calcoli che sanno fare i progettisti. Solo che li fa molto più velocemente. 

Un passo avanti rispetto ai meccanismi “stupidi” di regolazione sono i sistemi ad autoapprendimento. Si pensi ad un regolatore di temperatura, il termostato di casa nostra. Il suo algoritmo è elementare: quando la temperatura è inferiore a quella desiderata, un relè accende la caldaia. Quando la temperatura sale e supera quella desiderata, los tesso relé spegne la caldaia. Questo è un meccanismo un po’ rudimentale, che crea un andamento ondulatorio della temperatura, un po’ sopra e un po’ sotto rispetto alla temperatura desiderata. A questo si aggiunga che quando il termostato spegne la caldaia, i termosifoni restano caldi per un po’, e continuano a scaldare l’ambiente ancora per un po’. Analogamente, quando il relè accende la caldaia, i termosifoni ci mettono un po’ di tempo prima di andare in temperatura. E quindi il riscaldamento interviene in ritardo, rispetto al necessario. Una “imperfezione” simile nelle nostre case non crea alcun danno, non importa a nessuno se la temperatura oscila di mezzo grado o di un grado. Ma nei processi industriali un simile errore è spesso inammissibile, servono regolatori molto più precisi. E’ possibile allora sfruttare le funzioni di “autoapprendimento”. Per fare questo si lancia il processo di autoapprendimento. Il regolatore effettua dei cicli di prova e memorizza la risposta del sistema. Potrà in questo modo calcolare l’inerzia termica, e aprire e chiudere in anticipo le valvole dell’acqua calda o fredda in modo da minimizzare le oscillazioni di temperatura in un range molto ristretto.  Possiamo parlare in questo caso di “intelligenza”? No, anche se i depliant pubblicitari li descrivono come “controllori intelligenti”. Anche in questo caso l’intelligenza è quella del progettista, che programma una sequenza di autoapprendimento molto rigida e molto prevedibile. Il regolatore esce di fabbrica già pronto ad effettuare il suo ciclo di autoapprendimento per calcolare i parametri di risposta del sistema. 

I sistemi di controllo che abbiamo visto fino ad ora, semplici o complessi che siano, seguono in ogni caso una logica del tipo IF-THEN-ELSE (in italiano SE-ALLORA-ALTRIMENTI). Vediamo il caso del termoregolatore semplice, la logica sarebbe questa:
IF (“temperatura attuale” minore di “temperatura desiderata”) THEN
        accendi la caldaia
ELSE
       spegni la caldaia

Anche il regolatore più furbo ragiona nello stesso modo, solo che impara a giocare d’anticipo.

Passiamo ora a sistemi che siano davvero intelligenti. Proviamo a definire cosa significa “davvero intelligenti”. Devono saper fare qualcosa che il progettista non sa fare, in un modo che il progettista non sa prevedere. Il primo esempio che mi viene in mente è AlphaGo, il software sviluppato da Google per giocare al gioco del Go, con la speranza di vincere i migliori campioni di questo gioco. Speranza rivelatasi fondata in quanto AlphaGo ha vinto per 5 a 0, nel 2015, contro il campione europeo Fan Hui e poi per 4 a 1, nel marzo 2016 contro il campione coreano Lee Sedol

Cosa rende speciale AlphaGo rispetto ai sistemi che abbiamo visto in precedenza? Il fatto che AlphaGo ha imparato letteralmente a giocare studiando migliaia di partite di Go giocate in precedenza dai grandi campioni. Nel software di AlphaGo non sono state inserite le regole del Go, non è stato creato un algoritmo del tipo IF-THEN-ELSE, non è stata inserita nessuna regola del tipo “se il tuo avversario gioca questa mossa, tu rispondi con quest’altra”. Tutto si è svolto “semplicemente” sottoponendo ad AlphaGo migliaia e migliaia di partite. Studiando le partite AlphaGo ha imparato a giocare, e a vincere. La cosa particolare, rispetto al passato, è che i progettisti di AlphaGo non sono in grado di prevedere quale sarà la prossima mossa giocata dal computer, perché non sono stati loro a progammare gli algoritmi. Loro si sono limitati a programmare un sistema in grado di imparare. Il resto l’ha fatto AlphaGo, da solo. E’ chiaro che AlphaGo è stato pensato, ottimizzato e addestrato proprio per quel tipo di compito. 

Messa in maniera molto rudimentale, una IA altro non è che un tentativo di replica della nostra struttura cerebrale, in cui reti neurali elettroniche cercano di simulare, in modo per ora piuttosto rozzo, le nostre sinapsi. 

Le reti neurali nascono vergini e vengono addestrate, con un meccanismo che si chiama Machine Learning e  Deep Learning. L’addestramento consiste nel mostrare alla IA le situazioni che deve imparare a riconoscere e gestire. Un esempio classico è quello dei riconoscimento di immagini. Alla IA vengono mostrate quantità immense di foto contententi ciò che la IA deve imparare a riconoscere. Nelle reti neurali si formano delle connessioni tanto che alla fine la IA è in grado di di riconoscere anche immagini che non ha mai visto, per analogia a quelle già viste. Se ad esempio addestriamo una IA mostrandogli migliaia di foto di cani di ogni tipo, questa sarà in grado di riconoscere un cane specifico anche se non è mai apparso in nessuna delle foto viste, per analogia. 

Il riconoscimento di immagini è una delle componenti fondamentali delle autovetture a guida autonoma. Un primo modulo software usa le telecamere dell’auto per riconoscere tutti gli oggetti che la circondano: auto, camion, ciclisti, pedoni, segnali stradali, marciapiedi, ostacoli.  In questo video si può vedere una Tesla che guida in modo autonomo. Nelle tre immagini sulla destra si vede l’immagine catturata dalle tre telecamere e l’elaborazione della AI che si occupa del riconoscimento automatico degli oggetti che potrebbero interferire con la guida. 
Un altro modulo software esamina gli oggetti riconosciuti dal primo modulo ed elabora le strategie necessarie per la guida. Entrambi i moduli sono applicazioni di AI, il primo orientato al riconoscimento di immagini, il secondo alla elaborazione delle strategie di guida. Il primo viene addestrato con migliaia di immagini. Il secondo viene invece addestrato facendo inizialmente da “passeggero” mentre guidano autisti umani. La IA “guarda” il comportamento dell’autista e impara. 

Un altro esempio di applicazione della IA è la gestione automatica delle attività ripetitive. La società LoopAI, americana ma fondata da un italiano, crea sistemi in grado di gestire dati strutturati (schedari, database) e non strutturati (foto, audio, moduli scritti a mano) e crea macchine in grado di sostituire l’uomo per fare quei compiti d’ufficio ripetitivi, quali ad esempio il processo per la liquidazione delle pratiche assicurative. La macchina studia tutte le pratiche passate, in cui impiegati analizzano documenti di ogni tipo per capire se una certa pratica assicurativa va liquidata o è una truffa. Dopo un certo tempo di addestramento (settimane) la macchina è in grado di liquidare in pochi minuti (18 minuti) il lavoro che viene normalmente fatto da esseri umani in due anni di lavoro. Questo video spiega molto bene il processo e le sue prospettive.

Un campo in cui la IA sta trovando grandi applicazioni è quello del supporto decisionale ai medici. Il sistema IBM Watson, in passato (2011) usato per giocare e vincere al gioco televisivo Jepoardy! (dal quale è stato tratto l’italiano Rischiatutto). Watson è un computer in grado di capire e rispondere usando il linguaggio naturale, al punto di capire le domande molto criptiche che vengono usate nel gioco Jeopardy!. Oggi Watson viene usato per compiti molto più seri che si spingono fino alla assistenza ai processi diagnostici dei medici. 

Uno dei campi in cui la IA è più utilizzata è il supporto all’analisi della diagnostica per immagini. Ancora una volta alla IA è stato dato in pasto un gran numero di immagini diagnostiche (ecografie, radiografie, TAC, RM) con le relative diagnosi espresse dai medici. Alla fine dell’addestramento la IA è stata in grado di continuare in autonomia, emettendo diagnosi a fronte di una serie di immagini del paziente. 

Tuttti questi sistemi non vanno (per il momento) a sostituire il medico. Sono invece intesi come un ausilio, un aiuto, un supporto. Sarà sempre (per il momento) il medico a confermare o correggere la diagnosi della IA.  Sistemi di questo tipo si stanno sperimentando ovunque nel mondo, anche a casa nostra, all’ospedale di Vimercate.

Il vero punto di svolta dei sistemi AI è che sono automatismi che iniziano in qualche modo ad agire fuori dal nostro strettissimo controllo. Come dicevo prima, i sistemi di automazione classici sono totalmente conosciuti e prevedibili. Conoscendo i dati di ingresso se ne conoscono le azioni di uscita, matematicamente. Quando un sistema di automazione non fa quel che ci si aspetta questo dipende esclusivamente da un errore di progettazione o da un guasto.

I sistemi IA invece si comportano grosso modo come un animale addestrato. Se anche l’addestramento è perfetto, se anche l’animale reagisce come ci aspettiamo, noi non sappiamo davvero cosa succede nella sua testa, non sappiamo esattamente quali sinapsi si attivano, quali circuiti intervengono. Conosciamo, grosso modo, il sistema nel suo complesso. Ma non sappiamo in che modo le informazioni di addestramento sono state metabolizzate. Come dire che non abbiamo la certezza matematica che ad un certo input corrisponda un certo output. 

Questa non è una cosa che ci deve spaventare, così come non ci spaventano il nostro cane o il nostro cavallo. Se li abbiamo addestrati bene abbiamo la ragionevole certezza di saper prevedere quali saranno le sue reazioni. Nel caso di una IA questa certezza è maggiore, perché non ci sono reazioni istintive che possano interferire. Un cane, un cavallo, possono spaventarsi, eccitarsi, adirarsi. E queste reazioni possono interferire con il comportamento atteso. Nel caso della IA queste reazioni semplicemente non esistono. 
Il vero problema è che l’addestramento potrebbe non essere sufficiente, e la IA potrebbe trovarsi in una situazione in qualche modo nuova, che potrebbe gestire in modo errato. Qualcuno forse ricorda l’incidente occorso ad una Tesla in cui il pilota automatico, gestito da una IA, confuse il colore chiaro di un rimorchio con il cielo, e andò a sbattere uccidendo il proprietario. 
C’è da dire che il proprietario aveva inserito la guida automatica e non aveva fatto il suo dovere di supervisione. Viene infatti chiaramente detto che le capacità di guida autonoma di una Tesla devono servire da supporto al guidatore, che deve comunque sempre restare vigile, pronto ad intervenire nel caso in cui l’autopilot dovesse prendere lucciole per lanterne. E’ la stessa cosa che fanno i piloti d’aereo, che attivano il pilota automatico ma non perdono mai di vista gli strumenti e controllano sempre che l’autopilota faccia il suo dovere. 

Questo è qualcosa che dovremmo sempre ricordare, prima di affidare le nostre vite ad una IA. La supervisione umana è insostituibile, proprio perché la IA non è un automatismo totalmente prevedibile. Potrebbe sempre sbagliare. Paradossalmente è proprio il tentativo di riprodurre nella IA alcuni meccanismi del ragionamento dei cervelli animali che rende il loro comportamento in parte imprevedibile. 
E’ per questo che si continua a sottolineare il fatto che i sistemi IA devono servire da supporto alle decisioni umane e non devono in alcun modo sostituirsi agli esseri umani. Una IA potrà essere diabolicamente abile a diagnosticare malattie partendo da sintomi, anamnesi e risultanze di laboratorio. Ma sarà sempre il medico a supervisionare il lavoro della IA e a esprimere il giudizio finale. Così, per lo meno, dovrebbe essere. 
Il rischio è ovvio, l’uomo potrebbe pigramente abituarsi a prendere per buone le decisioni delle IA. 

I rischi e le paure.

Siamo appena all’inizio di questa era, molto ma molto lontani da quella che viene definita AGI (Artificial General Intelligence), in italiano Intelligenza Artificiale Forte, ossia una IA che possa emulare il cervello umano occupandosi di qualsiasi compito con la stessa efficacia con cui oggi le IA “deboli” si occupano solo di compiti specifici. 

Questa prospettiva spaventa molti, perché ricorda da vicino il mito di Frankenstein, che si ribella al suo creatore. Forse, ancora prima, il mito di Prometeo che si ribella a Giove. La letteratura ed il cinema, soprattutto quelli di fantascienza, sono pieni di storie (vedi 2001 odissea nello spazio) in cui le IA, in varie forme, si ribellano ai loro creatori e fanno di tutto per distruggerli. 

Siamo ancora molto lontani da una vera AGI, posto che ci arriveremo mai.  Molto interessante a questo proposito è il libro Superintelligence di Nick Bostrom che riflette molto sulle possibilità e le possibili conseguenze dell’avvento di una AGI. Se ben ricordo lui dice “probabilmente non succederà, ma se dovesse succedere che una IA raggiunga il livello di AGI, correremmo il rischio non accorgercene fino a quando non sarà troppo tardi”. 

A mio parere, il vero rischio dell’avvento delle IA, anche di quelle “mediocri” dei nostri giorni, è che vadano pian piano ad occupare molti dei nostri posti di lavoro.  Gli ottimisti dicono che è sempre stato così, che l’uomo ha sempre avuto paura delle novità tecnologiche, fin dal tempo dei luddisti che nel XIX secolo sabotavano i primi telai meccanici. Ed è sempre successo che le novità tecnologiche (il vapore, l’elettricità, il motore a scoppio) finivano per dare un notevole impulso all’economia aumentando a dismisura i posti di lavoro. Dicono, gli ottimisti, che sarà lo stesso per l’automazione e per l’applicazione delle IA. 

I pessimisti, invece, pensano che l’automazione, soprattutto con l’avvento delle IA, potrà sostiture l’uomo in tutte le posizioni lavorative intermedie, lasciando liberi solo i lavori meno qualificati (pulizie, manovalanza) e quelli più qualificati (management, ricerca scientifica). E’ facile vedere come, in effetti, le fabbriche oggi siano sempre più diventando “black factories” ossia “fabbriche a luci spente” in cui macchinari completamente automatici provvederanno alla produzione dei nostri beni di consumo e in cui la presenza degli umani sarà marginale. 
Nel settore impiegatizio succederà lo stesso, mille forme di IA provvederanno a sostituire man mano l’uomo nelle operazioni d’ufficio più ripetitive. Pochi esseri umani basteranno a sovraintendere e controllare il lavoro di pochi potenti computer in cui una IA farà in pochi minuti il lavoro che prima richiedeva migliaia di ore umane.  

Non so dire se abbiano ragione gli ottimisti o i pessimisti. So solo che un tema del genere dovrebbe essere al centro delle discussioni politiche attuali. Invece pare sia ancora ai margini, relegato in congressi specialistici. 

 

Il punto sull’auto elettrica

Ormai le auto elettriche girano per le nostre città. Non sono più una mera ipotesi.

Eppure c’è ancora chi titola “Tanti, immensi, forse irrisolvibili problemi della auto elettriche: ecco perché anche solo parlarne è una immensa cazzata” e chi nei commenti aggiunge: “Quasi convengono gli idrocarburi….. Non quasi: convengono alla grande rispetto all’auto elettrica!“.

Io mi interesso da tempo all’auto elettrica. Circa 10 anni fa, nel 2007, avevo dedicato alcune pagine del mio sito all’auto elettrica. Mi prefiggevo di seguire il fenomeno, creando un blog. Poi la cosa è rimasta lettera morta. Ma in questa pagina ho tentato qualche analisi numerica che riprenderò qui. Non sono un professionista del campo, quindi quel che andrò a scrivere non è oro colato. Anzi, attendo con ansia sincera che qualcuno mi dica dove sbaglio.

Ma qualche idea me la sono fatta. Nel seguito proverò a fare il confronto fra auto elettrica e auto “termica”, ossia auto a benzina o diesel.

Diciamo prima di tutto che l’auto elettrica INQUINA. Chi dice che non inquina vi prende in giro. L’auto elettrica utilizza (appunto) energia elettrica. E questa si fa per lo più con il petrolio. Quindi è facile capire che l’auto elettrica in realtà va a petrolio. E allora, dov’è il vantaggio?

Prima di passare ai conti, vediamo i vantaggi che tutti possono capire.

Primo elemento: ottimizzazione

L’energia per alimentare le auto elettriche si fa in una centrale elettrica. Le centrali elettriche sono, o dovrebbero essere, ottimizzate. Il che significa che spremono fuori da ogni goccia di petrolio quanta più energia elettrica possibile. Inquinando (così ci dicono) il meno possibile. In più una centrale elettrica è regolamente controllata e manutenuta. Se è vero quel che dicono i sostenitori del termoelettrico (solitamente contrari al solare), le centrali termoelettriche inquinano poco e ottengono il miglior rapporto fra energia generata e combustibile consumato. Prendiamolo per buono.

Per contro le auto termiche (motore a scoppio) sono ottimizzate solo quando sono molto recenti e ben tenute. Basta poco perché un’auto termica peggiori il suo rendimento. Un filtro intasato, un motore non a punto. O un motore vecchio. Tutti elementi che peggiorano notevolmente i rapporto fra km e consumo. Meno km/litro. Più inquinamento.

Secondo elemento: dove si inquina.

L’auto elettrica inquina, lo sappiamo. Ma inquina dov’è la centrale. Ossia solitamente in zone meno densamente abitate. Raramente le centrali vengono posizionate al centro di zone densamente abitate. Quindi, l’energia elettrica per le auto elettriche viene prodotta (e inquina) in zone dove le persone danneggiate dai fumi sono di meno. Una centrale elettrica scarica il suo inquinamento dove c’è poca gente.

Le auto termiche, invece, il danno maggiore lo fanno dove il traffico scorre lento, tipicamente nei centri delle grandi città, densamente abitate. Il che significa che un’auto termica scarica il suo inquinamento direttamente nei polmoni di milioni di persone.

Mi si dice “la pianura padana è una conca, e hai voglia a spostare le centrali, l’inquinamento riguarda tutti”. Si, vero. Ma a parte il fatto che la Pianura Padana è un caso particolare, resta comunque il fatto che se la centrale elettrica fosse in piazza duomo a Milano sarebbe molto peggio. E’ comunque meglio metterla molto fuori, in una zona a bassa densità abitativa.

Terzo elemento: semplicità

I tecnici lo capiscono: un motore elettrico è infinitamente più semplice rispetto ad un motore termico. Non ha carburatore (o equivalente), frizione, cambio, messa in moto. Sono migliaia di pezzi, viti, guarnizioni, tubicini, galleggianti, ingranaggi. E, si sa, quel che non c’è non si rompe. In un’auto elettrica la manutenzione sarà incredibilmente più semplice. Niente olio da cambiare, niente filtri. Niente candele. Niente acqua nel radiatore. Niente frizione da rifare, o catena della testa. Il motore elettrico è quasi eterno. Mal che vada si porta a fare riavvolgere. Semplicità significa meno costi di produzione e di manutenzione. Qualcuno mi dice “si, bravo, porta una Tesla a riparare e poi mi dici”. Non ci provate. E’ un argomento farlocco e potrei rispondervi male, perché oggi la Tesla è un prodotto di nicchia, una supercar. Occorre proiettarsi nel futuro, pensare a parità di numeri. Immaginare di paragonare, che so, una golf con motore a scoppio, prodotta in milioni di esemplcari, con una golf con motore elettrico, prodotta anche lei in milioni di esemplari. A regime, quindi. A parità di numeri prodotti.

I tre elementi citati sono interessanti. Ma non determinanti. Se l’auto termica consumasse molto meno petrolio di quanto ne consuma un’auto elettrica, allora il vantaggio sarebbe davvero misero o nullo. O negativo.

Bisogna allora tirare in ballo i numeri, che sono sempre quelli che ci aiutano a capire.

Alcuni dei numeri che andrò ad elencare sono incontrovertibili, facilmente verificabili da chiunque. Altri derivano invece da considerazioni spannometriche, non avendo io trovato fonti sicure. O non avendole trovate del tutto.

Per andare dal petrolio al movimento (km percorsi) occorre superare molti nodi, ognuno dei quali porta via energia. Sia che si tratti di auto termiche che di auto elettriche.

Perdite auto termica

Diciamo che partiamo dal petrolio. Vediamo quali sono i costi per fare andare un’auto termica.

Trasporto: ammettiamo che i costi energetici di raffinazione siano uguali. In realtà in termini di raffinazione la benzina, e anche il gasolio, costano di più rispetto all’olio che si usa in una centrale elettrica. Ma trascuriamo questa differenza (anche perchè non la so quantificare) e parliamo del trasporto. Anche questo è difficile da quantificare, ma comunque il carburante va trasportato dalla raffineria al distributore. E stavolta non è un costo marginale. Difficile quantificare quanto possa incidere, in termini energetici. Diciamo un 2%? Non ce lo dimentichiamo.

Rendimento del motore: un motore a scoppio è un motore terribilmente inefficiente. Circa il 70% dell’energia viene buttata via in calore, dal tubo di scappamento e dal radiatore! Infatti, ad andar bene, a regime ottimale, un motore ha un rendimento del 30%. A regime ottimale. Ma i motori termici non vanno quasi mai a regime ottimale. A volte stiamo fermi in coda, a volte viaggiamo a 130kmh. Non di più, vero??? Quindi il motore varia il suo regime dal minimo al massimo, variando contemporaneamente la resa. Quando non va al regime ottimale, consuma di più. In oltre il motore termico ha bisogno di cambio e frizione, elementi che assorbono energia.  A spanne, direi che non superiamo il 25% di resa. Ossia buttiamo via il 75% della benzina che comperiamo. Aggiungiamo il fatto che quando freniamo dissipiamo, nuovamente in calore, tutto “il movimento” (energia cinetica, inerzia) che abbiamo acquisito accelerando. E siccome, soprattutto in città e nel traffico, non facciamo altro che accelerare e frenare, aggiungiamo un altro elemento di consumo. Non potendolo quantificare, teniamolo in quel 75% di spreco.

Riassumendo, quando va bene, un’auto termica ha un rendimento del 25% (lasciamo stare il trasporto e la raffinazione).

Perdite auto elettrica

Anche per l’auto elettrica non sono rose e fiori. Anche qui ci sono vari nodi in cui l’energia si perde, si spreca. E non è facile rimediare.

Generazione: l’energia elettrica viene generata in centrale, bruciando petrolio.

Attenzione, qui si introduce una semplificazione a vantaggio dell’auto termica. Ossia si assume che l’energia elettrica venga sempre generata usando petrolio. In realtà uno dei grandi vantaggi dell’auto elettrica è che la si può alimentare con energia elettrica proveniente da molte altre fonti: gas naturale, nucleare, solare (elettrico o termico), eolico, idroelettrico. Tutte fonti meno inquinanti del petrolio. Ricordiamocelo.

Il processo di generazione dell’energia elettrica dal petrolio non è molto efficiente. Molta energia viene sprecata in calore, che viene disperso dal camino o nei corsi d’acqua che alimentano la centrale. Raramente viene recuperato in parte come termoriscaldamento. Diciamo che una centrale elettrica ottimale ha un rendimento del 60%. Ossia spreca il 40%.

Trasporto: non sembra, ma anche il trasporto dell’energia elettrica comporta delle perdite. Anche in questo caso l’energia si disperde in calore. I fili dell’alta tensione si scaldano, quando trasportano energia. Io non sono mai andato a toccare per verificare, ma le fonti dicono che le perdite di trasporto sono circa del 10%. Non poco. Certo, non è il 40% come dice qualcuno, ma ha il suo bel peso.

Perdite di carica: anche qui, caricare le batterie non è a costo zero. Non è che se buttiamo 100kWh di potenza nella batteria, poi ce la ritroviamo tutta disponibile. In realtà quando carichiamo le batterie queste si scaldano. Più velocemente le carichiamo, più queste si scaldano. E il calore è tutta energia sprecata. Mica lo recuperi per scaldare casa!. Quanta energia sprechiamo? Te l’ho detto, molto dipende dalla velocità di carica. Se hai tempo tutta la notte, poca. Se vuoi la ricarica rapida, come gli ultimi telefonini, un casino! Prendiamo quindi un valore plausibile, che è quello del 25%. Se va bene, carichiamo 100 e ce ne ritroviamo 75. Il resto è perso.

Perdite di conversione: qui la cosa si fa un tantinello tecnica. L’energia delle batterie non viene mandata direttamente al motore, altrimenti questo andrebbe sempre a manetta. CI vuole in mezzo un sistema di riduzione, un po’ come l’acceleratore nell’auto a benzina. Si chiama inverter, e non lavora gratis. Anche lui vuole la sua parte della torta, la sua tangente. Ma non è troppo avido, ormai gli inverter viaggiano sul 5-7% di perdita. Non poi cos’ male.

Rendimento del motore: brutto a dirsi, ma anche il motore elettrico vuole la sua parte, la sua tangente. Parte dell’energia che riceve la dissipa in calore, che si disperde nell’aria. Brutta storia. Al mondo non c’è nessuno che fa niente per niente. Però anche il motore non è poi così avido, è amico dell’inverter, e si accontenta di un 5, max 7%. Il resto lo dà tutto in movimento. Anche il motore, come gli inverter, risente molto dei progressi tecnologici. Si studiano motori sempre più efficienti, sempre più leggeri. Tanto che se ne stanno studiando addirittura versioni per aeroplani elettrici.

Abbiamo finito? no. Ci sono elementi che non so valutare:

  • Il costo energetico per costruire le batterie e per smaltirle. D’altra parte non so neanche valutare il costo energetico per costruire un complicatissimo motore a scoppio.
  • Il vantaggio del recupero energetico in frenata. L’auto elettrica, quando frena, ricarica le batterie. L’auto termica invece spreca l’energia cinetica e la trasforma in calore.

Ma, insomma, un’idea ce la siamo fatta. Adesso tiriamo le somme. Ricordandoci che i rendimenti ( o le perdite) non si sommano, si moltiplicano.

Per l’auto elettrica dobbiamo tener conto di più elementi:

Generazione 60% x trasporto 90% x carica 75% x inverter 93% x motore 93% = 0.6 x 0.9 x 0.75 x 0.93 x 0.93 = 0,35 ossia efficienza del 35%. Per l’auto termica avevamo un rendimento stimato del 25%.

Perbacco, non è che siano cifre da capogiro. Insomma, l’auto elettrica consuma meno petrolio dell’auto termica. Mica tanto di meno. Ma meno.

Mi preoccupa il fatto che ogni volta che rifaccio i conti mi vengono diversi, ma questo è normale, visto che vado a pescarmi i dati sul web, e non sempre dalle stesse fonti. E poi, nel caso dell’auto elettrica per prudenza mi son tenuto basso con i rendimenti (alto con le perdite). Si fa così quando si vogliono evitare casini.

Non si può dire che l’auto elettrica consumi la metà rispetto ad un’auto termica, in termini di litri di petrolio. Ma consuma sensibilmente di meno. Dati 100litri di petrolio, un’auto termica ne spreca 75, un’auto elettrica ne spreca “solo” 65. Come dire che un’auto termica consuma il 15% di più rispetto ad un’auto elettrica. Secondo me ho sbagliato qualcosa, pensavo che il divario fosse maggiore. Ma comunque va bene così.

Quindi? Tutti auto elettrica?

Neanche per sogno. Non siamo pronti per una migrazione di massa. Soprattutto non è pronta la rete di distribuzione. Se tutti stasera tornassimo a casa e attaccassimo l’auto elettrica alla spina, per ricaricarla, la rete di distribuzione andrebbe al collasso. E poi dovremmo tutti chiedere una taglia maggiore, soprattutto chi ha il contatore da 3kW. Non ce la si fa. Una Mecedes classe A elettrica con una batteria da 36kWh (autonomia 200km) avrebbe bisogno almeno di 36/3 = 12 ore di ricarica, senza ovviamente usare frigo, condizionatore e altre utenze elettriche. Improponibile.

E poi dove la ricarichi? Il numero di punti di ricarica pubblici è ancora irrisorio. Così come pochi sono quelli che possono effettuare la ricarica in garage o in giardino.

Insomma, non siamo pronti. L’auto elettrica, oggi, è riservata a chi ha impianti elettrici potenti a casa, e comunque la usa a breve raggio. O, altrimenti, sa di avere stazioni di ricarica lungo il percorso. Ed ha pazienza di aspettare il suo turno e i tempi di ricarica.

Ma, a breve tempo, la cosa potrebbe prender piede. Poco per volta, ovviamente. Anche Roma non è stata costruita in un giorno.

Nota polemica

Eh beh, un po’ di peperoncino ci vuole, giusto? Ho scritto questo post per due motivi. Il secondo è che non è facile trovare in giro una sintesi come quella che ho fatto. Se qualcuno la trova, me lo comunichi. Sarà senz’altro più precisa e affidabile della mia.

Ma il primo motivo è che ho letto il post citato all’inizio, quello che dice “auto elettriche: anche parlarne è un’immane cazzata”. A parte la contraddizione immediata (se è una cazzata, perché ne parli?), quel che mi ha spinto a dire la mia è il fatto che, numeri alla mano, sembra che la conclusione possa essere diametralmente opposta rispetto a quella sostenuta da chi ha scritto il post. Voglio dire, se fosse davver un’immane cazzata anche il solo parlarne, i numeri dovrebbero essere vertiginosamente di segno opposto. Non solo un po’ diversi. Ma la differenza dovrebbe essere “immane”. E così non mi pare che sia. E allora la mia polemica non è verso chi mette in dubbio l’utilità dell’auto elettrica, ma verso chi, verità rivelata daddio, propone il suo punto di vista come assoluto e incontrovertibile.  Io, figlio del relativismo e forse del pensiero debole (sapessi almeno cos’è), soffro di orticaria quando mi si presentano questi tizi che hanno le certezze assolute, rocciose, inossidabili. Un conto è quando uno mi dice “mah, guarda, a conti fatti a me pare che …..”. E’ giusto, è lecito, ci sta. Ma quando uno implicitamente dà del pirla a chi pensa, ad esempio, che l’auto elettrica possa essere un’idea valida in prospettiva, allora l’orticaria prude, e mi spinge a dire la mia. Pronto ad essere confutato.