Le armi chimiche: i veleni naturali

Sapete che cosa è la chimica delle sostanze naturali? Si tratta di una branca della chimica che studia le proprietà chimiche (per esempio, struttura e conformazione) e la reattività di metaboliti primari e secondari delle piante e degli animali. La Treccani ne dà una bella definizione:

“È quel settore delle scienze chimiche che ha per oggetto lo studio della struttura, delle proprietà chimiche, delle trasformazioni delle sostanze organiche presenti negli organismi viventi (animali, piante o microorganismi), nonché del loro ruolo biologico”.

Perché vi sto dando questa definizione? Semplicemente perché sto leggendo un bel libro dal titolo “Storia dei veleni. Da Socrate ai giorni nostri” (Figura 1) in cui si descrivono le potenzialità venefiche di tantissime sostanze di origine naturale.

Figura 1. Libro sui veleni che ho acquistato recentemente

Non credo sia una novità che l’uso dei veleni sia noto fin dall’antichità. Essi venivano utilizzati sia per la caccia che per la guerra. Per esempio, nella seconda metà del XIX secolo, Alfred Fontan descrisse degli interessantissimi ritrovamenti nella grotta inferiore di Massat, nell’Ariège (Figura 2), un sito risalente all’epoca magdaleniana.

Figura 2. Zona dell’Ariege dove si trovano le grotte di Massat (Di TUBS – Opera propria. Questa grafica vettoriale non W3C-specificata è stata creata con Adobe Illustrator. Questa immagine vettoriale include elementi che sono stati presi o adattati da questa:  France adm-2 location map.svg (di NordNordWest)., CC BY-SA 3.0 de, https://commons.wikimedia.org/w/index.php?curid=45555827)

In particolare, tra i tanti reperti, furono individuate delle punte di lancia e freccia con delle interessanti scalanature (Figura 3).

Figura 3. Punte di lancia e freccia del periodo Magdaleniano (Fonte)

Negli anni successivi gli studiosi hanno compreso che le scanalature sulle punte di freccia e lancia servivano per fare aderire i veleni in modo tale che le prede (o i nemici), una volta colpiti anche in modo non mortale, potessero morire per effetto del veleno introdotto attraverso le ferite. Ancora oggi le popolazioni primitive che vivono nelle zone meno esplorate del pianeta fanno uso,  per la caccia o per la guerra, di punte  simili a quelle ritrovate nelle grotte di Messat .

Siete curiosi di sapere come si fa a rendere “velenosa” una punta di freccia o di lancia?

I veleni, come leggerete nel paragrafo successivo, vengono per lo più estratti dalle piante.  Jean de Maleissye, nel libro che sto leggendo, ci spiega come facevano alcune popolazioni dello Zimbabwe a preparare le loro armi. Molto verosimilmente, la stessa tecnica era applicata dalle popolazioni primitive.

“Si faceva a pezzi la pianta, la si mescolava ad acqua e si faceva bollire il tutto per molto tempo. Poi si lasciava ridurre il liquido finché non si addensava, assumendo la consistenza della pece. Il veleno veniva fissato sull’estremità superiore dell’arma tramite una cordicella che gli indigeni arrotolavano attorno alla punta. Lo spazio libero fra ogni spira di corda tratteneva infatti il veleno, quando vi si immergeva la punta dell’arma. Si lasciava seccare il preparato velenoso, poi si toglieva il filo. Con tutta probabilità, la cordicella consentiva di trattenere il veleno su superfici minuscole. Tale artificio impediva infatti al veleno di staccarsi prematuramente in grandi placche”.

Come cacciavano le popolazioni della civiltà magdaleniana?

Non lo sappiamo, in realtà. Possiamo immaginare dalle ricostruzioni basate sugli utensili ritrovati in giro per l’Europa, che i magdaleniani “dopo aver colpito con una o più frecce avvelenate un grande cervo o una renna, [ne seguono] le tracce per ore o anche per giorni, fintanto che, stremato dal veleno, dalla perdita di sangue e dallo sforzo compiuto, il grande animale non crolla in un bosco ceduo” (Fonte). Una volta catturata la preda, i cacciatori rimuovono la parte avvelenata e fanno a pezzi tutto il resto della carcassa che viene usata per alimentarsi.

Origine dei veleni

In genere si tratta di sostanze che vengono estratte dalle piante. Una di queste è la Aconitum napellus o aconito,  una pianta che cresce in zone montuose e nota, per le sue proprietà tossiche, già a i tempi dei Galli e dei Germani (Figura 4).

Figura 4. Aconito, pianta molto comune ed estremamente tossica

Le sue parti, incluse le radici, contengono miscele complesse di alcaloidi quali: aconitina, napellina, pseudoaconitina, aconina, sparteina, efedrina (Figura 5).

Figura 5. Struttura chimica dei principali alcaloidi presenti nei tessuti di Aconitum napellus.

Tutte queste molecole hanno attività neuro- e cardio-tossica. La loro dose letale è dell’ordine di pochi milligrammi (1-4 mg) per chilogrammo di peso corporeo.  Immaginate, quindi, cosa può succedere se una freccia avvelenata con questa miscela di alcaloidi vi colpisse anche in un punto non vitale. Il veleno entrerebbe nel sangue e sareste soggetti a “rallentamento dei battiti cardiaci, diminuzione della pressione arteriosa e rallentamento del ritmo respiratorio” fino a  paralisi cardiaca e respiratoria (Fonte). Anche l’ingestione di questa miscela di alcaloidi porta alla stessa fine.

Ma volete sapere un’altra cosa? Avete presente la “potentissima” medicina tradizionale cinese?

Ebbene, nel 2018, è stato pubblicato un lavoro di revisione della letteratura scientifica in merito alla tossicità degli alcaloidi dell’aconito. Il lavoro è liberamente scaricabile qui. Nell’introduzione si evidenzia come gli estratti della radice di questa pianta siano usati nella medicina tradizionale cinese come rimedi per problemi cardiovascolari, artriti reumatoidi, bronchite, dolori generici e ipotiroidismo. Non sono un medico, però a me sembra quasi la panacea di ogni male (mi correggano i medici che leggono questo articolo se sbaglio, per favore). Nella stessa introduzione viene anche rilevato che le autorità sanitarie di molti paesi asiatici sono costrette a regolamentare l’uso di questo preparato a causa della sua elevata tossicità. Infatti, tra il 2001 e il 2010 sono stati osservati, per esempio, ben 5000 casi di tossicità da alcaloidi di aconito. Come mai tutte queste intossicazioni? Semplicemente perché, come evidenziato anche in un lavoro del 2019 pubblicato su Forensic Science, Medicine and Pathology, una rivista della Springer con impact factor nel 2019 di 1.611 (si può liberamente scaricare qui), gli estratti di aconito vengono usati senza prescrizione medica ed è facile usare la logica spicciola secondo cui se la quantità x mi permette di guarire, allora la quantità xn mi farà guarire più velocemente. 

Conclusioni

La natura ci è nemica? Neanche per sogno. Allora ci è amica? neanche per sogno parte seconda. Alla natura non importa nulla di noi. I veleni possono essere considerati  la risposta evolutiva delle prede ai predatori. Quando, in modo casuale ed imprevedibile, una modifica genetica consente la nascita di una pianta con un corredo metabolico appena un po’ diverso da quello delle sue “compagne”, è possibile che essa diventi indigesta, ovvero tossica, per i predatori. Questa nuova caratteristica favorisce la sopravvivenza della pianta modificata rispetto alle sue “sorelle” non modificate. Nel momento in cui tutte le piante non modificate si sono esaurite a causa della pressione alimentare dei predatori, rimangono in vita solo quelle modificate da cui i predatori si tengono lontani… a meno di non capire che esse possono essere sfruttate non a fini alimentari ma per la caccia e per la guerra.

Fonte dell’immagine di copertina

La chimica delle mascherine chirurgiche

Chi mi segue sicuramente sa che qualche tempo fa ho dedicato un articolo alle mascherine necessarie per proteggerci dalla diffusione  del Covid19.

Come funzionano le maschere filtranti

 

In esso ho solo accennato alla funzione delle mascherine chirurgiche. Ora voglio entrare nel dettaglio della loro chimica.

Alzi la mano chi di voi non ha mai sentito parlare del tessuto non tessuto detto anche TNT.

No…non è il trinitrotoluene, noto per la sua potenzialità esplosiva. Quindi, se tra i miei lettori c’è qualche appassionato di “fuochi artificiali” non cerchi di dar fuoco al TNT di cui parlo in questo articoletto perché non otterrà alcun botto particolare, ma solo una bella fiamma.

Torniamo a noi.

Se facciamo una banale ricerca in Wikipedia, si trova che il tessuto non tessuto è un materiale in cui non è possibile distinguere una trama ben precisa come nel caso dei normali tessuti che indossiamo. Insomma si tratta di un materiale che viene ottenuto mediante dei procedimenti industriali particolari che, per ora, non rappresentano oggetto di discussione.

Le sue peculiarità lo rendono molto versatile tanto è vero che viene utilizzato in diversi campi: da quello edilizio a quello tessile, fino ad arrivare al campo medico. Ebbene sì, anche in campo medico questo materiale viene utilizzato. Infatti, santo Google alla richiesta di informazioni sul tessuto non tessuto restituisce, tra i tanti siti web, un link a un’azienda che vende chilometri di tessuto non tessuto per la fabbricazione delle mascherine chirurgiche di cui oggi abbiamo estrema necessità a causa del virus SARS-CoV2.

Ma cosa è questo TNT? Appurato che la sigla non si riferisce al trinitrotoluene, noto esplosivo, di cosa si tratta?

Ebbene, non è altro che banalissima plastica. Il termine che ho appena usato non è molto corretto, se vogliamo essere puntigliosi. Infatti, “plastica” è un termine generico che si riferisce a una classe di composti molto differenti tra di loro sia per caratteristiche chimiche che caratteristiche fisiche.

La plastica con cui è fatto il TNT può essere o polipropilene o poliestere. In realtà, se vogliamo essere ancora puntigliosi, bisognerebbe parlare di poliesteri e non di poliestere. Infatti, anche questa è una classe di composti che differiscono tra loro per proprietà chimiche e fisiche. In ogni caso, sono più che sicuro che ne avete già sentito parlare, non foss’altro per il fatto che questi nomi li trovate scritti sulle etichette dei vostri capi di abbigliamento quando leggete che assieme al cotone essi contengono anche poliestere e polipropilene (Figura 1).

Figura 1. Tipica etichetta di un capo di vestiario (Fonte)

Per poter avere una idea di quali siano gli oggetti di uso comune  che contengono le plastiche anzidette, potete far riferimento alla Figura 2.

Figura 2. Tipici oggetti fatti di plastica
Ma veniamo alle mascherine chirurgiche.

Esse sono fatte da strati sovrapposti di tessuti ottenuti sia con polipropilene che con poliestere. In particolare, lo stato esterno è costituito da un foglio di polipropilene che viene trattato per farlo diventare idrofobo e conferirgli resistenza meccanica. Lo strato intermedio può essere fatto sia da polistirene che da polipropilene che vengono lavorati in modo da produrre un foglio sottile con pori di diametro nell’intervallo 1-3 μm. Infine, il terzo strato (quando è presente) è fatto da polipropilene che ha il compito di proteggere il volto dallo strato intermedio filtrante (Figura 3). La capacità filtrante verso l’esterno (ovvero la capacità di trattenere le goccioline di sudore/saliva) di queste mascherine è molto elevata. Tuttavia, esse hanno una bassa capacità filtrante dall’esterno (Riferimento).

Figura 3. Strati di polipropilene con cui sono fatte le mascherine chirurgiche (Fonte)

Insomma, da questa breve digressione avete capito che le mascherine chirurgiche che indossiamo in questi giorni sono fatte di plastica.

C’è un impatto ambientale di questa plastica? Beh…se l’argomento vi intriga posso rimandare ad un secondo articolo l’impatto che le mascherine che usiamo hanno sull’ambiente.

Fonte dell’immagine di copertina

Credibilità scientifica e h-index

Recentemente sul quotidiano Il Tempo è apparso un articolo dal titolo “Burioni, Pregliasco e Brusaferro . Gli esperti più scarsi del mondo” in cui i nomi di tre medici che ultimamente occupano le prime pagine dei giornali non sono neanche messi in ordine alfabetico. L’articolo che trovate qui è un attacco neanche troppo velato alla credibilità di questi tre professionisti che ci avvertono dei pericoli della pandemia da SARS-Cov-2. L’attacco viene sferrato usando uno dei parametri (non l’unico) utilizzato per la valutazione comparativa dei candidati a posti più o meno importanti nel mondo accademico e della ricerca scientifica: l’h-index.

Cos’è l’h-index?

Per i non addetti ai lavori, si tratta di un indice che serve per valutare l’impatto che il lavoro di uno scienziato ha sulla comunità scientifica di riferimento. Se un lavoro pubblicato è molto importante, esso viene citato tantissimo e l’h-index di quello scienziato aumenta in modo proporzionale al numero delle citazioni che riceve.

Nel mondo da classifiche calcistiche in cui viviamo, questo parametro sembra molto utile, vero?

In effetti sembra così. Il problema è che questo parametro deve essere necessariamente contestualizzato. Prima di usarlo è necessario entrare nel merito del lavoro di uno scienziato. Se così non fosse tutte le commissioni di cui faccio parte e di cui ho fatto parte (inclusa quella relativa all’Abilitazione Scientifica Nazionale del mio settore concorsuale) non avrebbero alcun senso. Se bastasse solo valutare il valore dell’h-index per fare una classifica di idoneità ad una data posizione accademica, non sarebbe necessario rompere le scatole ai docenti universitari per includerli nelle commissioni: basterebbe il lavoro di un semplice ragioniere che non dovrebbe fare altro che accedere ai data base accademici, estrarre il valore dell’h-index e, poi, mettere i nomi dei candidati in ordine di h-index decrescente. Al contrario, se a me serve un ricercatore che abbia esperienza in fisiologia vegetale, non vado a vedere solo il suo h-index, ma vado a valutare anche l’attinenza della sua ricerca con la posizione che egli deve occupare. Se al concorso si presenta un ricercatore in filologia romanza con h-index 40 ed uno in fisiologia vegetale con h-index 20, sceglierò il secondo dei due perché la sua attività di ricerca è più attinente al profilo di cui si sente il bisogno. Da tutto ciò si evince che l’articolo pubblicato su Il Tempo è fallace proprio in questo. Il giornalista, di cui non conosco il nome e neanche mi interessa perché sto valutando solo quello che ha scritto, ha messo a confronto gli h-index di una serie di scienziati più o meno famosi senza andare a vedere se i settori di cui essi si occupano sono congruenti gli uni con gli altri e se i lavori scientifici che hanno pubblicato siano congruenti con la virologia. Questo giornalista si è solo peritato di agire come un tipico ragioniere che legge dei numeri e li mette in fila dal più grande al più piccolo. Alla luce di questa classifica ha concluso che Burioni (persona che conosco personalmente e che stimo moltissimo) è uno scienziato tra i più scarsi del mondo. A questo giornalista non importa neanche minimamente ciò che il Prof. Burioni dice. Ciò che gli importa è che un parametro, che nel mondo universitario noi utilizziamo con tanta oculatezza, collochi questo scienziato in fondo alla classifica che egli ha deciso autonomamente di stilare senza tener in alcun conto delle differenze che possono esistere tra i diversi settori scientifici in cui gli scienziati da egli presi in considerazione si muovono. Ed allora perché non inserire nella stessa classifica anche il Prof. Guido Silvestri che ha un h-index di 66 (qui) e che si muove su posizioni analoghe a quelle di Burioni? Ma…poi…siamo sicuri che Anthony Fauci, con h-index 174 e consigliere di Trump, non sia in linea con quanto dicono Burioni e Silvestri? Il giornalista che ha scritto l’articolo che sto commentando, probabilmente, pensa di no. Non tiene conto del fatto che Trump è una scheggia impazzita, che gli americani hanno eletto a loro rappresentante uno che è fallito ben due volte, e che questa persona non brilli certo in quanto a cultura e preparazione scientifica.

Gli h-index e la credibilità scientifica.

Ora voglio usare gli stessi criteri del giornalista de Il Tempo per fare una mia classifica di scienziati. Partiamo dalla fisica. Penso che io non abbia bisogno di presentare Enrico Fermi. È una gloria italiana che ha dato un contributo notevole alla fisica mondiale. Trovate una sua biografia qui. Il suo h-index è 28 (qui). Incredibile vero? Nonostante abbia vinto un premio Nobel, Enrico Fermi ha un h-index confrontabile con quello di Burioni che il giornalista de Il Tempo ha giudicato scarso. Però in effetti sto confrontando un medico con un fisico, peraltro deceduto già da molto tempo. Non sono paragoni da fare. Andiamo a prendere un altro fisico che è diventato famoso qualche tempo fa, all’inizio degli anni 2000: Jan Hendrik Schön. Ho parlato di questo scienziato qui. Fu uno studioso della superconduttività nei sistemi organici. In odore da Nobel fino a che si scoprì che inventava i dati. Gli è stato ritirato anche il dottorato di ricerca. Ebbene, se andiamo a leggere l’h-index di Schön su Scopus, risulta che esso è pari a 32 (qui). In definitiva, usando i parametri del giornalista de Il Tempo, Enrico Fermi è più scarso di Jan Hendrik Schön. Ma quale tra i due ha maggiore credibilità? Enrico Fermi che ha lavorato seriamente ed ha dato un contributo alla fisica riconosciuto dall’intera comunità scientifica oppure Jan Schön che, invece, ha lavorato in modo poco serio arrivando ad inventarsi i dati pur di avere quella notorietà internazionale che non meritava?
Voglio continuare. Ritorniamo nel campo medico e prendiamo Wakefield. Sì, proprio il medico che è stato radiato dall’ordine dei medici e dalla comunità scientifica per aver inventato di sana pianta la correlazione tra vaccini ed autismo. Il suo h-index è 45 (qui) dovuto principalmente alle oltre 1500 citazioni che il suo lavoro su The Lancet, pubblicato nel 1998 e poi ritrattato una decina di anni dopo, sulla correlazione vaccini-autismo ha ricevuto. Usando i parametri del giornalista de Il Tempo, Burioni è più scarso di Wakefield. Ma voi nelle mani di chi mettereste la vostra salute: di Burioni o di Wakefield? Io non ho dubbi, per quanto mi riguarda: mi affiderei senza ombra di dubbi a Burioni.

Conclusioni

Ho scritto questo articolo per far capire quanta spazzatura ci sia in rete in merito a come vengono usati i numeri che hanno significato solo nell’ambito per cui quei numeri sono stati introdotti. Al di fuori dell’ambito accademico, l’h-index non può essere utilizzato. In ogni caso, anche in ambito accademico va utilizzato non in senso assoluto ma assieme a tutta una serie di parametri che servono per valutare la credibilità di uno scienziato. Usando un linguaggio matematico, l’h-index è condizione necessaria ma non sufficiente a farsi un’idea del lavoro di qualcuno.

Fonte dell’immagine di copertina

Fa freddo lassù?

Checché ne dicano chimici e fisici, le due discipline di cui essi sono rappresentanti sono strettamente correlate tra di loro. A certi livelli sono talmente incuneate l’una nell’altra che è difficile dire quando finisce la chimica e quando comincia la fisica. Prendete per esempio la quantomeccanica. Tutti quelli che ne parlano sono fisici, ma questa branca della fisica può essere considerata anche chimica grazie agli sforzi compiuti da Linus Pauling che, nella prima metà del XX secolo, si “inventò” la chimica quantistica, o quantochimica, per spiegare la natura del legame chimico (Figura 1).

Figura 1. Raccolta dei lavori di Linus Pauling in cui viene identificata la natura del legame chimico.

Fino a che Pauling non si impadronì della quantomeccanica per adattarla alla chimica, la rottura e la formazione dei legami chimici rimase in una sorta di limbo che faceva dei chimici dei veri e propri praticoni, abilissimi nel “maneggiare” le molecole, ma ancora lontani dal poter prima progettare e poi realizzare in laboratorio quanto avevano in mente.

Perché vi scrivo tutto questo?

Dovete sapere che in questo periodo di quarantena sono costretto a fare lezione per via telematica. Mi manca fortissimamente il contatto con gli studenti ed il poter trasferire le mie conoscenze non solo con le parole ma anche con la prossemica e con l’attività di laboratorio. In questo contesto sto studiando le lezioni che devo fare nelle prossime settimane per il mio corso di “Recupero delle aree degradate”. Una delle ultime lezioni riguarda la contaminazione atmosferica. È proprio ripassando le diapositive che presenterò tra un paio di settimane che ho realizzato anche a me stesso ciò che dico normalmente agli studenti dei miei corsi: chimica e fisica sono parenti stretti; non si può capire la chimica se non si conosce la fisica e non si può comprendere a fondo la fisica se non si hanno anche conoscenze chimiche. Sono sicuro che i miei amici fisici dissentiranno da quanto ho appena scritto, ma lasciatemi dire che chi afferma che per conoscere la fisica non c’è bisogno della chimica ha profonde falle cognitive. È come dire che la conoscenza umanistica non serve a chi si occupa di scienza. In realtà, la conoscenza umanistica aiuta a pensare, a mettere ordine nelle proprie idee, nel proprio modo di esprimersi e nel modo di presentare ciò che sappiamo.

Ma andiamo con ordine.

La fisica dell’atmosfera è direttamente legata alla sua chimica.
Nella Figura 2 si evidenzia la geografia dell’atmosfera con l’indicazione dei cambiamenti di temperatura (quindi una proprietà fisica) che si osservano man mano che ci allontaniamo dalla superficie terrestre.

Figura 2. Geografia dell’atmosfera con indicazioni dei cambiamenti di temperatura che si osservano al variare dell’altezza.

Usando il linguaggio tipico della Scienza del Suolo, la Figura 2 mostra il profilo dell’atmosfera nel quale è possibile individuare diversi orizzonti. L’orizzonte più vicino al suolo ha un’altezza di circa 16 km. Esso viene indicato col termine di troposfera in cui il suffisso “tropo” è di derivazione greca e vuol dire “mutazione”, “cambiamento”. La composizione chimica della troposfera è abbastanza complessa. Essa è costituita non solo da ossigeno ed azoto molecolari, ma anche da vapor d’acqua, anidride carbonica e tutte le altre varie anidridi come quelle di azoto e zolfo che hanno sia origine antropica che origine naturale. Per effetto dell’energia termica rilasciata dal suolo, le molecole di gas più vicine ad esso si riscaldano, diminuiscono di densità e si muovono verso l’alto venendo sostituite dalle molecole di gas più fredde e più dense che si trovano ad altezze maggiori. Si realizzano, quindi, delle correnti ascensionali (Figura 3) che sono sfruttate, per esempio, dai deltaplanisti o da chi è appassionato di volo senza motore.

Figura 3. Schema delle correnti ascensionali che si realizzano per effetto del riscaldamento al suolo delle molecole di gas atmosferico.

È proprio grazie all’energia termica rilasciata dal suolo che possiamo spiegare perché nella troposfera la temperatura diminuisce con l’altezza. Infatti, più vicini siamo al suolo, più risentiamo del calore emesso dalla superficie terrestre. Più ci allontaniamo dal suolo, più si riduce la temperatura per effetto della dissipazione del calore che proviene dalla superficie terrestre.
Tra 16 e 50 km di altezza c’è l’orizzonte atmosferico che viene definito stratosfera. In questo orizzonte c’è una concentrazione media di ozono che è dell’ordine delle decine di parti per milioni (v/v) contro i 0.04 ppm medi presenti nella troposfera. Questa elevata concentrazione di ozono rende conto dell’aumento di temperatura che si osserva man mano che ci si allontana dalla superficie terrestre e si passa dai 16 ai 50 km di altezza. Infatti, le radiazioni luminose provenienti dal suolo, da un lato, consentono la degradazione dell’ozono (O3) ad ossigeno molecolare (O2) ed ossigeno radicalico (O∙) in una reazione esotermica, dall’altro consentono un aumento dell’energia cinetica dei gas della stratosfera con conseguente aumento dell’energia termica.
Tra 50 ed 85 km c’è l’orizzonte che chiamiamo mesosfera. In questo orizzonte si osserva di nuovo una diminuzione di temperatura all’aumentare dell’altezza. Infatti, la temperatura della mesosfera può arrivare fino a -90°C. Questa diminuzione di temperatura è legata alla riduzione della densità dei gas ivi contenuti. L’energia termica proveniente dal Sole, pur incrementando l’energia cinetica delle molecole di gas, non è, tuttavia, in grado (a causa della bassa concentrazione di tali gas) di portare ad un aumento della temperatura.
L’orizzonte incluso tra 85 e 500 km di altezza prende il nome di termosfera. La composizione chimica della termosfera vede la presenza di molecole di ossigeno e molecole contenenti azoto. La radiazione elettromagnetica proveniente dal sole consente la ionizzazione delle molecole anzidette in reazioni di tipo esotermico. L’esotermicità delle reazioni appena citate, associate all’aumento dell’energia cinetica dei sistemi gassosi presenti nella termosfera, portano ad un aumento della temperatura che può arrivare fino a 1200 °C. Gli ioni presenti nella termosfera non solo sono in grado di far “rimbalzare” le onde radio consentendo, quindi, le comunicazioni sul globo terrestre, ma sono anche responsabili delle aurore boreali. Infatti, essi assorbono energia solare riemettendola sotto forma di radiazioni luminose che danno luogo alle meravigliose scenografie che si osservano nell’emisfero Nord del nostro pianeta (Figura 4).

Figura 4. Aurora boreale (Fonte).
Conclusioni

Fa freddo lassù? La risposta corretta è: dipende. Dipende dall’altezza a cui ci troviamo e dalla chimica degli orizzonti del profilo atmosferico. Come dicevo più su, questo post nasce dal desiderio di condividere con voi le meraviglie di due discipline interconnesse tra loro: la chimica e la fisica. Come potete intuire leggendo questo breve articolo, le conoscenze chimiche riescono a spiegare i fenomeni fisici che si osservano nell’atmosfera. Spero possiate perdonare le inesattezze che sicuramente ho scritto e che tutto ciò possa innescare una discussione interessante.

Altre letture

Fundamentals of physics and chemistry of atmosphere

Fonte dell’immagine di copertina

 

 

Scienza open access e riviste predatorie. Parte I. Il sistema chiuso

L’articolo che leggete è un mio contributo alla Newsletter n. 12  della Società Italiana di Scienza del Suolo. Si tratta della prima parte di un reportage sui predatory journals.

__________________________________________

Oggi la rete internet è alla portata di tutti. Basta pagare un abbonamento flat ad una qualsiasi delle innumerevoli aziende telefoniche del nostro paese per avere un accesso illimitato a siti di ogni tipo, inclusi quelli di carattere scientifico. Tuttavia, chi non fa parte di un ente (pubblico o privato) che ha accesso alle banche dati scientifiche non può scaricare e leggere lavori che non siano di tipo “open access”.

“Open access”. Sembra essere una moda. Anche la valutazione delle università passa attraverso l’esame del numero di pubblicazioni di tipo “open” dei ricercatori che in esse operano. È per questo che tante istituzioni, anche a livello trans-nazionale, invitano i ricercatori a pubblicare su riviste accessibili a tutti. Devo dire che la questione delle pubblicazioni scientifiche accessibili a tutti è un argomento spinoso.

Vediamo perché.

Nel business editoriale scientifico chiuso, gli editori sono gli unici ad attuare una politica di tipo Win1-Win2-Win3-Win4.

La situazione di Win1 si riferisce al fatto che le case editrici fanno pagare al singolo ricercatore il download di un unico articolo da pochi dollari a qualche centinaio. Tuttavia, questo accade quando l’istituzione di appartenenza non ha pagato nessun abbonamento per l’accesso alle riviste di interesse. Nel caso in cui l’istituzione abbia sottoscritto un abbonamento, il singolo dipendente non è costretto a pagare di tasca sua gli articoli che gli servono per tenersi aggiornato. Gli abbonamenti, che in genere sono per pacchetti di riviste che gli enti di ricerca non possono scegliere, costano un occhio della testa. Si parla di decine di migliaia di euro all’anno. Si badi bene: non si possono scegliere le riviste da inserire nei pacchetti. Ma soprattutto, vengono scelti i pacchetti con le riviste più famose e di copertura più ampia possibile. Questo vuol dire che chi si occupa di nicchie di ricerca ha una probabilità molto alta che le riviste che gli interessano non siano comprese nel pacchetto. Questo che sto scrivendo è valido per ogni casa editrice. Quindi considerando che nel panorama scientifico esistono case come la Elsevier, la Springer, la ACS etc., per ognuna di esse bisogna pagare un abbonamento di diverse decine di migliaia di euro. Si fa presto ad arrivare ad un budget di spesa che vola verso le centinaia di migliaia di euro all’anno. Diciamo che non è poco, considerando la crisi permanente in cui versano da anni le casse delle università e degli enti di ricerca italiani.

Ma non è finita. Le case editrici dei sistemi chiusi si trovano anche nella condizione che io definisco di Win-2. In cosa consiste?  Affinché  possa essere pubblicato, uno studio deve essere sottoposto a revisione tra pari. Gli editor-in-chief di ogni rivista chiedono ad esperti di settore di fare la revisione dei lavori. Il punto è che chiedono ai revisori un surplus di lavoro gratuito. Quindi, ognuno di noi si sobbarca l’onere di leggere e commentare nel merito gli studi dei propri colleghi a discapito del poco tempo libero che ognuno di noi ha. E questo gratuitamente. In altre parole, tutti noi prestiamo la nostra competenza professionale alle case editrici senza remunerazione. Perché lo facciamo? La scusa che abbiamo trovato è che il sistema richiede il nostro apporto. Se non lo facessimo, si pubblicherebbe di tutto. Ma mi chiedo: va bene; evitiamo che venga pubblicato di tutto facendo la revisione tra pari. Ma perché gratis? C’è qualcuno che dice che se non fosse gratis, saremmo corruttibili. E su questo avrei qualcosa da ridire considerando gli scandali che stanno venendo fuori nel mondo scientifico in merito ai plagi, alle pubblicazioni con dati inventati e ai cartelli delle citazioni. Ma, per ora, lasciamo perdere questi aspetti. Rimane la domanda: perché lo facciamo? La mia personale opinione è che lo facciamo per avere una parvenza di potere, ovvero per soddisfare il nostro ego ipertrofico che ci fa pensare che siamo i migliori e che più lavori da referare riceviamo, più siamo bravi. Posso dire che ci vuol molto poco a smontare questa convinzione. Basta fare il rapporto tra numero di riviste che nascono ogni giorno e numero di ricercatori. Gioco forza, ognuno di noi è chiamato a fare da revisore ad un certo numero di studi all’anno. Non siamo bravi. Siamo semplicemente troppo pochi rispetto alla quantità di sciocchezze che vengono inviate per la pubblicazione alle riviste scientifiche.

Arriviamo, ora, alla condizione che io definisco di  Win-3. I lavori che vengono inviati alle riviste scientifiche sono finanziati dalle stesse istituzioni che pagano l’abbonamento alle riviste. In altre parole, la mia università paga la mia ricerca attraverso l’erogazione di fondi (minimi e quando sono disponibili) e di stipendio. Io lavoro per la mia università, ma nello stesso tempo lavoro senza remunerazione, attraverso la mia opera di revisore, per le stesse case editrici alle quali invio i miei studi da pubblicare ed ai quali io stesso non posso accedere se la mia università non ha pagato un abbonamento. La cosa è un po’ contorta, se ci pensiamo bene. C’è qualcuno che stampa su carta (oggi potremmo dire pubblica on line) qualcosa che non gli appartiene perché è di proprietà del ricercatore che l’ha pensata e dell’istituzione che paga il ricercatore per pensare. Certo la stampa costa. Costa la carta, costa il personale necessario alla gestione del flusso di lavori in entrata, costa l’elettricità necessaria a sostenere l’organizzazione della casa editrice etc. etc etc. L’unica cosa che non costa è il lavoro di peer review. Ma ne ho già parlato. Sorge una riflessione: se le case editrici di tipo scientifico rientrano in un ambito imprenditoriale, perché non riescono a ricavare introiti dalla pubblicità o dalla vendita al dettaglio dei loro prodotti? In realtà, di pubblicità sulle riviste ce ne è a iosa, quello che manca è la vendita al grande pubblico. Solo alcune riviste di carattere generalista si possono trovare in edicola. Mi riferisco a Science e Nature che molto spesso trovo esposte nelle edicole degli aeroporti. Eppure sarebbe veramente utile, secondo me, vendere al grande pubblico le riviste specialistiche. Pensiamo solo allo sforzo che i più curiosi dovrebbero fare per masticare l’inglese. Si parla tanto del provincialismo degli italiani che non parlano fluentemente l’inglese, ma nessuno ha mai pensato di diffondere al grande pubblico le riviste con contenuti specialistici per incrementare lo sforzo nella lettura dell’inglese. Parliamo tanto dell’analfabetismo di ritorno che porta le persone più impensabili ad essere delle vere e proprie capre in ambito scientifico, e nessuno ha mai pensato che la vendita al dettaglio, al di fuori dei circuiti istituzionali, potrebbe aiutare le persone a ragionare meglio secondo la logica del metodo scientifico. Tutti questi accorgimenti potrebbero forse essere utili per abbassare i costi degli abbonamenti che le istituzioni sono costrette a pagare per leggere gli studi dei propri ricercatori. In ogni caso, io sono un sognatore, non mi intendo di economia e non ho idea se I sogni di cui sto parlando siano realizzabili o meno.

Veniamo ora alla chiusura del cerchio con la condizione Win4 che è un po’ la summa di quanto discusso fino ad ora.  Le case editrici vendono un prodotto che non comprano. La cosa bella è che lo rivendono, a costi maggiorati, agli stessi che gliene fanno dono. Le università pagano i ricercatori per studi che vengono donati alle case editrici. Queste ultime, a loro volta, chiedono agli stessi ricercatori una valutazione gratuita degli studi anzidetti. Infine, ricercatori ed istituzioni devono comprare il prodotto che loro stessi hanno donato. Fa girare la testa, vero?

Come risolvere il problema?

Ne discuto nel prossimo numero della Newsletter.

Note

Articolo apparso nella Newsletter n. 12 della Società Italiana di Scienza del Suolo

Fonte dell’immagine di copertina 

Questo articolo è un aggiornamento ed un approfondimento di quanto scritto qui.

Come funzionano le maschere filtranti

In questi giorni di crisi in cui siamo costretti ad essere chiusi in casa per salvaguardare la salute nostra e di chi ci è caro, ci si annoia, si legge un libro, si gioca al computer, si vede un film, si lavora (i più fortunati come me possono farlo dal computer), si cucina…si fanno, insomma, tutte quelle attività che per i nostri nonni in tempo di guerra  erano “normali”.

In questa situazione di crisi sanitaria capita di vedere di tutto. Quello che colpisce me è il gran numero di persone che fa uso di mascherine anche in situazioni in cui risultano inutili. Quanti di voi hanno visto automobilisti circolare da soli con la mascherina? E quanti sono quelli che portano a spasso il cane indossando la mascherina in zone solitarie dove è facile tenersi a distanze di sicurezza?

Al di là di ogni tipo di considerazione personale in merito all’uso delle mascherine, tutti noi siamo sicuramente venuti a conoscenza delle disposizioni delle autorità sanitarie che raccomandano l’uso delle mascherine solo a persone infette da coronavirus o a coloro che si trovano ad assistere queste persone. Per tutti gli altri le mascherine sono inutili.

Ma ci siamo mai chiesti come funziona una mascherina e perché le autorità danno certi consigli?

Io mi sono chiesto come diavolo funziona una mascherina ed è per questo che scrivo questo post: ho deciso di annoiarvi ancora più di quel che già non siete annoiati cercando di spiegarvi in cosa consiste questo oggetto che viene catalogato sui luoghi di lavoro come “dispositivo di protezione individuale” o “DPI” ed il cui uso è normato dal D.Lgs. 81/08.

Le dimensioni delle polveri sottili

In molti luoghi di lavoro il personale si trova ad operare in presenza di aerosol e polveri sottili. Queste ultime vengono in genere indicate come PMx, dove la x indica le dimensioni delle particelle espresse in μm.

Quando parliamo di aerosol e polveri sottili stiamo intendendo sistemi che, indipendentemente dalla loro composizione chimica, hanno delle dimensioni molto variabili. Se esse sono comprese tra 2 nm e 2 μm stiamo avendo a che fare con sistemi colloidali che rimangono dispersi in aria per effetto delle loro dimensioni. Grazie ad esse, infatti, la forza di gravità non è in grado di prevalere sulle forze dispersive  come, per esempio, la repulsione tra cariche elettriche oppure le interazioni con le molecole di aria. Come conseguenza, le suddette particelle rimangono disperse in aria fino a che non intervengono fattori che consentono alla forza di gravità di predominare e permettere la deposizione al suolo delle stesse.

Le dimensioni delle polveri sottili in parole povere

Per darvi una idea di cosa significhino i numeri scritti sopra, tenete presente che il nm (si legge nanometro) corrisponde ad un miliardesimo di metro, mentre il μm (si legge micrometro) corrisponde ad un milionesimo di metro. Considerando che la lunghezza di un legame chimico, come il legame C-H, è di circa 0.1 nm, ne viene che 2 nm è una dimensione che corrisponde a circa 20 volte la distanza carbonio-idrogeno, mentre 2 μm corrisponde a circa 20000 volte la stessa distanza. Questo non vi dice ancora nulla, vero? In effetti, se uno non ha studiato chimica non si rende conto di quanto sia piccolo un legame chimico. Allora guardiamo la foto di Figura 1. Si tratta di un acaro della polvere le cui dimensioni sono di circa 0.5 mm, ovvero circa 250 volte più grande di 2 μm che rappresenta il limite superiore dell’intervallo dimensionale in cui ricadono le particelle colloidali. La foto di Figura 1 è stata ottenuta al microscopio elettronico. In altre parole, gli acari della polvere non sono visibili ad occhio nudo. Potete, ora, facilmente immaginare che neanche le particelle colloidali lo siano.

Figura 1. Immagine di un acaro della polvere (Fonte)

Mi potreste dire: “ma cosa dici? Non è vero. Io posso vedere le particelle di smog” (queste nell’immaginario comune sono intese come polveri sottili). Mi dispiace informarvi che le particelle che voi vedete a occhio nudo hanno dimensioni molto più elevate di quelle comprese nell’intervallo 2 nm-2 μm (diciamo almeno più di 1000 volte più grandi), mentre le particelle le cui dimensioni ricadono nell’intervallo anzidetto non le potete vedere se non con la microscopia elettronica. Quando le particelle sono così piccole, l’unico effetto visibile è quello che va sotto il nome di “Effetto Tyndall”. In pratica, la luce che “incontra” le particelle colloidali viene dispersa in tutte le direzioni (Figura 2) con la conseguenza che una soluzione appare opaca o l’aria appare “nebulosa”.

Figura 2. Rappresentazione schematica dell’Effetto Tyndall
Ma cosa c’entra questo con le maschere filtranti?

Come vi dicevo, in molti posti di lavoro, il personale entra in contatto con le polveri sottili. Queste sono pericolosissime per noi dal momento che possono innescare tante patologie, prime tra tutte quelle di tipo respiratorio. I datori di lavoro, quindi, sono obbligati a fornire ai propri dipendenti i dispositivi di protezione individuale tra cui le mascherine. Queste sono in grado di filtrare le polveri sottili che sono presenti nell’aria e di impedire che esse vengano inalate. Esistono almeno tre tipologie di maschere filtranti che vengono indicate con le sigle FFP1, FFP2 e FFP3. La sigla “FFP” sta per “Face Filtering Piece” mentre i numeri da 1 a 3 indicano l’efficacia del filtraggio. In particolare, le maschere FFP1 proteggono da polveri atossiche e non fibrogene la cui inalazione non causa lo sviluppo di malattie, ma può, comunque, irritare le vie respiratorie e rappresentare un inquinamento da cattivi odori. Le maschere FFP2 proteggono da polveri, fumo e aerosol solidi e liquidi dannosi per la salute. In questo caso le maschere intercettano anche particelle fibrogene, ovvero sistemi che, a breve termine, causano irritazione delle vie respiratorie, mentre a lungo termine comportano una riduzione dell’elasticità del tessuto polmonare. Le maschere FFP3 proteggono da polveri, fumo e aerosol solidi e liquidi tossici e dannosi per la salute. Queste maschere sono in grado di proteggere da sostanze nocive cancerogene e radioattive.

La protezione assicurata da queste maschere è di tipo fisico. Più spesso è lo strato di materiale filtrante, più efficace è la protezione. Le maschere di tipo FFP1 consentono di “intercettare” particelle più grandi di 5 μm; le maschere FFP2 consentono di “intercettare” particelle di dimensioni maggiori di 2 μm; le maschere di tipo FFP3 sono capaci di “intercettare” particelle di dimensioni  maggiori di 0.6 μm, ovvero particelle di dimensioni circa 1000 volte più piccole dell’acaro in Figura 1. Tuttavia, le particelle colloidali le cui dimensioni sono comprese tra 0.2 nm e 0.6 μm possono ancora arrivare ai nostri polmoni e causare danni.

E virus e batteri?

Come avrete capito, è tutta questione di dimensioni. In genere i batteri hanno dimensioni pari a circa 0.45 μm, mentre i virus dimensioni comprese nell’intervallo 0.020-0.300 μm. Questo significa che nessuna delle mascherine di cui si è discusso finora sarebbe in grado di trattenere sistemi aventi le predette dimensioni. Tuttavia, se virus e batteri “viaggiano” attaccati a particelle colloidali le cui dimensioni sono almeno superiori a 0.6 μm, allora essi possono essere bloccati dalle maschere filtranti di tipo FFP3. In effetti, le case produttrici di mascherine riportano che le maschere di tipo FFP3 vanno bene per proteggere da esposizione a legionella (un batterio largo tra 0.3 e 0.9 μm e lungo tra 1.5 e 5 μm) e virus quali quelli dell’influenza aviaria, dell’influenza A/H1N1, SARS, e tubercolosi. Bisogna comunque tener presente che lo strato filtrante della mascherina tende ad esaurirsi. La maschera perde la sua efficacia e va sostituita. Cosa vuol dire questo? Che le mascherine FFP sono monouso. Se le si usa in città, magari durante una passeggiata, non vi state difendendo da virus e batteri, ma semplicemente dal particolato sospeso dovuto alla contaminazione ambientale.  Quando tornate a casa dovete buttare via la mascherina e sostituirla con un’altra. Se la usate per difendervi da virus e batteri è perché non state facendo una passeggiata in mezzo ai gas di scarico, ma siete operatori sanitari che devono entrare in contatto con le gocce di saliva di pazienti infetti. La maschera, grazie alla sua azione filtrante, impedisce che questi mezzi veicolanti di patogeni finiscano nel nostro organismo. Dopo l’uso, la maschera va comunque buttata via e sostituita.

E le maschere chirurgiche?

Queste non hanno nulla a che vedere con le maschere di tipo FFP. Mentre queste ultime proteggono dall’inalare sistemi tossici, le maschere chirurgiche hanno il compito di impedire che i chirurghi possano contaminare le ferite dei pazienti durante gli interventi chirurgici. Quindi, le maschere chirurgiche servono per difendere il paziente, non il medico.

Mascherina sì, mascherina no?

Alla luce di tutto quanto scritto, ne viene che è meglio tenersi lontani dalle mascherine fai da te: no carta da forno, no assorbenti, no altre robe raffazzonate. Non servono a nulla. L’unico modo per proteggersi da virus e batteri è seguire le istruzioni di chi ne capisce di più, ovvero dell’Istituto Superiore di Sanità.

Altre letture e riferimenti

Se volete conoscere la fonte delle dimensioni dei pori delle maschere filtranti, cliccate qui: https://www.uvex-safety.it/it/know-how/norme-e-direttive/respiratori-filtranti/significato-delle-classi-di-protezione-ffp/ e qui: http://www.antinfortunisticaroberti.it/news-dett.php?id_news=133 

Se volete avere notizie aggiuntive in merito alle caratteristiche delle maschere filtranti, cliccate qui: https://www.lubiservice.it/blog/mascherine-ffp1-ffp2-e-ffp3-differenze-e-consigli

Se volete sapere quali sono i meccanismi di funzionamento di una maschera filtrante, potete accedere a questa interessante serie di diapositive: http://www.ausl.fe.it/azienda/dipartimenti/sanita-pubblica/servizio-prevenzione-sicurezza-ambienti-di-lavoro/materiale-informativo/corso-utilizzo-dpi-per-operatori-dsp-ottobre-2016/faccaili-filtranti-uso-corretto

Se volete conoscere la fonte da cui è presa l’informazione in merito al filtraggio di alcuni  batteri e virus, cliccate qui: https://www.seton.it/dpi-protezione-respiratoria.html

Se volete conoscere la fonte delle dimensioni dei virus, cliccate qui: https://www.chimica-online.it/biologia/virus.htm

Se volete conoscere la fonte delle dimensione del batterio della legionellosi, cliccate qui: http://www.unpisi.it/docs/PUBBLICAZIONI/ARTICOLI/bonucci%20badii%20legionella.pdf

Se volete sapere di più sull’utilità dei DPI, cliccate qui: https://medicalxpress.com/news/2020-03-masks-gloves-dont-coronavirus-experts.html

Fonte dell’immagine di copertina

Ringraziamenti.

Grazie a Paolo Alemanni e Francesca Santagata per avermi aggiornato sulle norme relative alla sicurezza sul lavoro

 

Perché i termini “scienza” e “biodinamica” nella stessa frase sono un ossimoro

Ogni tanto ritorno alla carica con l’agricoltura biodinamica. Ne ho parlato a varie riprese qui, qui, qui, qui, e qui. Mi chiederete voi: ma allora perché parlarne ancora una volta? Semplicemente perché ancora una volta delle Istituzioni pubbliche come un Ministero della Repubblica, una Università pubblica, una Regione ed un Comune hanno concesso il patrocinio per un convegno sulla biodinamica che si terrà a Firenze dal 26 al 29 Febbraio (qui).

Cosa vuol dire patrocinio?

Dalla Treccani on line possiamo leggere che il patrocinio è un “sostegno da parte di un’istituzione“. E quando si concede un sostegno? Quando si condividono i contenuti di una certa attività. Non c’è molto da aggiungere. Se io, Ministro o Rettore o Sindaco o altro rappresentante Istituzionale concedo un patrocinio è perché sono convinto della validità di certe attività e voglio legare la mia Istituzione alle predette attività. Cosa pensare, quindi? È possibile che un Ministero, una Università, una Regione e un Comune, attraverso la concessione del patrocinio, condividano i contenuti del convegno e, più in generale, approvino l’esoterismo alla base dell’agricoltura biodinamica? Secondo me no. Probabilmente, la concessione del patrocinio è avvenuta automaticamente senza che qualcuno si sia veramente reso conto di ciò che concedere il patrocinio ad un convegno del genere avrebbe potuto significare.

Ma non è finita. Al convegno prendono parte anche docenti universitari. Perché lo fanno? Probabilmente sono seguaci di Steiner oppure, più  probabilmente, hanno una falsa idea del significato di libertà di ricerca e di scienza (ne ho parlato qui). Perché falsa? Faccio un esempio banale: non c’è bisogno di chiedere se chi mi legge conosce la differenza tra astronomia ed astrologia. La prima è una scienza, la seconda una favoletta sulla quale si basa la formulazione degli oroscopi. Si tratta della medesima differenza che esiste tra l’agricoltura attuale, basata sull’uso della scienza e delle tecnologie moderne, e la biodinamica, basata sulle idee di una specie di filosofo vissuto agli inizi del ‘900 e, praticamente, sempre uguale a se stessa.

Invocare libertà di scienza e ricerca pretendendo di dare pari dignità scientifica all’agricoltura moderna ed alla biodinamica è lo stesso che attribuire scientificità all’astrologia.

E’ mia opinione che gli accademici che con la loro attività sdoganano la biodinamica come pratica scientifica non facciano un buon servizio alla Scienza. Ovviamente ognuno è libero di fare ciò che vuole della propria dignità scientifica ed ognuno è libero di fare ricerca su qualsiasi cosa sia di proprio gradimento. Ciò che è importante è che non vengano impegnate risorse pubbliche per attività di ricerca che si fondano sull’esoterismo.

Come componente della Rete Informale Scienza e Tecnologie per l’Agricoltura (SETA), sono anche io tra i firmatari della lettera aperta che potete leggere qui sotto cliccando sulle immagini. In questa sede spieghiamo nei dettagli perché l’agricoltura biodinamica non può essere considerata scienza. Le nostre argomentazioni si basano esclusivamente sulla lettura dei disciplinari che devono seguire tutti coloro che vogliono usare il termine “biodinamica” sull’etichetta dei loro prodotti.

Buona lettura.

Fonte dell’immagine di copertina

Pane all’acqua di mare: realtà o fantasia?

di Enrico Bucci e Pellegrino Conte

Vi ricordate il pane fatto con l’acqua di mare?

Qualche tempo fa le principali agenzie di stampa italiane titolarono a nove colonne che ricercatori italiani avevano scoperto che  il pane fatto usando l’acqua di mare, invece che la normale acqua di rubinetto, aveva proprietà salutistiche migliori del pane tradizionale.

Ecco, per esempio, cosa scriveva il Gambero Rosso già nel 2017:

Una nuova ricetta che consente di risparmiare acqua potabile, offrendo un alimento valido anche per chi è obbligato a seguire una dieta povera di sodio: il pane prodotto con l’acqua di mare è l’ultimo, innovativo progetto nato dalla collaborazione dei panificatori associati all’Unipan con Termomar e il Consiglio Nazionale delle Ricerche

mentre l’ANSA nell’Aprile di quest’anno (2019) scriveva:

Arriva il pane all’acqua di mare. E’ senza sale, ma saporito e povero di sodio

a cui faceva seguito il sito de La Cucina Italiana che riportava:

È iposodico e contiene il triplo di magnesio, il quadruplo di iodio, più potassio, ferro e calcio. Adesso viene distribuito anche nei supermercati

Anche il National Geographic ha riportato la notizia scrivendo che:

Lo ha prodotto il CNR, contiene meno sale rispetto a un filone prodotto con acqua dolce, ed è più ricco di iodio, magnesio e potassio

Insomma un tripudio alla genialità italiana che ha confermato il luogo comune secondo cui siamo un “popolo di eroi, di santi, di poeti, di artisti, di navigatori, di colonizzatori, di trasmigratori” e … di scopritori.

Cosa c’è di vero in tutto quello che è stato riportato dalle agenzie di stampa?

Ovviamente i giornalisti non hanno inventato nulla. È vero che un team di ricercatori italiani ha prodotto un tipo di pane usando acqua di mare e lo ha confrontato col pane prodotto in modo tradizionale ottenuto con acqua di rubinetto ed il comune sale da cucina. È anche vero che gli stessi ricercatori hanno posto un accento particolare sulle proprietà salutistiche del pane da essi “inventato” evidenziandone le qualità superiori rispetto al pane che da sempre siamo abituati a mangiare. La loro “invenzione” è stata oggetto di una pubblicazione su International Journal of Food Properties, una rivista della Taylor & Francis con un Impact Factor di 1.845 per il 2017, dal titolo: “Bread chemical and nutritional characteristics as influenced by food grade sea water”. Quello che i tutti i giornalisti e commentatori non sono stati in grado di fare è una valutazione critica dello studio pubblicato, posto che lo abbiano mai letto. Ma possiamo capire. Il loro compito non è fare valutazioni critiche di lavori pubblicati su riviste scientifiche. Sono pagati per riportare la cronaca di ciò che trovano in rete o che viene loro dato in pasto dalle agenzie di stampa degli Enti di Ricerca, come il CNR, che intendono pubblicizzare le proprie attività interne. Un pane salutistico fatto con l’acqua di mare attrae certamente l’attenzione sia verso l’Ente che ha sovvenzionato la ricerca che verso i giornali che riportano la notizia. Ma quanto c’è di vero nel lavoro che si può facilmente scaricare da questo link?

Avvertenze

Da questo momento in poi la lettura può diventare noiosa perché siamo costretti ad entrare in particolari tecnici senza i quali non è possibile rispondere alla domanda che dà il titolo a questo articolo. Naturalmente, è possibile “saltare” direttamente alle conclusioni se non avete voglia di seguire tutti i passi che ci conducono alla constatazione che lo studio pubblicato è superficiale, progettato ed eseguito male e non giustifica affatto l’esaltazione giornalistica di cui abbiamo già riportato. Ma andiamo con ordine.

Una analisi critica

Nella sezione dedicata ai Materiali e Metodi, gli autori scrivono che l’acqua di mare è stata fornita dalla Steralmar srl, una ditta di Bisceglie (in provincia di Barletta-Andria-Trani, BT). Tuttavia, una attenta lettura dell’intero lavoro evidenzia che da nessuna parte gli autori riportano la benché minima analisi chimica dell’acqua che hanno deciso di usare per la produzione del “loro” pane. Non è riportata neanche l’analisi chimica dell’acqua di rubinetto usata per la produzione del pane usato come controllo per il confronto con il pane “innovativo”. Eppure gli autori discutono delle diverse composizioni chimiche delle tipologie di pane che hanno prodotto. Basta leggere le Tabelle 1 e 2 per rendersi conto di quanto essi ritengano rilevanti le differenze in termini chimici tra i pani prodotti. Tutti i ricercatori sanno che quando si cercano differenze tra prodotti ottenuti in modo differente occorre fornire dei validi punti di partenza per poter capire se le differenze che si evidenziano sono dovute ad errori sperimentali o ai “reagenti” che si utilizzano. Ed allora: qual è la concentrazione salina dell’acqua di mare e dell’acqua di rubinetto?  È presente sostanza organica disciolta in entrambe? Ed il loro pH: è lo stesso o è differente?

Il cloruro di sodio

Prendiamo, per esempio, la Tabella 1. Gli autori scrivono che il pane prodotto con acqua di rubinetto (TWB) è stato ottenuto aggiungendo 15 g di cloruro di sodio (quello che nel linguaggio comune è il sale da cucina) a 300 mL di acqua di rubinetto. Nella stessa tabella, non c’è alcuna indicazione sull’ammontare di cloruro di sodio contenuto nei 300 mL di acqua di mare usata per fare il “pane all’acqua di mare” (SWB). Nonostante ciò, gli autori concludono che il pane SWB contiene meno sodio rispetto a quello TWB e ne suggeriscono l’uso nelle diete iposodiche.

Ma per entrare nel merito, proviamo a fare quelli che vengono indicati come “i conti della serva”.

15 g di cloruro di sodio (NaCl) contengono 5.9 g di sodio (diciamo che nel pane TWB ci sono circa 6 g di sodio). L’acqua di mare contiene in media circa 27 g kg-1 di NaCl. Dal momento che la densità media dell’acqua di mare è di circa 1.02 g mL-1 a 4 °C, ne viene che la quantità di cloruro di sodio in 300 mL di acqua di mare corrisponde a 8.3 g. Nei circa otto grammi di cloruro di sodio sono contenuti circa 3 g (3.2 g, per la precisione) di sodio.

In termini percentuali, il contenuto in cloruro sodio per ogni panello non ancora cotto si calcola come:

che per il pane TWB restituisce un contenuto di NaCl pari a 1.6% (ovvero circa 2%), mentre per il pane SWB dà un valore di 0.86% (ovvero un po’ meno dell’1%).

Se, tuttavia, teniamo conto di tutti i possibili sali presenti nell’acqua di mare (la salinità dell’acqua di mare, che NON è dovuta solo al cloruro di sodio – ricordiamo che nel linguaggio chimico, il termine “sale” si riferisce a composti ottenuti per reazione tra un acido e una base – è di circa 35 g kg-1) e che essi non vengono rimossi durante la preparazione del pane, si ottiene che il pane SWB ha un contenuto salino pari a 1.1%.

In base ai contenuti di acqua riportati dagli autori per entrambi i tipi di pane (32.4% e 32.5% per TWB e SWB, rispettivamente), se ne ricava che il contenuto salino per TWB e SWB, come riportato nella Tabella 2 dello studio che stiamo valutando criticamente, non dipende da come il pane viene preparato e cotto, bensì dalla quantità di sale che gli autori decidono scientemente di aggiungere. In altre parole, considerando che l’acqua di mare contiene meno cloruro di sodio di quanto usato per la produzione del pane con la tecnica tradizionale, ne viene che il pane SWB ha meno sodio di quello TWB. Ma gli autori non avrebbero potuto ottenere lo stesso pane tradizionale iposodico aggiungendo meno sale da cucina nel loro preparato di controllo? Per esempio, se avessero preparato un pane tradizionale usando 11 g di cloruro di sodio, invece che i 15 g descritti, avrebbero ottenuto un pane TWB identico, per quanto riguarda il contenuto sodico, a quello SWB. Perché non l’hanno fatto?

Il contenuto di sodio e gli errori analitici

Centriamo la nostra attenzione sui dettagli della Tabella 2. Qui gli autori scrivono che hanno rilevato 1057 e 642 mg di sodio nel pane TWB ed in quello SWB, rispettivamente. Tuttavia, alla luce dei “conti della serva” fatti prima, il contenuto di sodio in TWB avrebbe dovuto essere molto di più (ricordiamo che ci dovrebbero essere circa 6 g, ovvero 6000 mg, di sodio in TWB). Cosa è accaduto? Si è perso cloruro di sodio durante la cottura? Come mai? E come mai gli autori non ritengono che possa essere accaduto lo stesso per il pane SWB? La cosa più grave, tuttavia, a nostro avviso è che gli autori riportano quattro cifre significative per il contenuto di sodio in TWB e tre per quello contenuto in SWB senza alcun accenno di errore sperimentale (per il significato di cifre significative e propagazione dell’errore sperimentale si rimanda al seguente link). Senza l’indicazione dell’errore commesso durante gli esperimenti, 1057 e 642, sebbene possano apparire diversi in termini matematici, sono, in realtà, lo stesso numero.

In realtà, dobbiamo anche ammettere che se guardiamo la Tabella 3, gli autori riportano che il contenuto di sodio in SWB è pari a 6492 mg kg-1 (quattro cifre significative senza errore. Significa che 6492=6500=6400=6300 etc. etc. SIC!) mentre quello in TWB è di 10570 mg kg-1 (cinque cifre significative senza errore. Significa che 10570=10600=10500=10400 etc. etc. SIC!).

Tralasciando per il momento la scorrettezza con cui gli autori riportano i loro risultati ed assumendo che quei valori siano verosimili, ne viene che dalle analisi svolte, il pane ottenuto mediante l’uso di acqua di rubinetto contiene circa 11 g di sodio. Dal momento che i “calcoli della serva” ci dicono che il contenuto di sodio aggiunto in TWB è di circa 6 g, ne viene che circa 5 g di sodio provengono dagli altri ingredienti usati per la produzione del pane.

Andiamo a vedere qual è il contenuto di sodio in SWB. Gli autori dichiarano di aver rilevato circa 7 g di sodio (6492 mg sono appunto 6.5 g ovvero circa 7 g) a fronte dei 3 g di sodio ottenuti dai “calcoli della serva”. La differenza di 4 g è attribuibile ai materiali usati per la panificazione.

La differenza tra sodio aggiunto e sodio trovato in TWB e SWB evidenzia, semmai ce ne fosse stato bisogno, l’importanza nel riportare correttamente gli errori nella valutazione quantitativa dei parametri necessari a distinguere tra prodotti ottenuti usando materiali di partenza identici tranne per l’acqua usata per la panificazione.

Si potrebbe dire: “va bene. In un caso il materiale di partenza fornisce 5 g di sodio, nell’altro 4 g. La differenza di 1 g rientra nell’ambito di un errore sperimentale”.

In realtà non è così.

Gli autori riportano chiaramente che il sodio trovato in TWB è pari a 10570 mg kg-1, ovvero per ogni chilogrammo di pane ci sono 10.570 g di sodio. Dai calcoli sopra riportati, il contenuto di sodio aggiunto è 5.9 g. La differenza è 4.67 g. Nel caso di SWB la differenza tra sodio trovato (6.492 g) e sodio aggiunto (3.2 g) equivale a 3.292 g. Alla luce di quanto finora illustrato ne viene che a parità di materiale (ricordiamo che la differenza tra i pani prodotti è solo nella tipologia di acqua) in un caso il contributo al contenuto di sodio è più alto che nell’altro. Chissà perché in TWB, il contenuto di sodio dovuto al materiale usato per la panificazione è più alto di 1.378 g rispetto a SWB.

Le domande, a questo punto sorgono spontanee: come mai gli autori non hanno fatto una adeguata analisi degli errori sperimentali? Come mai non hanno preparato un pane completamente privo di sale da usare come controllo? Come mai non hanno preparato un pane del tipo TWB con un contenuto più basso di cloruro di sodio da usare come controllo? Come mai non hanno usato acqua di rubinetto proveniente da acquedotti diversi per produrre pane con caratteristiche differenti da confrontare con quello preparato con acqua di mare?

Ancora sull’analisi degli errori

I lettori attenti potrebbero obiettare alle cose che abbiamo scritto che non è vero che gli autori del lavoro non hanno riportato gli errori sperimentali. Lo hanno fatto. Infatti, nella Tabella 3, per esempio, è scritto che il contenuto di sodio in TWB è pari a 10570.000 ± 2.7320 mg kg-1. Insomma, per essere sicuri delle loro conclusioni e per sembrare più scientifici, gli autori hanno riportato un errore con ben quattro cifre decimali e cinque cifre in totale.

La teoria degli errori ci insegna che quando si riporta il valore numerico di una qualsiasi grandezza fisica, il numero di cifre che si possono usare non è quello che viene ottenuto dalla calcolatrice, bensì bisogna fermarsi alla prima cifra contenente l’errore. Facciamo un esempio prendendo proprio quanto scritto dagli autori dello studio sotto esame. Essi hanno scritto che il contenuto di sodio in TWB è  10570.000 ± 2.7320 mg kg-1. Stanno dicendo, in altre parole, che tutte le cifre indicate in grassetto (10570.000) sono affette da errore. In base alla teoria degli errori che tutti quelli che hanno affrontato studi scientifici conoscono (anche gli autori dello studio sotto indagine dovrebbero conoscere la teoria degli errori. Ma evidentemente non è così), il modo corretto per riportare il contenuto di sodio è: 10570 ± 3 mg kg-1. Queste considerazioni si applicano a tutte le cifre riportate in Tabella 3.

I limiti dell’analisi statistica

Gli autori hanno pensato bene di fare un’indagine statistica (Principal Component Analysis, PCA) che hanno riportato nella Figura 1 del loro studio. In questa indagine hanno rilevato che la PCA1 risponde per il 99% dei dati sperimentali.

Tutti quelli che a vario titolo si occupano di scienza ed usano la PCA per spiegare i loro dati sperimentali sanno che una PCA in cui una sola delle componenti ripsonde per il 99% dei dati non ha alcun significato fisico. Affinché una indagine PCA possa avere un significato attendibile è necessario che i dati sperimentali vengano “spalmati” tra almeno due componenti. Infine non c’è alcuna descrizione di come sia stata fatta l’analisi PCA.

Il conflitto di interessi

Last but not least, gli autori alla fine del loro studio affermano di non avere nessun conflitto di interessi. Ma come è possibile se uno di essi lavora proprio per l’azienda che fornisce l’acqua di mare e che non avrebbe alcun interesse a che vengano fuori risultati men che positivi?

Conclusioni

Ci possiamo fidare del lavoro tanto decantato e pubblicizzato dal mondo giornalistico? Alla luce di quanto detto, no. Il lavoro è stato progettato male perché mancano un bel po’ di campioni controllo, i dati sperimentali non sono attendibili e le analisi statistiche sono prive di significato fisico. Questo è uno studio che non avrebbe mai dovuto comparire in letteratura. Purtroppo non è così. I revisori non si sono accorti dei limiti anzidetti ed il lavoro oggi è pubblicato. Esso appartiene, ora, all’intera comunità scientifica che, come abbiamo fatto noi, può scaricarlo e criticarlo nel merito evidenziando la superficialità con cui questo studio è stato, purtroppo, condotto.

Fonte dell’immagine di copertina: Wikimedia Commons

Titolacci e titolini

Viviamo nel villaggio globale, non c’è dubbio.

La facilità con cui si possono avere le connessioni di rete per navigare in quel mare magnum caotico che è internet, promuove la diffusione veloce in ogni parte del globo di ogni tipo di informazione.

La cultura internettiana promuove l’evoluzione del nostro linguaggio e, di conseguenza, anche del nostro modo di pensare ed affrontare i problemi.

Qual è il modo migliore per attirare un utente sulla propria pagina? Bisogna incuriosirlo e fornirgli un’immagine o un titolo che possa spingerlo a cliccare e ad entrare nel sito. Non importa se l’utente leggerà o meno ciò che è scritto. Ancora meno importa se capirà ciò che leggerà. La cosa importante è attirare il click perché ad ogni click corrisponde un introito pubblicitario. Più click, più pubblicità, più soldi. Ecco, infine, la filosofia che predomina in rete. Ogni click è denaro.

Questa filosofia si è impadronita anche della carta stampata. Non che prima dell’avvento della rete non fosse così. La vendita delle copie dei giornali era legata all’abilità dei titolisti di fornire un titolo accattivante alle notizie di rilievo in modo tale che il passante venisse attirato e comprasse il giornale. Potrei dire che non c’è nulla di male in tutto ciò. Il problema è che gli addetti al settore ci dicono che oggi stiamo vivendo nel periodo della cosiddetta post-verità. Con questo termine “qualcuno indica una modalità di comunicare secondo la quale i fatti oggettivi sono meno rilevanti rispetto alle emozioni ed alle convinzioni” [1]. In ambito scientifico, questo significa diffusione di pseudoscienza di cui esempio sono l’omeopatia, l’agroomeopatia, l’agricoltura biodinamica, le sciocchezze che si leggono in merito alla Xylella e così via cantando.

Ma veniamo a noi.

Il 4 Luglio nell’inserto Scienze del quotidiano La Repubblica  appare un articolo dal titolo “E il moscerino cominciò a mangiare bio” con sottotitolo “Studenti di Foligno, come i veri biologi, hanno osservato gli effetti provocati dagli alimenti” (Figura 1).

Figura 1. Titolo dell’articolo apparso nell’inserto Scienze di La Repubblica del 4/07/2019

Fermiamoci al titolo ed al sottotitolo. Se io fossi uno che ha “fede” nell’agricoltura biologica, penserei “Mooooolto interessante. Hanno sicuramente fatto esperimenti per stabilire se i prodotti bio sono “attaccati” dai moscerini ed hanno visto che tra un alimento da agricoltura tradizionale ed uno da agricoltura bio, i moscerini, che fessi non sono, hanno cominciato a mangiare i secondi. Figo! È chiaro che i prodotti bio sono i preferiti anche dagli insetti“.

Ma leggiamo l’articolo (Figura 2)

Figura 2. Articolo che descrive l’esperimento fatto da studenti di Foligno

Gli studenti, provenienti da diversi istituti della cittadina umbra e impegnati in un programma di alternanza scuola-lavoro, […] sentono parlare sempre di “bio” e così si sono chiesti quali fossero gli eventuali effetti di regimi alimentari diversi, basati sul consumo di prodotti derivanti da agricoltura biologica e non“.

E già da questa introduzione si capisce che il titolo (titolaccio o titolino?) non c’entra proprio ma proprio nulla con l’esperienza fatta dagli studenti né con la qualità degli alimenti prodotti seguendo il disciplinare del biologico. In altre parole, gli studenti devono aver utilizzato due popolazioni differenti di moscerini alle quali sono stati somministrati prodotti differenti: da un lato alimenti da agricoltura tradizionale, dall’altro alimenti biologici. Insomma, non è che i moscerini preferiscono i secondi rispetto ai primi. Sono stati costretti a nutrirsi di biologico.

Ma andiamo avanti.

Abbiamo costruito un esperimento, utilizzando moscerini appartenenti a diverse specie di Drosophila, […] che condivide con gli esseri umani il 70 percento del patrimonio genetico. Nel corso dello studio i ragazzi hanno verificato gli effetti di una dieta sulla fertilità“.

Si incomincia a vedere la luce in fondo al tunnel. Gli studenti hanno misurato la numerosità della popolazione dei moscerini appartenenti a diverse specie di Drosophila, quando questa è soggetta a due diversi regimi alimentari: con prodotti da agricoltura tradizionale e con biologico. I moscerini non possono scegliere: o si mangiano quella minestra o si buttano dalla finestra (si diceva quando io ero piccolo).

E ancora

Nel corso dell’esperimento i ragazzi hanno riscontrato una maggiore fertilità dei moscerini alimentati con cibo non bio, osservando però che lo sviluppo di muffe negli alimenti bio potrebbe aver influito sulla deposizione delle uova – a cui il pasto fa anche da “incubatrice” – e la crescita della prole“.

E finalmente siamo giunti al punto cruciale. La popolazione di moscerini costretta ad alimentarsi con prodotti bio si è ridotta di dimensioni. Il motivo? Nella lotta alla sopravvivenza, tutti gli organismi viventi competono per le stesse fonti alimentari. I moscerini, in questo caso, competevano con le muffe che erano in grado di aggredire più velocemente i prodotti bio rispetto a quelli da agricoltura convenzionale. La conseguenza è stata che i moscerini alimentati a bio hanno perso la guerra per la sopravvivenza. Quelli che, invece, erano costretti a mangiare cibo da agricoltura tradizionale erano più fertili perché le muffe non erano efficienti come quelle che si sviluppavano sugli alimenti bio.

A questo punto mi si potrebbe dire: vedi che il biologico è migliore? I prodotti da agricoltura convenzionale sono meno suscettibili di attacco da muffe a causa dei “veleni” che vengono usati. Chi fa questa considerazione è semplicemente uno che non ha capito nulla di quanto scritto fino ad ora e soffre di analfabetismo funzionale. Noi siamo esseri viventi come i moscerini. Questi ultimi hanno perso la guerra contro le muffe. Le muffe che sconfiggono i moscerini sono le stesse che sconfiggono noi. Un alimento aggredito da muffe non è edibile e ci viene sottratto. I composti usati per la lotta alle muffe non sono un rischio per l’essere umano se usati seguendo tutte le indicazioni codificate. Il problema, quindi, non è il composto chimico ma l’essere umano stesso. Se uno fa un uso criminoso di un composto chimico, non è quest’ultimo a dover essere condannato, ma il criminale che lo usa in modo sconsiderato.

Conclusioni

Il titolaccio dell’articolo di La Repubblica lascia intendere qualcosa che non ha nulla a che fare con la realtà sperimentale che è stata messa in atto dai volenterosi studenti di Foligno. Gli studenti sono stati bravissimi; il titolista dell’inserto Scienze di La Repubblica molto meno. Bocciato. Si ripresenti alla prossima sessione!

Riferimenti

[1] A.M. Lorusso (2018) Postverità, Edizioni Laterza

Fonte dell’immagine di copertina

https://www.theatlantic.com/science/archive/2018/02/fruit-fly-drosophila/553967/

Share