“Cosa c’entra Giulio Cesare con i cambiamenti climatici?”, vi starete chiedendo. Oppure state pensando: “ed ecco un altro prof. che è andato fuori di testa e fa associazioni pseudoscientifiche come capita a tutti”.
Ebbene no, miei cari lettori. Proprio ieri ho comprato il numero di Agosto 2020 della rivista Le Scienze. Ogni tanto ho bisogno di leggere riviste divulgative serie per fare pace con il mondo e convincermi che non tutto è perduto. Sapeste cosa mi scrivono certi figuri nei commenti del blog! Faccio passare solo i commenti che mi divertono di più, ma ce ne sono altri che, al confronto, la teoria della memoria dell’acqua è roba seria.
Ma torniamo a Giulio Cesare ed ai cambiamenti climatici.
Dicevo che ho preso Le Scienze di Agosto. A pagina 24, ci sono 13 righe in cui si parla delle cause che hanno portato Roma a diventare Impero dopo l’assassinio di Giulio Cesare occorso alle idi di Marzo del 44 a.C.. La notizia la potete leggere anche qui.
Devo dire che la lettura mi ha incuriosito ed ho cominciato a cercare in rete. Quello che ho trovato mi ha molto affascinato.
Pensate: è documentato che nel periodo immediatamente successivo a quello in cui Cesare fu assassinato, ci sono stati un paio di anni di freddo intenso. La temperatura, pare, si sia abbassata di circa 7 °C, mentre le precipitazioni si fecero molto più intense aumentando dal 50 al 120 % rispetto agli anni precedenti. Potete facilmente immaginare cosa vuol dire a livello agricolo un abbassamento della temperatura ed un aumento della pioggia di tale intensità. Ci sono stati sicuramente momenti di carestia che, assieme ai problemi politici che si sono presentati nello stesso periodo, possono essere considerati la concausa del passaggio dalla Repubblica all’Impero. In effetti, le peggiorate condizioni di vita dei contadini nel I secolo avanti Cristo, portarono a scontri sociali che si conclusero con la pace Augustea che riportò ordine nella società romana (Riferimento).
Una delle ipotesi che è stata formulata per spiegare le peggiorate condizioni di vita dei contadini romani nel I secolo a.C. è l’eruzione dell’Etna avvenuta nel 44 a.C. (Riferimento). Si è ipotizzato che tale eruzione avesse portato in atmosfera una quantità tale di polveri sottili da schermare i raggi del sole e provocare gli sconvolgimenti climatici associati ai periodi di carestia summenzionati. Tuttavia, pur rimanendo valida l’idea che una eruzione vulcanica fosse stata responsabile del cambiamento climatico iniziato a cavallo del 43-44 a.C., l’ipotesi dell’effetto dell’eruzione dell’Etna sul clima della penisola è stata sempre abbastanza controversa (Riferimento).
All’inizio di Luglio è apparso su Proceedings of the National Academy of the United States of America (PNAS), una rivista molto quotata nel mondo scientifico, un articolo a firma di un gruppo di ricercatori di diversa nazionalità dal titolo: “Extreme climate after massive eruption of Alaska’s Okmok volcano in 43 BCE and effects on the late Roman Republic and Ptolemaic Kingdom”. Lo potete scaricare, previo pagamento di 10 USD, cliccando sull’immagine qui sotto.
In questo lavoro i ricercatori hanno discusso delle analisi effettuate su carote di ghiaccio prelevate nell’Artico. Essi hanno evidenziando come la più probabile causa degli sconvolgimenti climatici occorsi nel I secolo a.C. fosse non l’eruzione dell’Etna, ma quella del vulcano Okmok situato in Alaska.
Nell’immagine qui sotto potete avere contezza delle distanze a livello planetario tra la posizione del vulcano ed il continente Europeo.
Sembra strano che l’eruzione di un vulcano così distante dall’Europa possa averne influenzato il clima, vero?
Vediamo allora cosa hanno fatto gli studiosi.
A quanto pare ogni vulcano ha una impronta chimica univoca in termini di molecole immesse in atmosfera per effetto delle eruzioni. I ricercatori hanno non solo attribuito le sostanze trovate nelle carote di ghiaccio proprio al vulcano Okmok, ma hanno anche datato l’eruzione relativa alla seconda metà del I secolo a.C.. Inoltre, usando i dati chimici identificati nelle carote di ghiaccio, i ricercatori hanno fatto delle simulazioni computazionali. In base ad esse, hanno potuto stabilire che intorno al 43 a.C. l’eruzione dell’Okmok ha portato in atmosfera tante di quelle particelle che si è avuta una riduzione della temperatura non solo in Europa, ma anche nel continente Africano. Come controprova delle loro simulazioni, i ricercatori hanno anche effettuato analisi dendrologiche che hanno confermato le ipotesi sul ruolo dell’Omkok nelle variazioni climatiche del I secolo a.C..
Interessante, vero, come un’eruzione vulcanica a migliaia di chilometri di distanza dall’Europa possa aver indirizzato la politica romana.
Sapete che cosa è la chimica delle sostanze naturali? Si tratta di una branca della chimica che studia le proprietà chimiche (per esempio, struttura e conformazione) e la reattività di metaboliti primari e secondari delle piante e degli animali. La Treccani ne dà una bella definizione:
“È quel settore delle scienze chimiche che ha per oggetto lo studio della struttura, delle proprietà chimiche, delle trasformazioni delle sostanze organiche presenti negli organismi viventi (animali, piante o microorganismi), nonché del loro ruolo biologico”.
Perché vi sto dando questa definizione? Semplicemente perché sto leggendo un bel libro dal titolo “Storia dei veleni. Da Socrate ai giorni nostri” (Figura 1) in cui si descrivono le potenzialità venefiche di tantissime sostanze di origine naturale.
Non credo sia una novità che l’uso dei veleni sia noto fin dall’antichità. Essi venivano utilizzati sia per la caccia che per la guerra. Per esempio, nella seconda metà del XIX secolo, Alfred Fontan descrisse degli interessantissimi ritrovamenti nella grotta inferiore di Massat, nell’Ariège (Figura 2), un sito risalente all’epoca magdaleniana.
In particolare, tra i tanti reperti, furono individuate delle punte di lancia e freccia con delle interessanti scalanature (Figura 3).
Negli anni successivi gli studiosi hanno compreso che le scanalature sulle punte di freccia e lancia servivano per fare aderire i veleni in modo tale che le prede (o i nemici), una volta colpiti anche in modo non mortale, potessero morire per effetto del veleno introdotto attraverso le ferite. Ancora oggi le popolazioni primitive che vivono nelle zone meno esplorate del pianeta fanno uso, per la caccia o per la guerra, di punte simili a quelle ritrovate nelle grotte di Messat .
Siete curiosi di sapere come si fa a rendere “velenosa” una punta di freccia o di lancia?
I veleni, come leggerete nel paragrafo successivo, vengono per lo più estratti dalle piante. Jean de Maleissye, nel libro che sto leggendo, ci spiega come facevano alcune popolazioni dello Zimbabwe a preparare le loro armi. Molto verosimilmente, la stessa tecnica era applicata dalle popolazioni primitive.
“Si faceva a pezzi la pianta, la si mescolava ad acqua e si faceva bollire il tutto per molto tempo. Poi si lasciava ridurre il liquido finché non si addensava, assumendo la consistenza della pece. Il veleno veniva fissato sull’estremità superiore dell’arma tramite una cordicella che gli indigeni arrotolavano attorno alla punta. Lo spazio libero fra ogni spira di corda tratteneva infatti il veleno, quando vi si immergeva la punta dell’arma. Si lasciava seccare il preparato velenoso, poi si toglieva il filo. Con tutta probabilità, la cordicella consentiva di trattenere il veleno su superfici minuscole. Tale artificio impediva infatti al veleno di staccarsi prematuramente in grandi placche”.
Come cacciavano le popolazioni della civiltà magdaleniana?
Non lo sappiamo, in realtà. Possiamo immaginare dalle ricostruzioni basate sugli utensili ritrovati in giro per l’Europa, che i magdaleniani “dopo aver colpito con una o più frecce avvelenate un grande cervo o una renna, [ne seguono] le tracce per ore o anche per giorni, fintanto che, stremato dal veleno, dalla perdita di sangue e dallo sforzo compiuto, il grande animale non crolla in un bosco ceduo” (Fonte). Una volta catturata la preda, i cacciatori rimuovono la parte avvelenata e fanno a pezzi tutto il resto della carcassa che viene usata per alimentarsi.
Origine dei veleni
In genere si tratta di sostanze che vengono estratte dalle piante. Una di queste è la Aconitum napellus o aconito, una pianta che cresce in zone montuose e nota, per le sue proprietà tossiche, già a i tempi dei Galli e dei Germani (Figura 4).
Le sue parti, incluse le radici, contengono miscele complesse di alcaloidi quali: aconitina, napellina, pseudoaconitina, aconina, sparteina, efedrina (Figura 5).
Tutte queste molecole hanno attività neuro- e cardio-tossica. La loro dose letale è dell’ordine di pochi milligrammi (1-4 mg) per chilogrammo di peso corporeo. Immaginate, quindi, cosa può succedere se una freccia avvelenata con questa miscela di alcaloidi vi colpisse anche in un punto non vitale. Il veleno entrerebbe nel sangue e sareste soggetti a “rallentamento dei battiti cardiaci, diminuzione della pressione arteriosa e rallentamento del ritmo respiratorio” fino a paralisi cardiaca e respiratoria (Fonte). Anche l’ingestione di questa miscela di alcaloidi porta alla stessa fine.
Ma volete sapere un’altra cosa? Avete presente la “potentissima” medicina tradizionale cinese?
Ebbene, nel 2018, è stato pubblicato un lavoro di revisione della letteratura scientifica in merito alla tossicità degli alcaloidi dell’aconito. Il lavoro è liberamente scaricabile qui. Nell’introduzione si evidenzia come gli estratti della radice di questa pianta siano usati nella medicina tradizionale cinese come rimedi per problemi cardiovascolari, artriti reumatoidi, bronchite, dolori generici e ipotiroidismo. Non sono un medico, però a me sembra quasi la panacea di ogni male (mi correggano i medici che leggono questo articolo se sbaglio, per favore). Nella stessa introduzione viene anche rilevato che le autorità sanitarie di molti paesi asiatici sono costrette a regolamentare l’uso di questo preparato a causa della sua elevata tossicità. Infatti, tra il 2001 e il 2010 sono stati osservati, per esempio, ben 5000 casi di tossicità da alcaloidi di aconito. Come mai tutte queste intossicazioni? Semplicemente perché, come evidenziato anche in un lavoro del 2019 pubblicato suForensic Science, Medicine and Pathology, una rivista della Springer con impact factor nel 2019 di 1.611 (si può liberamente scaricare qui), gli estratti di aconito vengono usati senza prescrizione medica ed è facile usare la logica spicciola secondo cui se la quantità x mi permette di guarire, allora la quantità xn mi farà guarire più velocemente.
Conclusioni
La natura ci è nemica? Neanche per sogno. Allora ci è amica? neanche per sogno parte seconda. Alla natura non importa nulla di noi. I veleni possono essere considerati la risposta evolutiva delle prede ai predatori. Quando, in modo casuale ed imprevedibile, una modifica genetica consente la nascita di una pianta con un corredo metabolico appena un po’ diverso da quello delle sue “compagne”, è possibile che essa diventi indigesta, ovvero tossica, per i predatori. Questa nuova caratteristica favorisce la sopravvivenza della pianta modificata rispetto alle sue “sorelle” non modificate. Nel momento in cui tutte le piante non modificate si sono esaurite a causa della pressione alimentare dei predatori, rimangono in vita solo quelle modificate da cui i predatori si tengono lontani… a meno di non capire che esse possono essere sfruttate non a fini alimentari ma per la caccia e per la guerra.
Nella prima parte di questo reportage (che appare nella Newsletter della Società Italiana di Scienza del Suolo) ho discusso dei limiti del sistema chiuso delle riviste scientifiche. In quella sede, l’aggettivo “chiuso” si riferiva al fatto che le case editrici non permettono l’accesso libero dei ricercatori agli studi che vengono pubblicati: neanche ai loro stessi lavori. Quante volte mi è capitato, per esempio, di dover chiedere il favore a qualche collega straniero di scaricare per me i miei stessi lavori e di inviarmene una copia in pdf? Ormai non le conto più. Le conclusioni del precedente articolo (le trovate qui sotto) erano che il sistema chiuso sul quale si è basata la diffusione delle ricerche scientifiche fino ad ora, non è sostenibile sotto l’aspetto economico.
Meglio l’open access, allora? La pubblicazione open access è quel tipo di articolo per cui chi legge non ha bisogno di pagare nulla. In altre parole, se tutti noi che, a vario titolo, ci occupiamo di scienza cominciassimo a pubblicare in maniera “open”, tutte le università e centri di ricerca risparmierebbero un bel po’ di soldi che potrebbero essere investiti in ben altro: borse di studio, nuovi reclutamenti di ricercatori e docenti, apparecchiature scientifiche e…chi più ne ha, più ne metta.
Devo dire che questa è la realtà ideale. Vado nel mio ufficio, mi siedo alla scrivania, accendo il computer e faccio la mia ricerca bibliografica. Dal momento che tutti pubblichiamo in open access, la mia università non ha necessità di pagare alcun abbonamento (esoso) ed io posso accedere e scaricare tutto quello che voglio.
Bello il mondo ideale, vero?
Il problema è che le case editrici tutto sono tranne che enti filantropici. Da qualche parte devono pure far soldi. Ed in effetti il problema economico si è spostato: non sono più le università a dover pagare per gli abbonamenti in modo da consentire ai ricercatori di poter essere aggiornati, ma sono i ricercatori che, per poter pubblicare su una rivista open access, devono pagare una tassa di pubblicazione. Questa tassa è dovuta solo se il lavoro supera il processo di peer review e viene accettato per la pubblicazione.
A questo punto, il più scafato tra noi ha già capito quale è l’inghippo. Ma andiamo con ordine.
Vi riporto qui sotto una tabella in cui è possibile leggere il costo (in dollari statunitensi per omogeneità di riferimento) che dovrei sostenere per pubblicare in maniera open su alcune delle riviste del mio settore o su alcune di quelle che si adattano meglio alla tipologia di ricerca che faccio (chimica-fisica ambientale):
Queste sono solo alcune delle riviste serie che sono completamente open (ACS Omega) oppure ibride (tutte le altre della lista), ovvero consentono all’autore di scegliere se pubblicare col sistema chiuso o quello open.
Ormai anche le pietre sanno che per il biennio 2018-2020 (prorogato fino a giugno 2021) sono uno dei commissari per l’abilitazione scientifica nazionale (ASN) per il mio settore concorsuale. Perché vi dico questo? Semplicemente per farvi capire che sono uno di quelli che conoscono abbastanza bene le regole che devono essere applicate sia per avere l’abilitazione che per superare un qualsiasi concorso universitario. Ebbene, tra queste regole (che non vengono stabilite dai commissari, ma calate dall’alto dal Ministero dell’Università) c’è il cosiddetto h-index – di cui ho parlato nel mio blog qui – nonché la somma degli impact factor delle riviste su cui un candidato ha pubblicato.
Non voglio aprire un altro fronte per cui non voglio discutere dell’aberrazione di una valutazione basata sui parametri anzidetti. Il mio scopo è solo quello di farvi capire che l’h-index di un ricercatore aumenta con l’aumentare delle citazioni e della visibilità dei suoi lavori.
Quando un articolo pubblicato diviene visibile e può avere alte possibilità di citazione? Ovvio…quando è open access, naturalmente.
Ed eccoci arrivati al punto: se ho tante pubblicazioni open access, a meno di non essere una capra e pubblicare sciocchezze sesquipedali, ho una ottima possibilità di essere visibile e di veder citati i miei lavori. Oddio…anche se pubblico sciocchezze sesquipedali ho ottime possibilità di essere citato…ma in negativo. E non è esattamente bello per la reputazione. Basta prendere in considerazione le sciocchezze pubblicate negli ultimi anni da un premio Nobel come Luc Montagnier, per rendersi conto che egli è oggi solo una patetica figura che cerca di riguadagnare quella visibilità che lo ha abbagliato – soddisfacendo il suo ego – quando ha vinto il premio Nobel nel 2008.
Ma sto divagando…
Considerando i costi che un ricercatore deve sostenere per poter pubblicare in open access, cosa si può concludere dalla disamina di questa seconda puntata?
Se sono un ricercatore che studia un ambito scientifico per cui è difficile reperire fondi, mi conviene il sistema chiuso. Faccio il mio lavoro col minimo di soldi che riesco a trovare, scrivo il mio rapporto scientifico e invio il lavoro ad una delle riviste che non mi chiedono di pagare per la pubblicazione. Pagherà chi ha bisogno di sapere cosa ho fatto, fermo restando che, come autore, posso inviare gratuitamente il lavoro pubblicato a chiunque me ne faccia richiesta.
Se sono un ricercatore che è in grado di attrarre molti fondi, mi conviene pubblicare sulle riviste open. Parte dei miei fondi sono, in ogni caso, destinati alla mia università per spese di gestione; mettiamo tra queste anche il libero accesso alle informazioni scientifiche. Questo implica una maggiore visibilità ed una maggiore penetrazione delle mie ricerche nel mondo scientifico, anche quello non direttamente collegato al mio specifico settore disciplinare. Maggiore visibilità per il ricercatore significa anche maggiore visibilità per l’istituzione di appartenenza che, quindi, ha tutto l’interesse a privilegiare l’open access invece che la pubblicazione chiusa. Ed infatti, attualmente molte, se non tutte, le università in Italia chiedono che i lavori scientifici vengano pubblicati anche sulle riviste open access.
Il problema è che quando il mercato diventa libero si innesca la concorrenza ed è possibile, anzi certo, che si possa incorrere in delle truffe.
Ma questo sarà oggetto del prossimo articolo nel prossimo numero della Newsletter.
Questo articolo è apparso nella Newsletter n. 13 della SISS (qui)
In esso ho solo accennato alla funzione delle mascherine chirurgiche. Ora voglio entrare nel dettaglio della loro chimica.
Alzi la mano chi di voi non ha mai sentito parlare del tessuto non tessuto detto anche TNT.
No…non è il trinitrotoluene, noto per la sua potenzialità esplosiva. Quindi, se tra i miei lettori c’è qualche appassionato di “fuochi artificiali” non cerchi di dar fuoco al TNT di cui parlo in questo articoletto perché non otterrà alcun botto particolare, ma solo una bella fiamma.
Torniamo a noi.
Se facciamo una banale ricerca in Wikipedia, si trova che il tessuto non tessuto è un materiale in cui non è possibile distinguere una trama ben precisa come nel caso dei normali tessuti che indossiamo. Insomma si tratta di un materiale che viene ottenuto mediante dei procedimenti industriali particolari che, per ora, non rappresentano oggetto di discussione.
Le sue peculiarità lo rendono molto versatile tanto è vero che viene utilizzato in diversi campi: da quello edilizio a quello tessile, fino ad arrivare al campo medico. Ebbene sì, anche in campo medico questo materiale viene utilizzato. Infatti, santo Google alla richiesta di informazioni sul tessuto non tessuto restituisce, tra i tanti siti web, un link a un’azienda che vende chilometri di tessuto non tessuto per la fabbricazione delle mascherine chirurgiche di cui oggi abbiamo estrema necessità a causa del virus SARS-CoV2.
Ma cosa è questo TNT? Appurato che la sigla non si riferisce al trinitrotoluene, noto esplosivo, di cosa si tratta?
Ebbene, non è altro che banalissima plastica. Il termine che ho appena usato non è molto corretto, se vogliamo essere puntigliosi. Infatti, “plastica” è un termine generico che si riferisce a una classe di composti molto differenti tra di loro sia per caratteristiche chimiche che caratteristiche fisiche.
La plastica con cui è fatto il TNT può essere o polipropilene o poliestere. In realtà, se vogliamo essere ancora puntigliosi, bisognerebbe parlare di poliesteri e non di poliestere. Infatti, anche questa è una classe di composti che differiscono tra loro per proprietà chimiche e fisiche. In ogni caso, sono più che sicuro che ne avete già sentito parlare, non foss’altro per il fatto che questi nomi li trovate scritti sulle etichette dei vostri capi di abbigliamento quando leggete che assieme al cotone essi contengono anche poliestere e polipropilene (Figura 1).
Per poter avere una idea di quali siano gli oggetti di uso comune che contengono le plastiche anzidette, potete far riferimento alla Figura 2.
Ma veniamo alle mascherine chirurgiche.
Esse sono fatte da strati sovrapposti di tessuti ottenuti sia con polipropilene che con poliestere. In particolare, lo stato esterno è costituito da un foglio di polipropilene che viene trattato per farlo diventare idrofobo e conferirgli resistenza meccanica. Lo strato intermedio può essere fatto sia da polistirene che da polipropilene che vengono lavorati in modo da produrre un foglio sottile con pori di diametro nell’intervallo 1-3 μm. Infine, il terzo strato (quando è presente) è fatto da polipropilene che ha il compito di proteggere il volto dallo strato intermedio filtrante (Figura 3). La capacità filtrante verso l’esterno (ovvero la capacità di trattenere le goccioline di sudore/saliva) di queste mascherine è molto elevata. Tuttavia, esse hanno una bassa capacità filtrante dall’esterno (Riferimento).
Insomma, da questa breve digressione avete capito che le mascherine chirurgiche che indossiamo in questi giorni sono fatte di plastica.
C’è un impatto ambientale di questa plastica? Beh…se l’argomento vi intriga posso rimandare ad un secondo articolo l’impatto che le mascherine che usiamo hanno sull’ambiente.
Avete voglia di saperne di più sulla risonanza magnetica nucleare a ciclo di campo che di tanto in tanto introduco anche nei miei articoli?
Venerdì 8 maggio 2020 sarà una giornata di studi dedicata proprio a questa tecnica ed alle sue applicazioni in diversi campi: dalla teoria alle applicazioni in campo oncologico a quelle in campo ambientale fino ad arrivare alle applicazioni in ambito energetico.
La giornata organizzata nell’ambito di un progetto COST, si svolgerà in modalità telematica sulla piattaforma WebEx. Per poter avere accesso ai webinar bisogna richiedere l’iscrizione al seguente indirizzo eurelax@matman.uwm.edu.pl chiedendo di partecipare a uno o a più seminari. Vi verrà inviata una mail con le indicazioni da seguire per potervi connettere.
Se volete avere una idea del programma e di come potersi iscrivere potete cliccare sulle immagini qui sotto.
Recentemente sul quotidiano Il Tempo è apparso un articolo dal titolo “Burioni, Pregliasco e Brusaferro . Gli esperti più scarsi del mondo” in cui i nomi di tre medici che ultimamente occupano le prime pagine dei giornali non sono neanche messi in ordine alfabetico. L’articolo che trovate qui è un attacco neanche troppo velato alla credibilità di questi tre professionisti che ci avvertono dei pericoli della pandemia da SARS-Cov-2. L’attacco viene sferrato usando uno dei parametri (non l’unico) utilizzato per la valutazione comparativa dei candidati a posti più o meno importanti nel mondo accademico e della ricerca scientifica: l’h-index.
Cos’è l’h-index?
Per i non addetti ai lavori, si tratta di un indice che serve per valutare l’impatto che il lavoro di uno scienziato ha sulla comunità scientifica di riferimento. Se un lavoro pubblicato è molto importante, esso viene citato tantissimo e l’h-index di quello scienziato aumenta in modo proporzionale al numero delle citazioni che riceve.
Nel mondo da classifiche calcistiche in cui viviamo, questo parametro sembra molto utile, vero?
In effetti sembra così. Il problema è che questo parametro deve essere necessariamente contestualizzato. Prima di usarlo è necessario entrare nel merito del lavoro di uno scienziato. Se così non fosse tutte le commissioni di cui faccio parte e di cui ho fatto parte (inclusa quella relativa all’Abilitazione Scientifica Nazionale del mio settore concorsuale) non avrebbero alcun senso. Se bastasse solo valutare il valore dell’h-index per fare una classifica di idoneità ad una data posizione accademica, non sarebbe necessario rompere le scatole ai docenti universitari per includerli nelle commissioni: basterebbe il lavoro di un semplice ragioniere che non dovrebbe fare altro che accedere ai data base accademici, estrarre il valore dell’h-index e, poi, mettere i nomi dei candidati in ordine di h-index decrescente. Al contrario, se a me serve un ricercatore che abbia esperienza in fisiologia vegetale, non vado a vedere solo il suo h-index, ma vado a valutare anche l’attinenza della sua ricerca con la posizione che egli deve occupare. Se al concorso si presenta un ricercatore in filologia romanza con h-index 40 ed uno in fisiologia vegetale con h-index 20, sceglierò il secondo dei due perché la sua attività di ricerca è più attinente al profilo di cui si sente il bisogno. Da tutto ciò si evince che l’articolo pubblicato su Il Tempo è fallace proprio in questo. Il giornalista, di cui non conosco il nome e neanche mi interessa perché sto valutando solo quello che ha scritto, ha messo a confronto gli h-index di una serie di scienziati più o meno famosi senza andare a vedere se i settori di cui essi si occupano sono congruenti gli uni con gli altri e se i lavori scientifici che hanno pubblicato siano congruenti con la virologia. Questo giornalista si è solo peritato di agire come un tipico ragioniere che legge dei numeri e li mette in fila dal più grande al più piccolo. Alla luce di questa classifica ha concluso che Burioni (persona che conosco personalmente e che stimo moltissimo) è uno scienziato tra i più scarsi del mondo. A questo giornalista non importa neanche minimamente ciò che il Prof. Burioni dice. Ciò che gli importa è che un parametro, che nel mondo universitario noi utilizziamo con tanta oculatezza, collochi questo scienziato in fondo alla classifica che egli ha deciso autonomamente di stilare senza tener in alcun conto delle differenze che possono esistere tra i diversi settori scientifici in cui gli scienziati da egli presi in considerazione si muovono. Ed allora perché non inserire nella stessa classifica anche il Prof. Guido Silvestri che ha un h-index di 66 (qui) e che si muove su posizioni analoghe a quelle di Burioni? Ma…poi…siamo sicuri che Anthony Fauci, con h-index 174 e consigliere di Trump, non sia in linea con quanto dicono Burioni e Silvestri? Il giornalista che ha scritto l’articolo che sto commentando, probabilmente, pensa di no. Non tiene conto del fatto che Trump è una scheggia impazzita, che gli americani hanno eletto a loro rappresentante uno che è fallito ben due volte, e che questa persona non brilli certo in quanto a cultura e preparazione scientifica.
Gli h-index e la credibilità scientifica.
Ora voglio usare gli stessi criteri del giornalista de Il Tempo per fare una mia classifica di scienziati. Partiamo dalla fisica. Penso che io non abbia bisogno di presentare Enrico Fermi. È una gloria italiana che ha dato un contributo notevole alla fisica mondiale. Trovate una sua biografia qui. Il suo h-index è 28 (qui). Incredibile vero? Nonostante abbia vinto un premio Nobel, Enrico Fermi ha un h-index confrontabile con quello di Burioni che il giornalista de Il Tempo ha giudicato scarso. Però in effetti sto confrontando un medico con un fisico, peraltro deceduto già da molto tempo. Non sono paragoni da fare. Andiamo a prendere un altro fisico che è diventato famoso qualche tempo fa, all’inizio degli anni 2000: Jan Hendrik Schön. Ho parlato di questo scienziato qui. Fu uno studioso della superconduttività nei sistemi organici. In odore da Nobel fino a che si scoprì che inventava i dati. Gli è stato ritirato anche il dottorato di ricerca. Ebbene, se andiamo a leggere l’h-index di Schön su Scopus, risulta che esso è pari a 32 (qui). In definitiva, usando i parametri del giornalista de Il Tempo, Enrico Fermi è più scarso di Jan Hendrik Schön. Ma quale tra i due ha maggiore credibilità? Enrico Fermi che ha lavorato seriamente ed ha dato un contributo alla fisica riconosciuto dall’intera comunità scientifica oppure Jan Schön che, invece, ha lavorato in modo poco serio arrivando ad inventarsi i dati pur di avere quella notorietà internazionale che non meritava?
Voglio continuare. Ritorniamo nel campo medico e prendiamo Wakefield. Sì, proprio il medico che è stato radiato dall’ordine dei medici e dalla comunità scientifica per aver inventato di sana pianta la correlazione tra vaccini ed autismo. Il suo h-index è 45 (qui) dovuto principalmente alle oltre 1500 citazioni che il suo lavoro su The Lancet, pubblicato nel 1998 e poi ritrattato una decina di anni dopo, sulla correlazione vaccini-autismo ha ricevuto. Usando i parametri del giornalista de Il Tempo, Burioni è più scarso di Wakefield. Ma voi nelle mani di chi mettereste la vostra salute: di Burioni o di Wakefield? Io non ho dubbi, per quanto mi riguarda: mi affiderei senza ombra di dubbi a Burioni.
Conclusioni
Ho scritto questo articolo per far capire quanta spazzatura ci sia in rete in merito a come vengono usati i numeri che hanno significato solo nell’ambito per cui quei numeri sono stati introdotti. Al di fuori dell’ambito accademico, l’h-index non può essere utilizzato. In ogni caso, anche in ambito accademico va utilizzato non in senso assoluto ma assieme a tutta una serie di parametri che servono per valutare la credibilità di uno scienziato. Usando un linguaggio matematico, l’h-index è condizione necessaria ma non sufficiente a farsi un’idea del lavoro di qualcuno.
Checché ne dicano chimici e fisici, le due discipline di cui essi sono rappresentanti sono strettamente correlate tra di loro. A certi livelli sono talmente incuneate l’una nell’altra che è difficile dire quando finisce la chimica e quando comincia la fisica. Prendete per esempio la quantomeccanica. Tutti quelli che ne parlano sono fisici, ma questa branca della fisica può essere considerata anche chimica grazie agli sforzi compiuti da Linus Pauling che, nella prima metà del XX secolo, si “inventò” la chimica quantistica, o quantochimica, per spiegare la natura del legame chimico (Figura 1).
Fino a che Pauling non si impadronì della quantomeccanica per adattarla alla chimica, la rottura e la formazione dei legami chimici rimase in una sorta di limbo che faceva dei chimici dei veri e propri praticoni, abilissimi nel “maneggiare” le molecole, ma ancora lontani dal poter prima progettare e poi realizzare in laboratorio quanto avevano in mente.
Perché vi scrivo tutto questo?
Dovete sapere che in questo periodo di quarantena sono costretto a fare lezione per via telematica. Mi manca fortissimamente il contatto con gli studenti ed il poter trasferire le mie conoscenze non solo con le parole ma anche con la prossemica e con l’attività di laboratorio. In questo contesto sto studiando le lezioni che devo fare nelle prossime settimane per il mio corso di “Recupero delle aree degradate”. Una delle ultime lezioni riguarda la contaminazione atmosferica. È proprio ripassando le diapositive che presenterò tra un paio di settimane che ho realizzato anche a me stesso ciò che dico normalmente agli studenti dei miei corsi: chimica e fisica sono parenti stretti; non si può capire la chimica se non si conosce la fisica e non si può comprendere a fondo la fisica se non si hanno anche conoscenze chimiche. Sono sicuro che i miei amici fisici dissentiranno da quanto ho appena scritto, ma lasciatemi dire che chi afferma che per conoscere la fisica non c’è bisogno della chimica ha profonde falle cognitive. È come dire che la conoscenza umanistica non serve a chi si occupa di scienza. In realtà, la conoscenza umanistica aiuta a pensare, a mettere ordine nelle proprie idee, nel proprio modo di esprimersi e nel modo di presentare ciò che sappiamo.
Ma andiamo con ordine.
La fisica dell’atmosfera è direttamente legata alla sua chimica.
Nella Figura 2 si evidenzia la geografia dell’atmosfera con l’indicazione dei cambiamenti di temperatura (quindi una proprietà fisica) che si osservano man mano che ci allontaniamo dalla superficie terrestre.
Usando il linguaggio tipico della Scienza del Suolo, la Figura 2 mostra il profilo dell’atmosfera nel quale è possibile individuare diversi orizzonti. L’orizzonte più vicino al suolo ha un’altezza di circa 16 km. Esso viene indicato col termine di troposfera in cui il suffisso “tropo” è di derivazione greca e vuol dire “mutazione”, “cambiamento”. La composizione chimica della troposfera è abbastanza complessa. Essa è costituita non solo da ossigeno ed azoto molecolari, ma anche da vapor d’acqua, anidride carbonica e tutte le altre varie anidridi come quelle di azoto e zolfo che hanno sia origine antropica che origine naturale. Per effetto dell’energia termica rilasciata dal suolo, le molecole di gas più vicine ad esso si riscaldano, diminuiscono di densità e si muovono verso l’alto venendo sostituite dalle molecole di gas più fredde e più dense che si trovano ad altezze maggiori. Si realizzano, quindi, delle correnti ascensionali (Figura 3) che sono sfruttate, per esempio, dai deltaplanisti o da chi è appassionato di volo senza motore.
È proprio grazie all’energia termica rilasciata dal suolo che possiamo spiegare perché nella troposfera la temperatura diminuisce con l’altezza. Infatti, più vicini siamo al suolo, più risentiamo del calore emesso dalla superficie terrestre. Più ci allontaniamo dal suolo, più si riduce la temperatura per effetto della dissipazione del calore che proviene dalla superficie terrestre.
Tra 16 e 50 km di altezza c’è l’orizzonte atmosferico che viene definito stratosfera. In questo orizzonte c’è una concentrazione media di ozono che è dell’ordine delle decine di parti per milioni (v/v) contro i 0.04 ppm medi presenti nella troposfera. Questa elevata concentrazione di ozono rende conto dell’aumento di temperatura che si osserva man mano che ci si allontana dalla superficie terrestre e si passa dai 16 ai 50 km di altezza. Infatti, le radiazioni luminose provenienti dal suolo, da un lato, consentono la degradazione dell’ozono (O3) ad ossigeno molecolare (O2) ed ossigeno radicalico (O∙) in una reazione esotermica, dall’altro consentono un aumento dell’energia cinetica dei gas della stratosfera con conseguente aumento dell’energia termica.
Tra 50 ed 85 km c’è l’orizzonte che chiamiamo mesosfera. In questo orizzonte si osserva di nuovo una diminuzione di temperatura all’aumentare dell’altezza. Infatti, la temperatura della mesosfera può arrivare fino a -90°C. Questa diminuzione di temperatura è legata alla riduzione della densità dei gas ivi contenuti. L’energia termica proveniente dal Sole, pur incrementando l’energia cinetica delle molecole di gas, non è, tuttavia, in grado (a causa della bassa concentrazione di tali gas) di portare ad un aumento della temperatura.
L’orizzonte incluso tra 85 e 500 km di altezza prende il nome di termosfera. La composizione chimica della termosfera vede la presenza di molecole di ossigeno e molecole contenenti azoto. La radiazione elettromagnetica proveniente dal sole consente la ionizzazione delle molecole anzidette in reazioni di tipo esotermico. L’esotermicità delle reazioni appena citate, associate all’aumento dell’energia cinetica dei sistemi gassosi presenti nella termosfera, portano ad un aumento della temperatura che può arrivare fino a 1200 °C. Gli ioni presenti nella termosfera non solo sono in grado di far “rimbalzare” le onde radio consentendo, quindi, le comunicazioni sul globo terrestre, ma sono anche responsabili delle aurore boreali. Infatti, essi assorbono energia solare riemettendola sotto forma di radiazioni luminose che danno luogo alle meravigliose scenografie che si osservano nell’emisfero Nord del nostro pianeta (Figura 4).
Conclusioni
Fa freddo lassù? La risposta corretta è: dipende. Dipende dall’altezza a cui ci troviamo e dalla chimica degli orizzonti del profilo atmosferico. Come dicevo più su, questo post nasce dal desiderio di condividere con voi le meraviglie di due discipline interconnesse tra loro: la chimica e la fisica. Come potete intuire leggendo questo breve articolo, le conoscenze chimiche riescono a spiegare i fenomeni fisici che si osservano nell’atmosfera. Spero possiate perdonare le inesattezze che sicuramente ho scritto e che tutto ciò possa innescare una discussione interessante.
In questi giorni di crisi in cui siamo costretti ad essere chiusi in casa per salvaguardare la salute nostra e di chi ci è caro, ci si annoia, si legge un libro, si gioca al computer, si vede un film, si lavora (i più fortunati come me possono farlo dal computer), si cucina…si fanno, insomma, tutte quelle attività che per i nostri nonni in tempo di guerra erano “normali”.
In questa situazione di crisi sanitaria capita di vedere di tutto. Quello che colpisce me è il gran numero di persone che fa uso di mascherine anche in situazioni in cui risultano inutili. Quanti di voi hanno visto automobilisti circolare da soli con la mascherina? E quanti sono quelli che portano a spasso il cane indossando la mascherina in zone solitarie dove è facile tenersi a distanze di sicurezza?
Al di là di ogni tipo di considerazione personale in merito all’uso delle mascherine, tutti noi siamo sicuramente venuti a conoscenza delle disposizioni delle autorità sanitarie che raccomandano l’uso delle mascherine solo a persone infette da coronavirus o a coloro che si trovano ad assistere queste persone. Per tutti gli altri le mascherine sono inutili.
Ma ci siamo mai chiesti come funziona una mascherina e perché le autorità danno certi consigli?
Io mi sono chiesto come diavolo funziona una mascherina ed è per questo che scrivo questo post: ho deciso di annoiarvi ancora più di quel che già non siete annoiati cercando di spiegarvi in cosa consiste questo oggetto che viene catalogato sui luoghi di lavoro come “dispositivo di protezione individuale” o “DPI” ed il cui uso è normato dal D.Lgs. 81/08.
Le dimensioni delle polveri sottili
In molti luoghi di lavoro il personale si trova ad operare in presenza di aerosol e polveri sottili. Queste ultime vengono in genere indicate come PMx, dove la x indica le dimensioni delle particelle espresse in μm.
Quando parliamo di aerosol e polveri sottili stiamo intendendo sistemi che, indipendentemente dalla loro composizione chimica, hanno delle dimensioni molto variabili. Se esse sono comprese tra 2 nm e 2 μm stiamo avendo a che fare con sistemi colloidali che rimangono dispersi in aria per effetto delle loro dimensioni. Grazie ad esse, infatti, la forza di gravità non è in grado di prevalere sulle forze dispersive come, per esempio, la repulsione tra cariche elettriche oppure le interazioni con le molecole di aria. Come conseguenza, le suddette particelle rimangono disperse in aria fino a che non intervengono fattori che consentono alla forza di gravità di predominare e permettere la deposizione al suolo delle stesse.
Le dimensioni delle polveri sottili in parole povere
Per darvi una idea di cosa significhino i numeri scritti sopra, tenete presente che il nm (si legge nanometro) corrisponde ad un miliardesimo di metro, mentre il μm (si legge micrometro) corrisponde ad un milionesimo di metro. Considerando che la lunghezza di un legame chimico, come il legame C-H, è di circa 0.1 nm, ne viene che 2 nm è una dimensione che corrisponde a circa 20 volte la distanza carbonio-idrogeno, mentre 2 μm corrisponde a circa 20000 volte la stessa distanza. Questo non vi dice ancora nulla, vero? In effetti, se uno non ha studiato chimica non si rende conto di quanto sia piccolo un legame chimico. Allora guardiamo la foto di Figura 1. Si tratta di un acaro della polvere le cui dimensioni sono di circa 0.5 mm, ovvero circa 250 volte più grande di 2 μm che rappresenta il limite superiore dell’intervallo dimensionale in cui ricadono le particelle colloidali. La foto di Figura 1 è stata ottenuta al microscopio elettronico. In altre parole, gli acari della polvere non sono visibili ad occhio nudo. Potete, ora, facilmente immaginare che neanche le particelle colloidali lo siano.
Mi potreste dire: “ma cosa dici? Non è vero. Io posso vedere le particelle di smog” (queste nell’immaginario comune sono intese come polveri sottili). Mi dispiace informarvi che le particelle che voi vedete a occhio nudo hanno dimensioni molto più elevate di quelle comprese nell’intervallo 2 nm-2 μm (diciamo almeno più di 1000 volte più grandi), mentre le particelle le cui dimensioni ricadono nell’intervallo anzidetto non le potete vedere se non con la microscopia elettronica. Quando le particelle sono così piccole, l’unico effetto visibile è quello che va sotto il nome di “Effetto Tyndall”. In pratica, la luce che “incontra” le particelle colloidali viene dispersa in tutte le direzioni (Figura 2) con la conseguenza che una soluzione appare opaca o l’aria appare “nebulosa”.
Ma cosa c’entra questo con le maschere filtranti?
Come vi dicevo, in molti posti di lavoro, il personale entra in contatto con le polveri sottili. Queste sono pericolosissime per noi dal momento che possono innescare tante patologie, prime tra tutte quelle di tipo respiratorio. I datori di lavoro, quindi, sono obbligati a fornire ai propri dipendenti i dispositivi di protezione individuale tra cui le mascherine. Queste sono in grado di filtrare le polveri sottili che sono presenti nell’aria e di impedire che esse vengano inalate. Esistono almeno tre tipologie di maschere filtranti che vengono indicate con le sigle FFP1, FFP2 e FFP3. La sigla “FFP” sta per “Face Filtering Piece” mentre i numeri da 1 a 3 indicano l’efficacia del filtraggio. In particolare, le maschere FFP1 proteggono da polveri atossiche e non fibrogene la cui inalazione non causa lo sviluppo di malattie, ma può, comunque, irritare le vie respiratorie e rappresentare un inquinamento da cattivi odori. Le maschere FFP2 proteggono da polveri, fumo e aerosol solidi e liquidi dannosi per la salute. In questo caso le maschere intercettano anche particelle fibrogene, ovvero sistemi che, a breve termine, causano irritazione delle vie respiratorie, mentre a lungo termine comportano una riduzione dell’elasticità del tessuto polmonare. Le maschere FFP3 proteggono da polveri, fumo e aerosol solidi e liquidi tossici e dannosi per la salute. Queste maschere sono in grado di proteggere da sostanze nocive cancerogene e radioattive.
La protezione assicurata da queste maschere è di tipo fisico. Più spesso è lo strato di materiale filtrante, più efficace è la protezione. Le maschere di tipo FFP1 consentono di “intercettare” particelle più grandi di 5 μm; le maschere FFP2 consentono di “intercettare” particelle di dimensioni maggiori di 2 μm; le maschere di tipo FFP3 sono capaci di “intercettare” particelle di dimensioni maggiori di 0.6 μm, ovvero particelle di dimensioni circa 1000 volte più piccole dell’acaro in Figura 1. Tuttavia, le particelle colloidali le cui dimensioni sono comprese tra 0.2 nm e 0.6 μm possono ancora arrivare ai nostri polmoni e causare danni.
E virus e batteri?
Come avrete capito, è tutta questione di dimensioni. In genere i batteri hanno dimensioni pari a circa 0.45 μm, mentre i virus dimensioni comprese nell’intervallo 0.020-0.300 μm. Questo significa che nessuna delle mascherine di cui si è discusso finora sarebbe in grado di trattenere sistemi aventi le predette dimensioni. Tuttavia, se virus e batteri “viaggiano” attaccati a particelle colloidali le cui dimensioni sono almeno superiori a 0.6 μm, allora essi possono essere bloccati dalle maschere filtranti di tipo FFP3. In effetti, le case produttrici di mascherine riportano che le maschere di tipo FFP3 vanno bene per proteggere da esposizione a legionella (un batterio largo tra 0.3 e 0.9 μm e lungo tra 1.5 e 5 μm) e virus quali quelli dell’influenza aviaria, dell’influenza A/H1N1, SARS, e tubercolosi. Bisogna comunque tener presente che lo strato filtrante della mascherina tende ad esaurirsi. La maschera perde la sua efficacia e va sostituita. Cosa vuol dire questo? Che le mascherine FFP sono monouso. Se le si usa in città, magari durante una passeggiata, non vi state difendendo da virus e batteri, ma semplicemente dal particolato sospeso dovuto alla contaminazione ambientale. Quando tornate a casa dovete buttare via la mascherina e sostituirla con un’altra. Se la usate per difendervi da virus e batteri è perché non state facendo una passeggiata in mezzo ai gas di scarico, ma siete operatori sanitari che devono entrare in contatto con le gocce di saliva di pazienti infetti. La maschera, grazie alla sua azione filtrante, impedisce che questi mezzi veicolanti di patogeni finiscano nel nostro organismo. Dopo l’uso, la maschera va comunque buttata via e sostituita.
E le maschere chirurgiche?
Queste non hanno nulla a che vedere con le maschere di tipo FFP. Mentre queste ultime proteggono dall’inalare sistemi tossici, le maschere chirurgiche hanno il compito di impedire che i chirurghi possano contaminare le ferite dei pazienti durante gli interventi chirurgici. Quindi, le maschere chirurgiche servono per difendere il paziente, non il medico.
Mascherina sì, mascherina no?
Alla luce di tutto quanto scritto, ne viene che è meglio tenersi lontani dalle mascherine fai da te: no carta da forno, no assorbenti, no altre robe raffazzonate. Non servono a nulla. L’unico modo per proteggersi da virus e batteri è seguire le istruzioni di chi ne capisce di più, ovvero dell’Istituto Superiore di Sanità.
Si tratta di un elettrone che è descritto dall’equazione di Dirac (Figura 1).
Semplice vero? Certo come no! Questa è la classica spiegazione a ciambella, ovvero un giro di parole che non spiega nulla se non si è un addetto ai lavori.
Cerchiamo di capire cos’è e perché è importante l’equazione di Dirac.
Ormai è noto a tutti che l’inizio del XX secolo è stato molto prolifico in termini scientifici. È nata, infatti, la meccanica quantistica (MQ) grazie alla quale oggi tutti hanno sentito parlare almeno una volta nella vita dell’equazione di Schoeredinger che, tra le tante cose, permette di descrivere il comportamento degli elettroni.
Una delle cose che viene insegnata a livello semplicistico a tutti gli studenti dei primi anni di corsi di studio scientifici è che l’equazione di Schoeredinger permette di definire gli orbitali come quella zona di spazio in cui esiste una buona probabilità di trovare gli elettroni. Come ho già scritto, questa è una supersemplificazione. Tuttavia fatemela passare per buona perché qui non si sta facendo una lezione di meccanica quantistica, bensì si cerca di fare un po’ di divulgazione per avvicinare concetti complessi a chi non è del settore.
Negli stessi anni in cui nasceva e si sviluppava la MQ, nasceva e si sviluppava anche la teoria della relatività ristretta (RR) di Albert Einstein. Questa si basa sostanzialmente su due postulati. Il primo postulato stabilisce che le leggi della fisica sono le stesse in tutti i sistemi di riferimento inerziali, il secondo afferma che la luce si propaga nel vuoto ad una velocità ben definita pari a 2.99 x 108 m s-1.
”Bene. Bravo. Ed ora? Dove vuoi arrivare mettendo assieme MQ e RR?” vi starete chiedendo.
Abbiate un attimo di pazienza, per favore. Lasciatemi ancora poche parole per arrivare al punto.
Meccanica quantistica e relatività ristretta sono due facce della stessa medaglia.
Fin da quando le due teorie, della MQ e della RR, si sono affermate, gli studiosi hanno cercato di unificarle. Tuttavia, tra le tante difficoltà che essi hanno incontrato, una particolarmente “ostica” è stata quella relativa alla asimmetria tra spazio e tempo della teoria di Schoeredinger che mal si conciliava con la simmetria spazio-temporale di Einstein. In altre parole, mentre Schoeredinger trattava spazio e tempo come se fossero due cose distinte e separate, Einstein considerava le dimensioni spaziali alla stessa stregua della dimensione temporale (prego i miei amici fisici di non essere troppo severi con me se sto semplificando troppo. Anzi, vi invito a correggermi se ritenete che io stia andando fuori dal seminato).
Solo Dirac, grazie alla sua genialità, riuscì a risolvere il problema elaborando una equazione (quella dell’immagine di Figura 1) con la quale riuscì a trattare le particelle quantistiche (quindi anche gli elettroni) nel regime relativistico.
Ma allora, a cosa serve sapere cosa sono gli elettroni di Dirac?
L’equazione di Dirac descrive molto bene il comportamento degli elettroni nei semiconduttori ed in sistemi quali il grafene. Per associazione, anche se studi del genere non sono stati ancora condotti, l’equazione di Dirac dovrebbe descrivere bene anche il comportamento di sistemi simil-grafene quali il biochar. Tuttavia, bisogna aggiungere che il numero di tecniche analitiche capaci di confermare sperimentalmente il comportamento degli elettroni secondo Dirac si può contare sulla punta delle dita di una sola mano. Si tratta di tecniche che sono “maneggiate” con una certa familiarità dai fisici, ma che per un chimico sono alquanto “ostiche”.
La risonanza magnetica nucleare (NMR) e gli elettroni di Dirac.
È di pochi giorni fa la notizia che su Nature Communication è apparso uno studio attraverso cui, per la prima volta, sono stati osservati mediante NMR (una tecnica molto amata dai chimici, incluso me che faccio l’NMR-ista sin dal 1992) gli effetti che gli stati elettronici di Dirac (ovvero quelli descritti dall’equazione di Figura 1) hanno sul comportamento dei nuclei di una lega metallica fatta da Bismuto e Tellurio (Bi2Te3) che viene utilizzata come isolante.
Se avete voglia di leggere l’articolo originale basta cliccare sull’immagine qui sotto.
Ed allora?
Bella domanda. Intanto si aggiunge una nuova tecnica a quelle già usate per lo studio del comportamento degli elettroni e la verifica sperimentale dell’equazione di Dirac. Inoltre, si aprono nuovi scenari per la progettazione di nuovi materiali con proprietà sempre più sofisticate da poter utilizzare nei campi più disparati come la ricerca spaziale o quella medica.
Questo sito usa i cookie per migliorare la tua esperienza di navigazione. Viene assunto che tu sia d'accordo. Tuttavia, puoi annullare i cookie se lo desideri cliccando su “cookie settings” e deselezionando i cookie non necessari. Cookie settingsACCEPT
Privacy & Cookies Policy
Privacy Overview
Questo sito Web utilizza i cookie per migliorare la tua esperienza durante la navigazione. Tra questi, i cookie classificati come necessari vengono memorizzati nel browser in quanto sono essenziali per il funzionamento base del sito. Si utilizzano anche cookie di terze parti che aiutano ad analizzare e comprendere come si utilizza il sito. Questi cookie sono memorizzati nel tuo browser solo con il tuo consenso. Hai anche la possibilità di disattivarli. La disattivazione di alcuni cookie può, tuttavia, influire sulla tua esperienza di navigazione.
I cookie cosiddetti necessari sono essenziali per il funzionamento corretto del sito Web. Questa categoria include solo i cookie che assicurano le funzionalità di base e la sicurezza del sito Web. Non viene conservata alcuna informazione personale.