Qualche giorno fa è stato annunciato il premio Nobel per la chimica. Ne ho parlato qui. Si tratta del contributo al miglioramento della microscopia crio-elettronica, una tecnica molto utile in campo biochimico.
Come ogni anno, il mondo scientifico si stringe intorno ai vincitori di questo ambito riconoscimento e fioccano informazioni ed iniziative in merito alla biografia dei vincitori o all’importanza della loro scoperta.
Una delle iniziative più interessanti, a mio avviso, è quella di avere la possibilità di leggere i lavori che hanno consentito l’attribuzione del Nobel in originale. Come docente universitario, ricevo costantemente lettere di ogni tipo da case editrici di ogni tipo. La sorpresa stamattina è stata quella di trovare una lettera dalla Elsevier, una delle case editrici più importanti in ambito scientifico.
È, quindi, con enorme piacere che ricevo e condivido, la lettera della Elsevier con il link ai lavori più significativi dei tre vincitori del premio Nobel per la Chimica 2017. Eccola nella versione online: link
Cliccando su “read more” si apre una pagina da cui si possono leggere/scaricare i lavori suddetti gratuitamente.
Ci siamo. Un anno esatto è passato da quando il 4 Ottobre 2016 il premio Nobel per la chimica è stato assegnato a Sauvage, Stoddart e Feringa per la sintesi delle macchine molecolari (qui).
Quest’anno è toccato a Jacques Dubochet, Joachim Frank, Richard Henderson per aver messo a punto la microscopia crio-elettronica per l’analisi di sistemi biologici.
Difficile, vero? Cerchiamo di capire di cosa si tratta.
Più o meno tutti hanno sentito parlare di microscopia. E’ una tecnica in base alla quale un oggetto posto su un vetrino viene illuminato; la luce intercettata dall’oggetto viene indirizzata verso una lente di ingrandimento che chiamiamo “obiettivo”; la luce proveniente dall’obiettivo viene convogliata verso l’oculare dal quale osserviamo l’immagine dell’oggetto ingrandita (Figura 1).
Quello appena citato è il meccanismo semplificato del funzionamento di un microscopio ottico. Lo strumento è dotato anche di tutta una serie di accessori che servono per correggere le aberrazioni ottiche che fanno vedere cose che, nella realtà, non esistono. Il limite della tecnica appena citata è la risoluzione che, in genere, è di circa 0.2 μm, ovvero oggetti di dimensioni inferiori a quelle appena indicate non sono osservati in modo nitido.
Per poter osservare nitidamente oggetti di dimensioni inferiori a 0.2 μm, sono state messe a punto tante altre forme di microscopia tra cui quella elettronica la fa da padrona.
Nella microscopia elettronica un fascio di elettroni viene “sparato” verso un oggetto (o campione); all’uscita dal campione il fascio di elettroni, dopo essere passato in un campo elettrico ed in un campo magnetico che ne modificano la traiettoria, viene convogliato verso un oculare dal quale viene indirizzato verso una lastra fotografica oppure uno schermo fluorescente che vengono utilizzati per generare l’immagine dell’oggetto in esame.
Anche questa appena data è una spiegazione semplificata, ma il mio scopo non è quello di fare una lezione di analisi strumentale, bensì di evidenziare che mentre nella microscopia ottica si raggiungono al massimo un centinaio di ingrandimenti (con risoluzione di 0.2 μm ovvero di 200 nm, come già evidenziato), con la microscopia elettronica si può arrivare a 150000-200000 ingrandimenti con una risoluzione che è intorno al milionesimo di millimetro ovvero dell’ordine di circa 1-10 nm. Considerando che la lunghezza di un legame covalente C-C è poco più di 0.1 nm, si capisce che con la microscopia elettronica siamo in grado di “osservare” molecole a un livello quasi atomico (Figura 2).
Qual è la novità apportata da Jacques Dubochet, Joachim Frank e Richard Henderson nel mondo della microscopia elettronica per aver meritato il premio Nobel 2017?
Bisogna sapere che uno dei problemi principali della microscopia elettronica è la preparazione del campione. Quest’ultimo deve essere attraversato dal fascio di elettroni. Per questo motivo lo spessore del campione deve essere di pochi nanometri. Preparare un campione del genere per l’analisi al microscopio elettronico richiede molta abilità ed una specifica preparazione sia tecnica che scientifica.
Fintantoché si tratta di campioni come la nanoparticella di grafite mostrata in Figura 2, le difficoltà sono serie ma si possono superare. Immaginate di voler, invece, analizzare un tessuto umano come, che so, un pezzo di pelle. Se staccate la pelle, otterrete un campione ancora troppo spesso per poter essere attraversato dal fascio di elettroni. Dovete prendere questo tessuto e farne una fettina sottile di pochissimi nanometri. Potete facilmente immaginare che operare su un sistema del genere implica danneggiarlo. Insomma la preparazione del campione, anche se fatta con la massima attenzione possibile, può portare ad un sistema che non ha più nulla a che vedere col campione di partenza.
Negli anni Ottanta del XX secolo, il team di Dubochet prima su Nature poi su Quarterly Reviews of Biophysics, descrive una innovazione tecnica in base alla quale il sistema biologico da affettare prima di essere sottoposto all’indagine al microscopio elettronico, viene congelato rapidamente. Il rapido congelamento evita la formazione di tutta una serie di artefatti che possono influenzare la qualità dell’immagine ottenuta al microscopio. In altre parole, viene “inventato” un modo per ottenere immagini (ovvero fotografie) dei sistemi biologici sempre più nitide al livello nanometrico. E’ come se avessero inventato una macchina fotografica con un numero di pixel di gran lunga superiore al massimo tecnologico finora disponibile. Grazie a questa invenzione, oggi è possibile studiare anche la dinamica delle proteine nella conformazione nativa, ovvero nella disposizione spaziale che esse hanno negli organismi viventi. Fino ad ora le uniche tecniche disponibili erano i raggi X e la spettroscopia di risonanza magnetica nucleare (NMR). I limiti di queste tecniche sono legati alla necessità di strutture cristalline (raggi X) che non sempre sono facilmente ottenibili oltre a non corrispondere alla conformazione nativa, ed alla necessità di usare solventi diversi dall’acqua (NMR) nei quali non necessariamente la struttura proteica deve assomigliare a quella nativa.
Nei giorni passati è apparsa sui quotidiani nazionali una notizia che è stata ripresa anche da diverse testate di divulgazione scientifica (qui, qui e qui, per esempio). In questa estate torrida e piuttosto noiosa, è stata data enfasi ad una comunicazione apparsa sulla rivista Nature firmata da un gruppo di ricerca, tra cui alcuni Italiani (qui). Questi colleghi hanno parzialmente smentito quanto riportato in un articolo su Nature del 2012 (qui) di cui uno degli autori è il famoso J. Frazer Stoddart che nel 2016 è stato insignito del premio Nobel per la sintesi delle macchine molecolari (ne ho parlato qui).
Cerchiamo di vederci chiaro.
Il principio di autorità
Innanzitutto, voglio evidenziare che nel mondo scientifico non si applica alcun principio di autorità; ciò che viene affermato da ognuno è messo sotto la lente di ingrandimento ed analizzato da tutti quanti sono interessati a quel determinato settore. La conseguenza è che, con una adeguata preparazione scientifica, è possibile confutare anche i modelli elaborati da scienziati che sono insigniti del famosissimo premio Nobel.
Un esempio delle strane ipotesi messe a punto da premi Nobel e smentite dalla comunità scientifica è la memoria dell’acqua di Montagnier di cui ho già discusso qui, qui, qui e qui.
Se interroghiamo l’Enciclopedia Britannica (famosa enciclopedia molto in uso quando ero piccolo), si legge:
la ferroelettricità è una proprietà di certi cristalli non conduttori, o dielettrici, che esibiscono una polarizzazione elettrica spontanea (separazione tra il centro delle cariche positive e quello delle cariche negative tale che una faccia del cristallo è caricata positivamente mentre l’altra negativamente) la cui direzione può essere invertita mediante l’applicazione di un appropriato campo elettrico. […] I materiali ferroelettrici, come il titanato di Bario ed i sali di Rochelle, sono fatti da cristalli in cui le unità strutturali sono piccoli dipoli elettrici; in altre parole, in ogni unità, il centro delle cariche negative è separato da quello delle cariche positive. In alcuni cristalli, questi dipoli elettrici si allineano a formare dei cluster indicati come domìni. Questi ultimi sono orientati predominantemente in una data direzione sotto l’azione di un intenso campo elettrico. L’inversione della direzione del campo elettrico inverte anche l’orientazione preferenziale dei domìni anzidetti. Tuttavia, il cambiamento di direzione dei domìni avviene con ritardo rispetto al cambiamento della direzione del campo elettrico applicato. Questo ritardo è anche indicato come isteresi ferroelettrica.
Se masticate l’Inglese e volete sapere più in dettaglio qualcosa sui materiali dielettrici e sulla loro interazione con i campi elettrici, potete seguire la lezione del Prof. Lewin famoso per le scenografie delle sue lezioni di fisica:
Il corso completo di fisica del Prof. Lewin è qui.
Ma torniamo a noi.
I materiali ferroelettrici ed il lavoro del premio Nobel Stoddard e collaboratori
I materiali ferroelettrici sono molto interessanti perché possono essere utilizzati per la costruzione di sensori, banchi di memoria e nella fotonica.
Nel 2012 appare su Nature un articolo (in realtà una Letter) dal titolo: “Room-temperature ferroelectricity in supramolecular networks of charge-transfer complexes“. Tra gli autori J. Frazer Stoddart che, come già evidenziato, nel 2016 è stato insignito del premio Nobel per la sintesi delle macchine molecolari. In effetti le macchine molecolari non sono altro che un tipo particolare di sistemi supramolecolari esattamente come i “supramolecular networks” di cui si parla nell’articolo sulla ferroelettricità del 2012.
Cosa hanno fatto questi autori?
Hanno sintetizzato dei complessi organici a trasferimento di carica [1] combinando a due a due i composti indicati da 1 a 4 in Figura 1 attraverso la tecnica conosciuta come Lock-Arm Supramolecular Ordering (LASO) [2].
I complessi ottenuti e designati con le sigle 1-2, 1-3 ed 1-4 di Figura 1 hanno presentato delle eccezionali proprietà ferroelettriche a temperatura ambiente.
Tutto normale. Un gruppo di studiosi ha fatto una scoperta che può avere degli interessanti sviluppi tecnologici ed ha scritto un rapporto che è stato accettato per la pubblicazione su una delle riviste più importanti del panorama scientifico.
Il lavoro degli Italiani
La notizia non è il lavoro di Stoddard e Co. per quanto esso possa essere importante sotto l’aspetto scientifico. La notizia che ha destato l’attenzione dei giornalisti nostrani è che un gruppo di ricercatori, tra cui diversi Italiani, ha riprodotto le sintesi riportate nello studio di Stoddard (qui). Le analisi hanno mostrato che i complessi ottenuti erano del tutto simili a quelli la cui sintesi era riportata nel lavoro del 2012. Tuttavia, quando sono state misurate le proprietà ferroelettriche dei complessi ottenuti, è stato scoperto che due dei tre complessi a trasferimento di carica non mostravano le proprietà descritte da Stoddard e collaboratori (Figura 2).
Naturalmente la non riproducibilità delle proprietà ferroelettriche di prodotti ottenuti da un premio Nobel ha trovato la giusta visibilità sulla stessa rivista che nel 2012 aveva ospitato le proprietà ferroelettriche a temperatura ambiente dei composti anzidetti.
Ma andiamo oltre, perché quasi nessuno ha riportato della risposta di Stoddard e collaboratori.
In coda alla comunicazione dei ricercatori Italiani (qui) è riportata anche la confutazione scritta dai responsabili del gruppo di ricerca che ha descritto le proprietà ferroelettriche a temperatura ambiente dei materiali 1-2, 1-3 ed 1-4 di Figura 1. Stoddard et al. rispondono che i processi di cristallizzazione descritti da D’avino et al. hanno prodotto dei cristalli con dei difetti ai quali sarebbe imputabile la non osservazione delle proprietà ferroelettriche. La risposta di Stoddard et al . si conclude con un interessantisimo invito:
“We offer to share our materials and devices, and to host the authors of the accompanying Comment at Northwestern University in an effort to clarify all discrepancies in reproducibility”
Conclusioni
Il titolo che ho deciso di dare a questa nota è “anche i Nobel sbagliano?”. In realtà non c’è stato alcun errore. L’episodio che ho descritto in questa nota e che con eccessiva enfasi è stato comunicato dai maggiori quotidiani e siti di divulgazione nostrani, fieri che degli italiani abbiano smentito un premio Nobel, dimostra solo una cosa: il mondo scientifico è estremamente democratico. Chiunque può permettersi di fare uno studio e smentire ciò che è stato detto da qualche nome famoso. Ciò è quanto è sempre accaduto. E’ proprio questo a consentire l’avanzamento delle nostre conoscenze. Tuttavia, non basta buttare lì la prima cosa che passa per la testa oppure ritenere che una qualsiasi maggioranza di persone possa influenzare in qualche modo una evidenza scientifica. Per poter aprire una discussione produttiva come quella riportata nelle pagine di Nature, occorre dedizione allo studio e preparazione. Senza questi ingredienti non è possibile instaurare alcun dialogo con nessuno. Bravi certamente i colleghi Italiani. Ma bravi tutti quelli che si dedicano con coscienza ed abnegazione allo sviluppo delle nostre conoscenze.
Non si può dialogare con scienziati della domenica o pseudo intellettuali come quelli che popolano le fila di chi è a favore della biodinamica, dell’omeopatia o dell’antivaccinismo. Queste persone non hanno alcuna caratura intellettuale ed una qualsiasi apertura al dialogo le metterebbe sullo stesso piano di chi lavora seriamente in ambito scientifico.
Note ed approfondimenti
[1] Un complesso a trasferimento di carica è un sistema in cui una molecola (o un dominio molecolare) ricca di elettroni interagisce con un sistema chimico (molecola, dominio molecolare o metallo di tansizione) povero di elettroni in modo tale da formare un legame in cui si realizza un trasferimento di carica negativa dal donatore di elettroni all’accettore di elettroni. Per saperne di più potete cliccare qui.
[2] La Lock-Arm Supramolecular Ordering, indicata con l’acronimo LASO, è una procedura per la sintesi di complessi molecolari a trasferimento di carica. Si tratta di un approccio di tipo modulare in cui moduli molecolari ricchi di elettroni vengono fatti co-cristallizzare in presenza di altri moduli molecolari poveri di elettroni. Entrambi i moduli (donatori ed accettori di elettroni) sono costruiti in modo tale da avere delle braccia flessibili attraverso le quali essi sono in grado di interagire mediante legami a idrogeno. L’efficienza del processo di cristallizzazione è assicurata proprio dalla flessibilità della braccia anzidette che consentono la massima complementarietà tra i moduli. L’azione cooperativa del legame a trasferimento di carica e dei legami a idrogeno consente di ottenere sistemi binari in cui le proprietà donatore-accettore sono interscambiabili così da ottenere proprietà ferroelettriche migliorate rispetto a complessi ottenuti con strategie sintetiche differenti. Per saperne di più cliccate qui.
Fonte dell’immagine di copertina: https://www.researchgate.net/publication/257972728_Statistical_mechanical_origin_of_hysteresis_in_ferroelectrics
Oggi sembra che vada di moda essere innocentisti o colpevolisti in campo agricolo. Mi spiego. C’è una vasta schiera di persone che si oppone, in modo a dir poco religioso, ai fitofarmaci, mentre altre, sempre religiosamente, si pongono a favore del loro uso. In realtà, nessuno dei due estremi è quello corretto. Non basta dire “i fitofarmaci tout court sono nocivi”, oppure “cosa vuoi che sia? La loro concentrazione è al di sotto dei limiti previsti per legge”.
Le cose sono più complicate di quello che si pensa e vanno contestualizzate.
Cominciamo col dire che attualmente la popolazione mondiale ammonta a 7 miliardi di persone, nel 2050 sarà di almeno 10 miliardi e per il 2100 ancora di più. La superficie terrestre in grado di supportare l’attività agricola diminuisce progressivamente in funzione del fatto che parte dei suoli arabili diviene sede per le abitazioni e le infrastrutture. Da ciò consegue che l’uso di fitofarmaci diventa necessario se si vuole produrre alimenti per una popolazione in aumento esponenziale su una superficie agricola in costante riduzione.
L’agricoltura di ogni tipo (sia quella intensiva che fa uso di fitofarmaci che quella biologica che, invece, solo apparentemente non fa uso di fitofarmaci) è a forte impatto ambientale perché non solo accelera l’erosione dei suoli innescando i processi di desertificazione, ma contamina anche acqua ed aria, attraverso l’immissione di sostanze nocive (per esempio i principi attivi dei fitofarmaci stessi o i loro prodotti di degradazione) la cui attività influenza la vita non solo delle piante ma anche della micro, meso e macro fauna. A questo scopo l’unico modo di produrre alimenti per la popolazione mondiale in costante aumento è quello di far uso di pratiche agricole sostenibili, ovvero di pratiche che facciano uso oculato delle conoscenze scientifiche accumulate negli anni in merito all’attività di tutti i composti usati in agricoltura ed in merito ai meccanismi di erosione e contaminazione (non fa certamente parte del bagaglio di conoscenze scientifiche l’agricoltura biodinamica che, di fatto, non è altro che un’enorme sciocchezza. Ma questo merita altro approfondimento).
È in questo ambito che va inquadrato il discorso sul glifosato, principio attivo del noto fitofarmaco chiamato “roundup” brevettato all’inizio degli anni 70 del XX secolo dalla Monsanto, azienda chimica statunitense, oggi ritenuta capziosamente come il satana industriale nemico dell’ambiente.
Il glifosato è un erbicida la cui azione è quella di inibire gli enzimi coinvolti nella biosintesi degli amminoacidi fenilalanina, triptofano e tirosina (due di essi, fenilalanina e triptofano, sono essenziali per l’uomo e possono essere assunti solo attraverso la dieta) oltre che di composti quali acido folico, flavonoidi, vitamina K e vitamina E importanti metaboliti vegetali.
Proprio perché i complessi enzimatici coinvolti nell’azione del glifosato sono tipici delle piante, si è sempre ritenuto che tale erbicida fosse innocuo per gli animali, in particolare l’uomo. Ed invece studi recenti sembrano dimostrare che il glifosato può essere causa dei linfomi non-Hodgkin (ovvero di una classe di tumori maligni del tessuto linfatico) (1, 2), sebbene studi epidemiologici completi non siano stati ancora fatti; interferisce in vitro con la trasmissione dei segnali del sistema endocrino (3, 4); provoca danni al fegato ed ai reni dei ratti attraverso la distruzione del metabolismo mitocondriale (5); sequestra micronutrienti metallici come zinco, cobalto e manganese (cofattori enzimatici in molte reazioni metaboliche) producendo, quindi, danni metabolici generali specialmente a carico delle funzioni renali ed epatiche (6).
Tutti gli studi citati (molti altri sono elencati nel riferimento (7)) si basano su esperimenti condotti o in vivo o in vitro ma facendo uso di quantità molto elevate di glifosato. Ma cosa significa molto elevato? Quali sono le quantità di glifosato che possono portare problemi alla salute umana? Qui già iniziano le prime contraddizioni. La EPA Statunitense ha stabilito che la quantità di glifosato massima nell’organismo debba corrispondere a 1.75 mg per kg al giorno. Significa che un americano dalla corporatura media di 80 kg può assumere ogni giorno 140 mg di glifosato. Però se lo stesso americano venisse in Europa si ritroverebbe con un livello di glifosato nel suo organismo molto più alto di quello consentito. Infatti, la legislazione adottata dalla Comunità Europea prevede un contenuto massimo di glifosato pari a 0.3 mg per kg al giorno, ovvero l’individuo di cui sopra può assumere un massimo di 24 mg di glifosato al giorno. È anche vero, però, che attualmente la Comunità Europea sta valutando l’innalzamento del limite a 0.5 mg per kg al giorno, ma resta, comunque, una quantità molto al di sotto di quella ammessa negli Stati Uniti dove l’ammontare di glifosato usato in agricoltura è passato da 4 milioni di kg del 1987 a 84 milioni di kg nel 2007 (7).
Perché ci sono differenze nei limiti di glifosato che un essere umano può assumere ogni giorno?
Bisogna dire che i limiti di assunzione vengono autorizzati da enti governativi differenti (USA ed EU, nella fattispecie) che basano le loro decisioni sulla letteratura disponibile. Il problema del glifosato, però, è che la letteratura usata non è quella costituita da lavori scientifici resi pubblici dagli studiosi che si occupano di tale erbicida (7). I riferimenti usati dagli enti governativi sono documenti forniti dalle aziende private produttrici di fitofarmaci che contengono solo risultati relativi a studi secretati (ovvero soggetti al segreto industriale). A quanto risulta, invece, la letteratura più tradizionale, quella che è pubblica, suggerisce che il limite massimo ammissibile di glifosato in un organismo umano dovrebbe essere di circa 0.03 mg per kg al giorno, ovvero ben 10 volte in meno rispetto a quanto previsto dalla Comunità Europea e circa 60 volte in meno rispetto a quanto consigliato dalla Statunitense EPA.
A chi credere? Agli enti governativi o alla letteratura scientifica? La realtà è che mancano studi epidemiologici completi per poter stabilire con esattezza quali siano i limiti ammissibili per il glifosato. Anche i lavori resi pubblici dagli specialisti del settore sono, in qualche modo, incompleti e vanno presi con molta attenzione e senso critico. È per questo che sarebbe meglio applicare il principio di precauzione fino a quando la quantità di dati disponibili in letteratura non consentirà di arrivare a comprendere con precisione quali sono i reali effetti del glifosato sulla salute umana.
Di certo le persone più esposte ai danni dell’erbicida sono i lavoratori del settore agricolo (8). Solo in subordine risultano esposti i consumatori. Questo perché i controlli sulla quantità di fitofarmaci e loro residui sui prodotti alimentari sono abbastanza stringenti. In ogni caso, per prevenire la presenza di glifosato e suoi residui negli alimenti (in realtà non solo di tale erbicida, ma di tutti i possibili fitofarmaci dannosi o potenzialmente tali per la salute dell’uomo) occorre utilizzare una corretta pratica agricola.
Nel caso specifico del glifosato, la corretta pratica agricola consiste nell’applicazione di tale erbicida o in fase di pre-semina o in fase di post-raccolta (ovvero nei momenti in cui il suolo viene lasciato “riposare” tra un raccolto e l’altro) e non come attualmente in voga in fase di pre-raccolta. Infatti, è noto da tempo (7) che il glifosato viene intrappolato dalla sostanza organica dei suoli (9, 10) e successivamente degradato dalla fauna microbica in composti meno impattanti sulla salute umana (11). Al contrario, nelle applicazioni in “tarda stagione” (ovvero poco prima della raccolta) non si dà il tempo al glifosato di poter essere degradato, con la conseguenza che l’erbicida (o suoi sottoprodotti tossici) possono essere individuati all’interno degli alimenti (7)
Conclusioni
L’uso dei fitofarmaci, e del glifosato in particolare, è reso necessario per ottimizzare la produzione agricola in un sistema, quello terrestre, che vede un sovrappopolamento con conseguente riduzione delle superfici arabili
Non ci sono dati certi in merito alla tossicità del glifosato sulla salute umana se non nei casi particolari relativi ai lavoratori del settore agricolo che sono esposti a forti dosi dell’erbicida durante la loro attività lavorativa
Non applicazioni pre-raccolta, ma pre-semina o post-raccolta dovrebbero essere effettuate per minimizzare la quantità di glifosato (e suoi residui) all’interno dei prodotti destinati ai consumatori finali
Un incremento della ricerca in ambito fitofarmacologico è necessario per individuare gli effetti dei fitofarmaci, in generale, e del glifosato, in particolare, sulla salute umana. Studiare il glifosato, però, richiede laboratori attrezzati e studiosi preparati. Tutto questo ha un prezzo. Se le comunità dei consumatori vogliono avere informazioni più approfondite e dettagliate sul ruolo del glifosato sulla salute umana, è bene che investano in questo tipo di ricerca. Investimenti nella ricerca dovrebbero essere finanziati anche dalle aziende produttrici di fitofarmaci in modo chiaro e non soggetto a segreto industriale. Solo in questo modo tutti (dai consumatori alle grandi aziende agricole e non) possono trarre vantaggi dalla ricerca scientifica.
Riferimenti
(1) Schirasi and Leon, Int. J. Environ. Res. Public Health, 2014, 11(4): 4449-4457
Quante volte vi è capitato di restare troppo tempo in acqua? E quante volte avete notato che uscendo dal bagno avete le punte delle dita raggrinzite? Vi siete mai chiesti perché? E vi siete mai chiesti qual è il vantaggio evolutivo che possiamo avere da una cosa del genere?
Sembra quasi banale, ma solo nel 2013 è stato pubblicato un lavoro serio in merito a questa questione. Quindi, non possiamo dire che le informazioni che sto per dare siano troppo vecchie. Si tratta di qualcosa che è stato spiegato solo ieri. Qui il link.
È facile dimostrare che l’aumento del numero di grinze sulla pelle corrisponde ad un aumento di area superficiale della stessa. Ho già riportato una dimostrazione di questo tipo per altri sistemi, ma la tipologia di ragionamento si applica anche per superfici come la pelle che raggrinzisce.
Un elevato valore di area superficialedella pelle sulla punta delle zampette dei gechi spiega, per esempio, le loro caratteristiche anti-gravitazionali.
Infatti, grazie alla loro elevata area superficiale, le dita dei gechi sono in grado di realizzare delle interazioni di Van derWaals molto forti con le superfici con cui vengono a contatto. Queste forze di attrazione sono così intense che riescono a vincere la forza peso che tenderebbe a spingere il geco verso la superficie terrestre.
L’aumento di area superficiale delle dita umane, conseguente al raggrinzimento per immersione prolungata in acqua, ha un significato evolutivo preciso secondo i ricercatori della Newcastle University. A quanto pare abbiamo conservato questa caratteristica perché ci serve per poter usare le mani, senza che gli oggetti ci scivolino, in condizioni di elevata umidità o quando siamo sott’acqua. L’aumento di area superficiale, dovuto agli impulsi nervosi che consentono la diminuzione del volume della polpa epidermica, aumenta la capacità di presa grazie all’intensificarsi delle forze di interazione superficiale tra le nostre dita e ciò che afferriamo.
Non c’è che dire. I fenomeni naturali sono sempre affascinanti
Fonte dell’immagine di copertina: https://www.themarysue.com/water-wrinkles-purpose/
Ebbene sì. Ho usato un titolo volutamente forte per introdurre una notizia che secondo me è veramente importante nel mondo della meccanica quantistica. Ho appena letto un interessantissimo lavoro in cui un team di ricercatori Spagnoli dichiara di aver scoperto che il principio di indeterminazione di Heisenberg può essere violato.
Cos’è questo principio? In soldoni, Heisenberg stabilì che non è possibile conoscere con lo stesso grado di accuratezza la posizione e la quantità di moto di una particella elementare.
Per spin di una particella elementare si intende, in modo molto semplicistico, la rotazione della particella intorno a se stessa.
Se vogliamo conoscere il momento angolare di spin di una particella elementare, abbiamo bisogno di misurare delle grandezze che rispondono al principio elaborato da Heisenberg. Tuttavia, quando si decide di prendere in considerazione la misura del momento angolare dello spin nucleare, i limiti imposti dal principio di indeterminazione non sono più validi.
Non mi addentro nei particolari perché non voglio impelagarmi in troppi tecnicismi. Chi lo desidera, può leggere il lavoro pubblicato su Nature cliccando qui. Alternativamente, la notizia riportata in modo più semplice è qui.
Voglio, tuttavia, fare una riflessione molto generale. Come la mettiamo, ora, con le correnti filosofiche che invocano il principio di indeterminazione per affermare che l’osservatore crea la realtà?
Ho sempre pensato che le pseudo filosofie che fanno elucubrazioni sulla base di estrapolazioni concettuali di teorie scientifiche la cui forza risiede nell’osservazione sperimentale, siano come castelli di sabbia. Nel momento in cui i modelli scientifici evolvono sulla base di nuove ipotesi predittive e di nuove indagini sperimentali, le pseudo filosofie si sgonfiano come palloncini di gomma bucati. Il lavoro pubblicato su Nature è l’esempio che non bisogna mai utilizzare una teoria scientifica fuori dal contesto per cui essa è stata elaborata. La conseguenza, altrimenti, è che tutto il castello costruito sulle basi suddette collassa nel momento in cui nuovi fatti si aggiungono a quelli esistenti e una nuova teoria sostituisce quella vecchia.
Piltdown. Sussex. Gran Bretagna. Anno 1912. Viene ritrovato il cranio di un ominide a metà tra uomo e scimmia. L’annuncio del ritrovamento viene dato nel Dicembre dello stesso anno nel convegno della Geological Society of London. Qui i due autori della comunicazione, Dawson (autore del ritrovamento) e Woodward, battezzarono l’ominide a cui apparteneva il cranio col nome di Eoanthropus dawsoni o anche uomo del Piltdown.
Al momento della scoperta del cranio dell’uomo del Piltdown, la teoria dell’evoluzione di Darwin aveva circa 53 anni – la famosa “Origine delle specie” aveva visto la luce intorno al 1859 – e si rincorrevano le interpretazioni più disparate sia per la comprensione dell’origine dell’uomo, sia per denigrare la teoria anzidetta che toglieva l’essere umano dal centro del creato per porlo in una dimensione meno centrale dell’universo.
Origine della specie
Secondo le prime interpretazioni della teoria di Darwin, l’essere umano doveva essere considerato come un diretto discendente delle scimmie. In altre parole, le scimmie avrebbero subito nel corso del tempo delle costanti e continue trasformazioni mediate sia dall’ambiente che dalle abilità necessarie a sopravvivere ai cambiamenti ambientali.Secondo questa interpretazione, il passaggio graduale dalla scimmia all’uomo deve necessariamente aver prodotto degli ominidi con caratteristiche intermedie tra le due specie.
Una via di mezzo
L’uomo del Piltdown si pone a metà tra la scimmia e l’uomo dal momento che mostra caratteristiche simili a quelle di una scimmia, nella parte mandibolare del cranio, ed a quelle dell’uomo, nella parte superiore del cranio. Si tratta, quindi, dell’anello mancante. Nel 1953, però, gli studiosi del British Natural History Museum e dell’Università di Oxford capirono che il cranio ritrovato da Dawson era un falso. Indagini successive hanno confermato l’origine truffaldina del cranio dell’uomo di Piltdown evidenziando che Dawson “limò” e mise assieme ossa umane (di circa 700 anni) con ossa di diverse tipologie di scimmia.
Oggi sappiamo che l’evoluzione non è andata come si credeva all’inizio del XX secolo.
In realtà, l’uomo, così come tutte le specie viventi, si è evoluto per come lo conosciamo oggi grazie all’azione congiunta di “caso e necessità”. In altre parole, modifiche ambientali del tutto casuali – come terremoti ed inondazioni – alterano l’habitat tipico in cui gli organismi vivono. Nell’ambito di una stessa popolazione esiste un certo numero di individui che, a causa di modificazioni genetiche casuali, si ritrova ad essere maggiormente adattato alla sopravvivenza nelle nuove condizioni ambientali. Per questo motivo, proprio gli individui più abituati alle nuove condizioni ambientali riescono ad avere maggiore possibilità riproduttiva. La conseguenza è che, nel corso del tempo, gli individui più adatti sono quelli che predominano, mentre quelli meno adatti si estinguono. Grazie a questo modello evolutivo possiamo dire che non ci dobbiamo aspettare nessun “anello mancante”. Uno scherzo come quello effettuato nel 1912 oggi sarebbe solo una bufala da primo Aprile.
Non stiamo vivendo un’avventura del Dr. Who e nemmeno siamo in un episodio di Star Trek. I cristalli temporali esistono per davvero.
Un cristallo è un sistema solido in cui le singole componenti (molecole, atomi o ioni) occupano delle posizioni spaziali ben definite che si ripetono periodicamente nelle tre dimensioni dello spazio cartesiano (indichiamole per semplicità con xyz).
L’unità strutturale più piccola la cui trasposizione nello spazio dà luogo ai cristalli si chiama cella unitaria. Se un materiale è formato da celle orientate tutte nello stesso modo, viene identificato come monocristallino; se le celle sono orientate in più direzioni diverse, viene indicato come policristallino.
Se il concetto di cristallo si riferisce alla geometria spaziale “ordinata” di un sistema solido, cosa sono i cristalli temporali?
Wilczek, propone l’esistenza di cristalli, ovvero di materiali solidi, il cui “ordine” si estende non solo nelle tre dimensioni spaziali, ma anche in quella del tempo. Egli li chiama “cristalli temporali”.
Facciamo un esempio semplice cercando di usare un linguaggio quanto meno tecnico possibile.
Tutti sanno che la corrente elettrica è dovuta al movimento degli elettroni all’interno di un filo metallico. Durante il loro spostamento, gli elettroni incontrano una resistenza dovuta alla presenza dei nuclei degli atomi che compongono il filo. Se, però, il filo viene immerso in un gas liquido ad una temperatura vicina allo zero assoluto (- 273 °C), i movimenti vibrazionali dei nuclei si oppongono meno efficacemente agli elettroni consentendo a questi ultimi una sòrta di “moto perpetuo”.
La circolazione degli elettroni in una spira (che in linguaggio tecnico si chiama solenoide) immersa in elio liquido consente di generare un campo magnetico permanente che può essere usato per diversi scopi. Uno di questi è la risonanza magnetica nucleare. Essa può essere usata sia per ottenere spettri per l’identificazione delle caratteristiche strutturali delle molecole, che per ottenere immagini per scopi diagnostici.
Un solenoide immerso in elio liquido, grazie alla sua capacità di condurre la corrente senza resistenza, si chiama superconduttore.
In un esperimento mentale, Wilczek suggerisce che se si inducono delle interazioni nelle particelle di un solenoide superconduttore, senza che venga persa la proprietà di superconduzione, si può formare un nuovo stato della materia che egli chiama “solitone”. I solitoni, ovvero gli aggregati delle particelle suddette, sono in grado di oscillare periodicamente in modo tale che dopo un certo tempo (indichiamolo con t) essi ritornano nella loro posizione di partenza. Si realizza in t ciò che di solito siamo abituati a vedere in xyz.
Cosa vediamo quando osserviamo un sistema cristallino? Vediamo semplicemente una sequenza di questo tipo: ABCDABCDABCD…
ABCD è la cella cristallina. Essa è dotata di una certa forma. Per esempio, in modo semplicistico, si può trattare di un tetraedro. Il tetraedro si ripete nello spazio conferendo al materiale solido quella che noi definiamo struttura cristallina.
Se ora pensiamo che ABCD è un solitone, ovvero un aggregato di particelle di un superconduttore, possiamo dire che esso ha una proprietà particolare: è in grado di oscillare nel tempo, ovvero di muoversi, in modo tale che dopo ogni periodo t lo si ritrova di nuovo nella sua posizione. Si realizza quindi ABCDABCDABCD… in cui lo sviluppo non è più nello spazio xyz, ma nel tempo t.
L’esperimento mentale di Wilczek è diventato realtà. L’8 Marzo di quest’anno (2017) è stata pubblicata su Nature la realizzazione dei cristalli temporali [2]. Un gruppo di ricerca Statunitense ha generato un solitone fatto di Itterbio che ha mostrato le proprietà “cristallografiche” descritte da Wilczek.
Non ho mai assistito ad una eclissi solare. Tuttavia chi l’ha fatto è testimone di un fenomeno molto singolare. Infatti, durante le eclissi solari il vento si attenua e cambia direzione [1].
Questa osservazione pare sia stata fatta già tre secoli fa, ma solo oggi è stata data una spiegazione attendibile del fenomeno [2].
Uno studio dei cambiamenti climatici a seguito di una eclissi solare avvenuta nel Marzo 2015 nel Regno Unito [3] ha dimostrato che la suddetta eclissi ha comportato non solo un aumento dell’umidità relativa, ma anche un raffreddamento con una diminuzione di circa un grado Celsius della temperatura al suolo.
Nel momento in cui si ha il raffreddamento per effetto dell’eclissi, l’aria al suolo si raffredda e tende a non andare più verso l’alto. La conseguenza è che non solo cambia la velocità del vento (il raffreddamento dell’aria comporta una riduzione della sua velocità) ma anche la direzione, non più dal basso verso l’alto, ma il contrario.
In definitiva, nessuno spirito maligno, nessun diavolo o dio alterato, ma solo “semplice” fisica.
PS. Spero di aver usato il linguaggio corretto. Non me ne vogliano i meteorologi.
E’ appena apparsa la notizia che l’impronta enorme di un dinosauro (in particolare un titanosauro) è stata scoperta nel deserto del Gobi in Mongolia (https://it.wikipedia.org/wiki/Mongolia)
L’impronta, di 106 cm di lunghezza e 77 cm di larghezza, è stata scoperta in uno strato di suolo databile in un intervallo che va dai 70 ai 90 milioni di anni fa.
Non ci sono riferimenti scientifici al momento. Aspettiamo, quindi, un lavoro ad hoc in merito.
Questo sito usa i cookie per migliorare la tua esperienza di navigazione. Viene assunto che tu sia d'accordo. Tuttavia, puoi annullare i cookie se lo desideri cliccando su “cookie settings” e deselezionando i cookie non necessari. Cookie settingsACCEPT
Privacy & Cookies Policy
Privacy Overview
Questo sito Web utilizza i cookie per migliorare la tua esperienza durante la navigazione. Tra questi, i cookie classificati come necessari vengono memorizzati nel browser in quanto sono essenziali per il funzionamento base del sito. Si utilizzano anche cookie di terze parti che aiutano ad analizzare e comprendere come si utilizza il sito. Questi cookie sono memorizzati nel tuo browser solo con il tuo consenso. Hai anche la possibilità di disattivarli. La disattivazione di alcuni cookie può, tuttavia, influire sulla tua esperienza di navigazione.
I cookie cosiddetti necessari sono essenziali per il funzionamento corretto del sito Web. Questa categoria include solo i cookie che assicurano le funzionalità di base e la sicurezza del sito Web. Non viene conservata alcuna informazione personale.