slideshow 0 slideshow 1 slideshow 2 slideshow 3 slideshow 4 slideshow 5 slideshow 6 slideshow 7 slideshow 8 slideshow 9 slideshow 10 slideshow 11

BLOG: LA CHIMICA E LA SOCIETA'

Syndicate content La Chimica e la Società
Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.
Updated: 1 day 17 hours ago

La chimica dei parassiti delle formiche

2 March, 2026 - 15:58

Claudio Della Volpe

Abbiamo parlato della pruina della frutta in un recente post e abbiamo anche detto che questo tipo di ricopertura è presente anche in alcuni insetti.

In questo post parleremo di un caso molto interessante di ricopertura chimica in un insetto che sfrutta le formiche, un loro parassita obbligato e vedremo che problemi ha questa strategia evoluzionistica che ha una incredibile base chimica.

Inoltre avremo l’occasione di parlare di una ingegnosissima tecnica di analisi la microestrazione in fase solida (SPME) una tecnica di preparazione del campione “solvent-free” (senza solventi) rapida, sensibile e versatile, utilizzata per concentrare composti volatili e semivolatili da matrici solide, liquide o gassose.

E termineremo con un riferimento letterario e logico.

I mirmecofili sono insetti che vivono a stretto contatto con le società delle formiche; il loro tipo di rapporto è complesso da esprimere; in origine erano in molti casi dei predatori liberi che si sono poi evoluti in simbionti obbligati o anche in parassiti delle formiche.

L’articolo che sto citando, comparso su Cell, racconta questa complessa storia.

La famiglia interessata sono gli stafilinidi, una famiglia estremamente vasta e diversificata di coleotteri. Molti stafilinidi sono simbionti obbligati, in particolare di formiche (mirmecofili) o termiti. Hanno evoluto relazioni complesse, spesso mimando l’odore o l’aspetto dell’ospite per vivere all’interno dei formicai, dove a volte si nutrono dei resti, delle larve o delle risorse dell’ospite (parassiti sociali), vivendo in una forma di simbiosi in cui l’ospite è danneggiato. In sintesi, mentre la maggioranza è predatrice, gli stafilinidi mostrano una straordinaria plasticità evolutiva che li rende sia parassiti specializzati che complessi simbionti di insetti sociali.

La condizione base per comprendere la questione è di sapere che tutti gli insetti sono coperti con idrocarburi cuticolari che agiscono come una barriera contro l’essiccazione dell’organismo. Per comprendere la necessità evolutiva di questa ricopertura occorre riflettere sulle dimensioni degli insetti. In essi il rapporto superficie/volume è molto più alto che per esempio nei mammiferi comuni, per cui tutti i fenomeni chimico-fisici di superficie sono esasperati: la velocità di evaporazione dei liquidi e le forze di tensione superficiale sono due casi comuni.

Questi due ultimi fenomeni interagiscono in modo complesso:

Gli idrocarburi cuticolari più lunghi sono più idrofobici e resistono meglio alle alte temperature; tuttavia la loro dimensione e omogeneità riduce il contenuto informativo specifico, come mostrato nella figura qui riportata: potenza della chimica-fisica!

Ci sono diversi tipi di molecole in ogni specie (lunghezze di catena da C23 a C37), con differenti strutture. Le diverse miscele di idrocarburi cuticolari sono in grado di riflettere le variazioni in età riproduttiva, fisiologia, genotipo tra gli individui in tutti gli insetti.

In particolare gli idrocarburi cuticolari delle formiche (CHC) sono uno strato complesso di lipidi a catena lunga che ricopre l’esoscheletro, sempre con le funzioni principali di prevenire l’essiccamento e facilitare la comunicazione chimica. Questi composti agiscono come un “odore di colonia” per il riconoscimento dei compagni di nido, consentendo alle formiche di distinguere i propri simili dai non simili e di regolare comportamenti sociali come l’aggressività.

Gli aspetti chiave degli idrocarburi cuticolari nelle formiche includono:

•    Composizione e diversità: le formiche hanno profili CHC diversi, con individui che spesso possiedono oltre 100 molecole di idrocarburi diverse (alcani, alcheni, alcani ramificati con metili).

•    Funzioni: oltre all’impermeabilità, i CHC codificano informazioni su casta, fertilità, età e salute. Sono fondamentali per distinguere tra operaie e regine.

•    Riconoscimento dei compagni di nido: la miscela di CHC è spesso omogeneizzata all’interno di una colonia attraverso la pulizia sociale e lo scambio, creando un odore specifico.

•    Adattamento ambientale: le formiche possono regolare i loro profili CHC in base alla temperatura, con temperature più elevate che richiedono potenzialmente composti diversi, meno volatili o più compatti per mantenere la barriera contro l’essiccamento.

•    Significato evolutivo: i profili CHC sono spesso ereditari e variano in modo significativo tra le popolazioni, influenzando la speciazione e consentendo la specializzazione in nicchie ecologiche.

Queste firme chimiche consentono interazioni sociali complesse e vengono utilizzate per distinguere i compagni di nido, riducendo, ad esempio, i combattimenti territoriali tra i membri della stessa colonia.

L’articolo di Cell racconta una storia incredibile ed affascinante basata su questo contesto dedicata alle aleocarine, una sottofamiglia degli stafilinidi, con migliaia di specie appartenenti.

In figura una Aleocarina ed una formica probabilmente impegnate nel cosiddetto allogrooming

L’aleocarina è sopra, il coleottero Sceptobius lativentris (volgarmente detto stealth beetle, il coleottero fantasma) che entra nelle colonie della formica del velluto (Liometopum occidentale) sotto, copiandone l’odore.

Ma come lo copia? Non ha il suo? E proprio qua sta il trucco!

Lo Sceptobius adulto riduce la propria firma chimica inibendo la sintesi dei suoi idrocarburi cuticolari e si presenta quasi “senza identità”, il tempo guadagnato serve per arrivare a contatto stretto con le formiche, con grave rischio, perché senza protezione cerosa cresce il rischio di disidratazione. Arrivato a contatto con la formica tramite il grooming ravvicinato, lo stesso tipo di attività di pulizia che conosciamo bene nei primati, nelle scimmie per esempio o in noi stessi il coleottero trasferisce su di sé gli idrocarburi cuticolari delle formiche.

Questo mi fa venire in testa un proverbio napoletano: quanno o ‘diavolo ti accarezza, vo’ l’anema! (Ovviamente vale anche per i comportamenti di Elaine Maxwell.)

Notate una cosa importante che riprenderemo fra un momento: come fa lo Sceptobius a rubare gli idrocarburi non suoi? Durate il grooming gli rimangono sui peli! usa i suoi peli per graffiare lo strato esterno della formica.

In questo modo ruba l’identità della formica e può entrare indenne nel formicaio, dove si nutre di uova, di pupe e di resti che potrebbero marcire in genere; e forse quest’ultimo è l’unico aspetto positivo per la formica implicata, se no si tratterebbe non di simbiosi ma di vero parassitismo.

La storia non è finita qua; c’è un aspetto evolutivo che riprenderemo fra un momento. Ma prima facciamo un link immediato a come noi chimici analizziamo gli idrocarburi cuticolari degli insetti. Facciamo come il coleottero fantasma, graffiamo la superficie degli insetti.

La tecnica principe è la microestrazione in fase solida ( SPME ) utilizzata con successo per esempio sugli idrocarburi della cuticola di individui vivi. Combinato con gas cromatografia, è in grado di analizzare in tempo reale la situazione cuticolare degli insetti in ogni fase della loro vita.

La microestrazione in fase solida (SPME) è una tecnica di preparazione del campione “solvent-free” (senza solventi) rapida, sensibile e versatile, utilizzata per concentrare composti volatili e semivolatili da matrici solide, liquide o gassose. Sfrutta una fibra rivestita di polimero (fase stazionaria) inserita in un ago, che adsorbe o assorbe gli analiti per poi desorbirli termicamente nel gascromatografo (GC). È fondamentale per analisi ambientali, alimentari e cliniche grazie all’integrazione di campionamento e pre-concentrazione in un unico passaggio. 

Questa immagine illustra il funzionamento della tecnica SPME:

Non richiede l’uso di solventi organici, riducendo l’impatto ambientale. Può avvenire per Headspace (spazio di testa, per campioni volatili) o Immersione Diretta (per campioni liquidi).Le fibre sono costituite da silice fusa o materiali metallici (SPME Arrow) rivestiti, con spessori che variano in base alla selettività necessaria (es. PDMS, DVB). E’ facilmente automatizzabile con campionatori automatici per GC, migliorando la riproducibilità. Permette l’analisi di diverse matrici, inclusi campioni biologici complessi. 

La SPME è un metodo “non esaustivo”, il che significa che estrae solo una parte degli analiti, ma è interamente quantitativo se le condizioni di equilibrio sono mantenute.

Terminiamo con una nota più generale; come vedete nel titolo del lavoro di Cell c’è il riferimento a Catch-22;

Symbiotic entrenchment through ecological Catch-22

Ma di cosa si tratta? Cosa è Catch-22? Ossia Comma 22: vi ricorda qualcosa?

Il termine deriva dal romanzo di Joseph Heller del 1961 “Catch-22”, Comma 22, ambientato durante la Seconda Guerra Mondiale, che descrive un regolamento militare secondo cui un pilota può essere considerato pazzo ed esentato dalle missioni di volo. Tuttavia, chiunque richieda questa esenzione viene automaticamente considerato sano di mente e deve continuare a volare.

Bel dilemma logico non credete?

https://it.wikipedia.org/wiki/Comma_22_(romanzo)

Questo è legato alle conseguenze evoluzionistiche del fenomeno che abbiamo illustrato.

Lo Sceptobius rinuncia alla propria firma superficiale per non essere attaccato dalle formiche, poterle avvicinare e rubargli i loro idrocarburi cuticolari e in questo modo riesce ad entrare nel formicaio; ma deve rinnovare costantemente la provvista di idrocarburi, rubandoli alle formiche che incontra e se non lo fa rischia di “seccarsi” od essere assalito dalle formiche stesse e divorato; un cambiamento evolutivo in direzione esattamente contraria è d’altronde poco probabile , gli toglierebbe comunque il vantaggio di un cibo più facile e dunque il coleottero è in un’impasse evolutiva che ricorda il problema comportamentale di Comma 22.

Concludo con il commento di un amico chimico, di Napoli anche lui, che si è dedicato tutta la vita agli aspetti chimici e biologici del plancton alla Stazione “Anton Dohrn” di Napoli, Maurizio Ribera, con cui condivido in realtà molto più della chimica. Entrambi siamo convinti che la natura sia dialettica e che invece spesso le teorie oggi vincenti (dal darwinismo stretto all’interpretazione di Copenhagen della MQ siano fortemente ideologizzate, stringono sull’albero ma perdono la visione più complessa della foresta della Natura):

La lettura riduzionista di Darwin è che ogni singolo organismo combatte contro tutti per favorire la persistenza del suo genoma. Anche accettando questa visione fortemente antropocentrica, è importante capovolgerla. Cioè i genomi che persistono sono quelli che, in un modo o nell’altro, ‘sopravvivono’. Quindi l’attenzione deve spostarsi sui modi. La selezione naturale non è finalistica, e l’evoluzione è una proprieta’ emergente di interazioni complicate che avvengono tra oggetti che in gran parte (ma questo resta secondo me una cosa da approfondire) variano in maniera stocastica. L’ideologia borghese, (e Darwin in fondo la condivideva) esalta la competizione e concepisce la selezione naturale come uno scontro continuo.

In realta’, come notava Lynn Margulis*  salti fondamentali nell’evoluzione sono stati fatti da eventi simbiogenetici.”

*(NdA Lynn Margulis ha sviluppato la teoria della endosimbiosi per lo sviluppo della cellula eucariota ossia l’acquisizione collaborativa degli organelli fondamentali della cellula: mitocondri, cloroplasti e nitroplasti oltre ai perissosomi ed insieme a James Lovelock la teoria di Gaia, il più grande essere vivente della biosfera; ne abbiamo parlato in alcuni post: qui e qui ed anche su CNS)

Consultati:

https://www.researchgate.net/publication/277025604_Wax_sex_and_the_origin_of_species_Dual_roles_of_insect_cuticular_hydrocarbons_in_adaptation_and_mating

articolo generale sugli idrocarburi cuticolari degli insetti; da leggere per avere un’idea base

https://www.sbircialanotizia.it/articoli/2026/02/coleottero-agganciato-formica-simbiosi-estrema/

un riassunto divulgativo del testo dell’articolo di Cell

https://www.caltech.edu/about/news/beetles-go-stealth-mode-to-infiltrate-ant-societies

un altro articolo divulgativo sul tema dell’articolo di Cell

https://www.ebsco.com/research-starters/history/catch-22-logic

la storia di Catch-22 considerato come dilemma logico

Quale futuro per i PFAS?

25 February, 2026 - 16:16

Diego Tesauro

Sui PFAS avete potuto leggere molti post su questo blog (per esempio qui, qui e qui) pertanto è ormai noto a tutti, anche alla popolazione che non ha molta dimestichezza con la chimica, che si tratta di una classe di composti che, come dimostrano studi epidemiologici, provoca gravi danni alla salute essendo interferenti endocrini ed agenti cancerogeni. La presenza dei PFAS nell’ambiente si è ormai dimostrata pervasiva essendo utilizzati per svariate applicazioni e persistenti a causa delle elevata stabilità del legame C-F. Inoltre la limitatissima presenza del fluoro negli esseri viventi determina una mancanza di forme viventi in grado di metabolizzare questi composti. Su questa base la Direttiva UE 2020/2184 (Drinking Water Directive) (recepita in Italia dal D.lgs. 23 febbraio 2023, n. 1) stabilisce un limite massimo di 0,5 μgL-1 per “PFAS totale” (somma di tutte le sostanze per- e polifluoroalchiliche) e 0,1 μgL-1 per la “somma di 20 PFAS” (in Italia sono stati aggiunti in realtà altri 10 di cui 4 da monitorare da gennaio) specifici nell’acqua potabile, con obbligo di monitoraggio dal 12 gennaio 2026. A questi parametri si aggiunge con il decreto legislativo del 19 giugno 2025, n. 102 un limite di 10 μgL-1 da raggiungere nel 2027 per l’acido trifluoracetico (TFA, si veda questo post), il PFAS con massa molecolare più piccola. A seguito dei limiti imposti si pongono diverse problematiche a cui far seguire tutte le strategie per minimizzare l’impatto. La prima è la rimozione dall’acqua per uso umano per scendere sotto i limiti di legge, a cui è strettamente legata una seconda, quella di smaltire le sostanze rimosse dai supporti contaminati come i filtri a carbone attivi. Gli attuali approcci sono basati sull’incenerimento, sulla discarica o sul trattamento o la fluorizzazione. Ma nonostante i recenti progressi negli approcci non basati sull’incenerimento per la distruzione dei PFAS funzionalizzati, i processi per il riciclo dei perfluorocarburi (PFC) e dei PFAS polimerici come il Teflon o politetrafluoroetilene (PTFE) sono limitati a metodi che utilizzano temperature elevate o reagenti fortemente riducenti. Negli ultimi due anni sono stati messi a punto varie metodologie alternative per cui vari studi sono stati pubblicati con lo scopo di creare una filiera del fluoro completamente circolare.

Una strategia di bonifica proposta prevede l’assorbimento e utilizzo dei PFAS attraverso l’incorporazione nei sistemi di batterie ricaricabili a base di zinco acquoso a temperatura ambiente [1]. L’acido perfluoroottanoico (PFOA), uno dei PFAS più diffusi, viene adsorbito sulla superficie dello zinco tramite interazioni idrofobiche ed elettrostatiche, con un’efficienza di rimozione superiore al 98%, e parzialmente defluorinato in fluoruro di zinco dopo 24 ore, consentendo la loro applicazione come strato protettivo dell’anodo per migliorare le prestazioni della batteria. Più generale si dimostra un’altra tecnologia indirizzata non solo ai composti non polimerici, ma anche verso i fluoropolimeri come il PTFE ed il polivinilidene fluoruro (PVDF) [2] (Figura 1) .

Figura 1 Struttura del PVDF che è ampiamente utilizzato in applicazioni energetiche ed elettriche, tra cui come legante per batterie agli ioni di litio  e come  rivestimento posteriore per pannelli solari, la cui la sua produzione mondiale è in forte crescita (100 Kt nel 2025).  A differenza del PTFE, che può essere depolimerizzato per decomposizione termica nei suoi monomeri per il riciclaggio chimico, il PVDF è resistente alla depolimerizzazione per decomposizione e genera HF pericoloso durante la decomposizione termica.

Per raggiungere lo scopo i PFAS sono stati fatti reagire con sali di fosfato di potassio in condizioni meccanochimiche senza solventi, con un processo di mineralizzazione che permette il recupero del fluoro come KF e K2PO3F (Figura 2b). I sali di fosfato possono essere recuperati per il riutilizzo, il che implica che non vi sia un impatto negativo sul ciclo del fosforo. Pertanto, i PFAS non sono solo distruttibili, ma possono ora contribuire a un’economia circolare del fluoro sostenibile. La necessità di smaltire i polimeri fluorati ha spinto altri ricercatori a sviluppare un protocollo meccanico-chimico, cioè con o senza volumi modesti di solventi, che decompone il PVDF per generare KF come agente fluorurante nucleofilo (Figura 2c) [3]. Il vantaggio rispetto al precedente metodo è anche nella rapidità della reazione oltre all’impatto ambientale ridotto dalla mancanza del solvente. Inoltre il KF prodotto con questo metodo può essere utilizzato per formare in modo efficiente legami S–F, C(sp2)–F e C(sp3)–F, fornendo una soluzione sostenibile.

Figura 2a Strategie e sfide attuali per la degradazione dei PFAS. I fluoropolimeri (ad esempio, PTFE, PVDF) sono persistenti. I PFAS anfifilici (ad esempio, PFOA, PFOS) possiedono proprietà sia bioaccumulabili che persistenti. 2b Degradazione meccanochimica del PTFE. Sono stati impiegati sali di fosfato di potassio, producendo sali di fluoruro (KF, K2PO3F), che possono essere utilizzati come precursori per fluorochimici indispensabili. 2c Degradazione meccanochimica del PVDF, utilizzato come substrato modello in tetraidrofurano con tBuOK, producendo KF-nero, che è stato utilizzato nella reazione di scambio di alogeno (HALEX) utilizzata nella sintesi di vari intermedi farmaceutici e agrochimici, nonché nella deossifluorurazione. I residui includevano carbonio amorfo e PVDF non reagito.

Sebbene fossero necessarie temperature più elevate, condizioni simili erano applicabili per la degradazione dell’ etilene tetrafluoroetilene (ETFE), PTFE e policlorotrifluoroetilene (PCTFE); tuttavia, poiché PTFE e PCTFE non contengono atomi di idrogeno, è probabile che la loro degradazione proceda attraverso un meccanismo diverso.

I risultati rivoluzionari di questi ultimi due studi risiedono nella capacità di estrarre fluoruri dai rifiuti fluorurati e riutilizzarli per la sintesi di composti fluorurati indispensabili, come quelli farmaceutici. Questi approcci consentono il riciclo dei composti fluorurati evitando un depauperamento delle risorse di fluoro in quanto evita di estrarre il fluoruro di calcio che viene successivamente trasformato nell’HF che è, come noto, pericoloso in quanto molto reattivo in grado di attaccare anche il legame Si-O del vetro e che quindi richiede per il suo uso leghe particolarmente inerti quali il monel.

Ulteriori ricerche sui meccanismi di reazione dettagliati saranno cruciali per il progresso in questo campo, in quanto i sistemi dovranno essere adattati per ampliare la gamma di materiali di partenza fluorurati essendo gli studi fino ad adesso principalmente focalizzati su fluoropolimeri bioinerti e durevoli oppure solo sul PFOA. Tuttavia, una classe di composti fluorurati sono esclusi, cioè quello dei refrigeranti fluorurati come gli HFC, che sostituendo CFC a seguito del protocollo di Montreal sono potenti gas serra.

Ma recentemente uno studio, non ancora pubblicato, ma in preprint individua una trattazione degli idrofluorocarburi con esametildisilazide di potassio (KHMDS) che determina una rapida defluorurazione per produrre fluoruro di potassio anidro. Il fluoruro di potassio può quindi essere utilizzato per preparare un’ampia gamma di molecole organiche e inorganiche fluorurate, tra cui fluoruri di solfonile, fluoruro di arile, fluoruri alchilici, fluoruri arilici e una gamma di fluoruri del blocco p, in un processo di fluorurazione a trasferimento one-pot. Pertanto, la distruzione dei composti fluorati, con il recupero del contenuto di fluoro, sembra essere un approccio emergente per trasformare i rifiuti di PFAS in ricchezza.

Non possiamo che rallegrarci di fronte a questi studi ed il concetto di economia circolare del fluoro sembra attraente dal punto di vista ambientale minimizzando lo sfruttamento delle risorse, ma restano perplessità ed alcune considerazioni che vanno sicuramente fatte sul futuro dei composti fluorurati. Le problematiche del riciclo sono diverse e vanno dalla necessita di uno scale up dei processi attualmente impiegati solo in laboratorio, massimizzando l’efficienza della defluorizzazione e l’uso di catalizzatori specifici. Inoltre si possono produrre una serie di composti a catena corta fluorurati, che presentano potenziali rischi ambientali se non adeguatamente contenuti o trattati. Pertanto, il recupero del contenuto di fluoro dai rifiuti PFAS offre potenziali benefici ambientali e di efficienza delle risorse; tuttavia, il suo beneficio economico potrebbe essere limitato essendo la fluorite un minerale abbondante. Purtroppo è noto che, laddove non si prospetta una esigenza economica o geopolitica nel mondo attuale, è difficile che una pratica si diffonda.

Ed allora vale la pena investire risorse e forze nella distruzione dei PFAS? La riflessione andrebbe fatta a 360° gradi. La risposta sarebbe positiva per rimuovere, per quanto è possibile, la presenza a breve termine dei PFAS dall’ambiente, ma immediatamente puntare a delle alternative per sostituirli in tutte le applicazioni, in modo che a lungo termine se ne possa fare a meno. Ma ci sono composti che presentano prestazioni simili, in termini di idrofobicità, oleofobicità o resistenza chimica?  Gli ostacoli vengono in gran parte dalle proprietà uniche offerte dai materiali fluorurati di stabilità termica e proprietà di energia superficiale. Altri ostacoli verrebbero, chiaramente come sarebbe facile attendersi, dalle otto multinazionali dominanti il mercato che negli ultimi anni, almeno in occidente, dichiarano di aver investito per evitare ulteriori danni ambientali dove erano localizzati i loro impianti. A questo punto bisogna comunque tener presente che i maggiori produttori di polimeri fluorurati è la Cina. Ora queste prospettive andrebbero portate avanti con determinazione seguendo quello che già è stato enunciato a seguito del protocollo di Montreal del 1987 dove le parti hanno concordato che una “sostanza controllata dovrebbe essere considerata “essenziale” solo se (1) è necessaria per la salute, la sicurezza o è critica per il funzionamento della società (compresi gli aspetti culturali e intellettuali); e (2) non sono disponibili alternative o sostituti tecnicamente ed economicamente fattibili che siano accettabili dal punto di vista ambientale e sanitario”. Su queste basi nell’aprile 2024, la Commissione europea ha pubblicato una guida sui criteri e i principi per il concetto di uso essenziale nella normativa UE sulle sostanze chimiche per guidare l’eliminazione graduale delle sostanze chimiche più nocive. In sintesi, una valutazione dell’essenzialità dovrebbe rispondere a tre domande principali: (1) La funzione chimica della sostanza più nociva è necessaria affinché il prodotto finale fornisca il suo servizio? (2) L’uso della sostanza più nociva soddisfa almeno uno dei criteri elencati nelle linee guida per essere considerata necessaria per la salute e la sicurezza o critica per il funzionamento della società? (3) Sono disponibili alternative più sicure in grado di fornire funzioni simili e un livello di prestazioni sufficiente?

Ad esempio un polimero fluorurato che oggi risponde a queste domande è il Nafion (Figura 3) , essenziale come elettrolita solido in celle a combustibile (fuel-cell)e nelle celle utilizzate per la produzione della soda caustica in luogo delle celle a mecurio. Ma esistono anche casi in cui i composti fluorurati possono essere sostituiti.

Figura 3 Il Nafion è un polimerotetrafluoroetilene solfonato, scoperto alla fine degli anni sessanta del XX secolo da Walther Grot della DuPont; è il primo di una classe di polimeri sintetici aventi proprietà ioniche, chiamati ionomeri. Le proprietà ioniche uniche del Nafion derivano dall’inserimento di gruppi eterei perfluorovinilici che terminano con gruppi solfonici su uno scheletro di  Teflon.I protoni del gruppo solfonico “saltano” da un sito acido all’altro. La struttura porosa permette il passaggio di protoni ma la bassa conduttività della membrana impedisce il passaggio di elettroni.

Esistono molte sostanze basate su tensioattivi a base di silicone, idrocarburi e biocomposti attualmente presenti in un database che fornisce le informazioni tendenti ad aiutare a identificare le applicazioni dei PFAS per le quali almeno un’alternativa idonea è già disponibile sul mercato. Combinando queste informazioni con la valutazione della sicurezza delle potenziali alternative, per garantire che non presentino un rischio di sostituzione indesiderata, è possibile identificare gli usi non essenziali dei PFAS. Inoltre l’attività di ricerca può essere diretta verso la loro sostituzione come ad esempio recenti studi nell’ambito della sintesi peptidica cercano  di sostituire il TFA, ampiamente utilizzato nelle sintesi in fase solida per distaccare i peptidi dalla resina, con il  acido metansolfonico e formico [5].

Per approfondire :

1. Zhu, Y. T. et al. Small 21, e07204 (2025).

2. Hattori, M. et al. Nat. Chem. 17, 1480–1487 (2025).

3. Yang, L. et al. Nature 640, 100–106 (2025).

4. Figuière, R. et al. Environ. Sci. Technol. 59, 2031–2042 (2025).

5. Fidha F. et al. Green Chemistry 27, 14911(2025)

La Chimica e la Meccanica Quantistica.2

20 February, 2026 - 16:56

Claudio Della Volpe

La prima parte di questo post è pubblicata qui.

Anzitutto un paio di chiarimenti importanti.

In primo luogo è vero che Feynman non ha detto la frase famosa “Zitto e calcola”, ma ne ha difeso la filosofia; egli scrive in La legge fisica, citato in fondo

c’era un tempo in cui sui giornali si leggeva che solo dodici persone al mondo comprendevano la teoria della relatività [….]. Invece credo di poter dire con sicurezza che nessuno ancora comprende la meccanica quantistica [….]. Se ci riuscite, cercate di non chiedervi “ma come può essere così?” Perché entrerete in un vicolo cieco da cui nessuno è ancora uscito

In secondo luogo non ho citato nel primo post l’esperimento di Davisson e Germer (condotto in varie fasi fra il 1923 e il 1927), ossia la diffrazione elettronica ottenuta illuminando con un fascio elettronico un singolo cristallo di nickel, ma mi sono concentrato sull’esperimento di doppia fenditura, e l’ho fatto per non complicare ulteriormente l’argomento; la storia dettagliata la trovate su Wikipedia e la teoria relativa fu sviluppata solo nel 1928, dunque dopo il V congresso Solvay che vide l’inizio della polemica Einstein-Bohr.

Il lavoro era stato sottomesso come Letter all’editore di Nature nell’aprile 1927.

L’esperimento di Davisson e Germer fu la prima conferma sperimentale diretta del fatto che gli elettroni mostravano l’ipotizzato comportamento ondulatorio, perché i due ricercatori trovarono i picchi di emissione che coincidevano con quanto previsto dall’equazione di Bragg ma a patto di usare una lunghezza d’onda dell’elettrone pari a quella ottenuta dal calcolo di de Broglie; per fare questo dovettero usare elettroni di una specifica energia. A Davisson che stava facendo un esperimento con tutt’altri scopi, venne l’idea dopo aver seguito il precedente IV congresso Solvay, in cui aveva seguito le relazioni di Born e de Broglie. Questo fa anche capire che fino all’esperimento di Merli del 1976 (o tutt’al più di Jönson del 1961 o 1974) un confronto come la Fig. 2 del primo post non aveva evidenze sperimentali dirette.

Come sempre ci furono vari tentativi fatti anche sui gas e con elettroni ad alta energia, ma quello di Davisson e Germer fu il più preciso e significativo.

E tenete presente che fra il 1927 (Davisson e Germer) e il 1976 (Merli e altri) ci sono quasi 50 anni di tentativi vari per fare un esperimento inattaccabile di interferenza a due fenditure e a singolo elettrone, che vi ho raccontato nel post precedente.

Dunque fino ad anni recenti, fino agli anni 70 del secolo scorso (io mi sono laureato nel maggio 76) una prova sperimentale che dimostrasse senza alcun dubbio che le singole particelle soggette alla meccanica quantistica si comportavano tutte, anche prese singolarmente, come particelle guidate da un’onda non esisteva; la meccanica quantistica doveva la sua forza alla capacità interpretativa in campo chimico e spettroscopico o nucleare, ma ha dovuto aspettare parecchio per il rigore e la completezza

Questo ci deve far pensare ancor di più ad assumere l’interpretazione di Copenhagen come un dato di fatto; vedremo che non è la sola possibile.

Tutto cominciò fra il 24 e il 29 ottobre 1927 a Brussels, quasi 100 anni fa; vi si teneva la V conferenza Solvay, col titolo: Electrons et Photons e vi parteciparono solo 29 persone che vedete qui sotto; il grosso li conoscete certamente, ma comunque i nomi sono scritti in calce.

Dei 29 partecipanti 17 vinsero il Nobel e l’unica donna ne vinse due.

Di cosa si discusse?

Il testo delle varie relazioni e una cronaca sia pur riassuntiva del dibattito svoltosi nel 1927 si trova (brevemente) nel 6° capitolo di un libro che traccia la storia delle Conferenze Solvay (Mehra), un’altra fonte per la conferenza è il libro di Bacciagaluppi e Valentini, che riprenderò sulla relazione di de Broglie insieme all’articolo di Ben-Dov; infine in modo riassuntivo si possono leggere alcune tesi fra cui scelgo di citare quella di stampo filosofico di Angelina De Luca; tutti questi testi sono citati nelle referenze.

Di tutte le presentazioni ce ne interessano qui principalmente due, quella di Bohr e quella di de Broglie.

Nella prima vengono tirate le fila, anche riprendendo alcune posizioni già espresse. Vediamone le fondamentali, alcune delle quali saranno introdotte nel 27, altre solo dopo, ma in piena coerenza con le posizioni di Bohr, Born e Schrödinger e von Neumann: la nascente visione che poi sarà definita “ortodossa” o di Copenhagen.

  1. Principio di complementarietà (settembre 1927, nella cerimonia celebrativa di Volta, svoltasi poco tempo prima a Como. La relazione di Bohr a novembre sarà UGUALE a quella presentata nel settembre). Cosa è il principio di complementarietà? È una buona domanda a cui non molti sanno rispondere.

Bohr scrive nel testo di Mehra (pag 159) Come sottolineato nella presentazione, uno strumento adeguato per una descrizione complementare è offerto proprio dal formalismo della meccanica quantistica, che rappresenta uno schema puramente simbolico (sottolineatura e grassetto miei) che consente solo previsioni, in linea con il principio di corrispondenza (afferma che la meccanica quantistica si riduce a quella classica per valori elevati dei numeri quantici), sui risultati ottenibili in condizioni specificate mediante concetti classici. È necessario ricordare che anche nella relazione di indeterminazione abbiamo a che fare con un’implicazione del formalismo che sfugge a un’espressione univoca in termini adeguati a descrivere immagini fisiche classiche. Pertanto, una frase come “non possiamo conoscere sia la quantità di moto che la posizione di un oggetto atomico” solleva immediatamente interrogativi sulla realtà fisica di questi due attributi dell’oggetto, ai quali è possibile rispondere solo facendo riferimento alle condizioni per l’uso inequivocabile dei concetti di spazio-tempo, da un lato, e alle leggi dinamiche di conservazione, dall’altro.

La cosa si può riassumere così (versione recente proposta da Davide Fiscaletti**):

le due descrizioni fondamentali della fisica classica (spazio-tempo e causalità) sono incompatibili in meccanica quantistica. Si può scegliere l’una o l’altra, ma non è mai possibile realizzarle entrambe su uno stesso fenomeno perché si escludono a vicenda

Nell’esperimento della doppia fenditura, insomma, sebbene siano compresenti nell’interpretazione onde e particelle non potete mai provare che nella medesima fase esse siano compresenti: o sono onde o sono particelle e si trasformano l’una nell’altra nelle diverse fasi (o meglio la nostra interpretazione cambia nelle diverse fasi).

Tenete anche presente che Bohr fece della complementarietà definita in questo particolare modo una sorta di assoluto naturale introducendolo in vari campi anche non della fisica; c’è una critica feroce alla complementarietà scritta da Bell qualche anno dopo, ma non ve la anticipo qui, ve la citerò parola per parola nei prossimi post.

Nel frattempo considerate che per Bohr due cose sono complementari se si completano a vicenda ma non sono mai presenti insieme, anzi NON POSSONO essere compresenti. Una ben particolare definizione di complementarietà, ammetterete.

  • Interpretazione “a disturbo” del principio di indeterminazione di Heisenberg (già pubblicato a marzo 1927); questo è un approccio che è diventato così comune da essere parte stessa della nostra conoscenza della MQ. Il fatto numerico inconfutabile è che ci sono coppie di grandezze, chiamate coniugate, per le quali gli errori di misura sono collegati: se uno diminuisce l’altro cresce nonostante i nostri sforzi ed il loro prodotto rimane superiore al quanto di Planck; l’equazione esatta è per due grandezze coinvolte x e p: Δx Δp≥h/2π

Heisenberg nel suo articolo del 27 introduce un esperimento mentale che è entrato nell’inconscio collettivo di tutti noi; prendi un microscopio potentissimo e inquadra un elettrone fermo, per vederlo usi un quanto di luce, la cui lunghezza d’onda si riduce quando aumenta l’energia; se vuoi avere dunque una individuazione precisa devi “illuminarlo” con una tale energia che la misura simultanea e precisa delle due grandezze (posizione e momento) risulta impossibile: più diminuisce la lunghezza d’onda più aumenta il momento ceduto. Tutti noi l’abbiamo imparata così.

Eppure già qua cominciano i problemi. Scrive Heisenberg:

Nel presente lavoro vengono innanzitutto fornite definizioni precise dei termini: posizione, velocità, energia ecc. (ad esempio dell’elettrone), che mantengono la loro validità anche nella meccanica quantistica, e viene dimostrato che le grandezze canonicamente coniugate possono essere determinate simultaneamente solo con un’imprecisione caratteristica

La sottolineatura è mia. La simultaneità (definita addirittura nei termini della relatività) viene invocata in tutto il lavoro non solo nell’abstract (come trovate erroneamente scritto su Wikipedia). Heisenberg fa vari esempi, ma non un caso generale (una generalizzazione del principio fu poi tentata da due lavori successivi indicati in fondo):

(posizione x / quantità di moto px – tempo t / energia E ) che però non stanno tutti sul medesimo piano dal punto di vista matematico, per esempio energia e tempo non sono grandezze coniugate perché un operatore tempo in MQ non esiste.

Il concetto base (o almeno quello sul quale si accordarono Bohr e Heisenberg, che all’inizio non erano d’accordo del tutto) è che l’osservatore, che è un oggetto macroscopico, interferisce con le proprietà del sistema microscopico tramite la misura rendendo impossibile determinarle con precisione.

A questo punto ci si può chiedere dove inizia il sistema di misura o dove finisce il sistema microscopico, ma non c’è alcuna indicazione concreta a riguardo.

Da tener presente due aspetti: prima della pubblicazione del lavoro del marzo 27 e della conferenza Solvay vi fu un lungo lavoro di raffinamento, raccontato nella pagina della Stanford. Subito dopo vi furono varie puntualizzazioni come quelle di Condon e Robertson (citate in fondo) che comunque aiutarono a generalizzare la trattazione rendendola simile a quella che conosciamo oggi.

  • Teorema della misura di von Neumann (Il concetto è esposto in modo completo in Mathematische Grundlagen der Quantenmechanik, I fondamenti matematici della meccanica quantistica), pubblicato nel 1932) E’ un teorema che dimostra che, a certe condizioni, non possono esistere insiemi statistici privi di dispersione, ma solo a certe condizioni, non è una posizione assoluta. Ne riparleremo nel prossimo post, anche per capire cosa c’entra questo col resto; al momento diciamo solo che se non esistono insiemi privi di dispersione, allora possiamo aspettarci che NON esistano cause esatte di un fenomeno, il criterio di causalità non vale più; causalità vuol dire che date certe cause le conseguenze sono date. Se tutti i risultati di una misura sono fissati a priori sulla base poniamo di parametri (al momento casomai non noti, le famose variabili nascoste) allora si può sempre scegliere un sottoinsieme di dati con parametri nascosti fissi e di conseguenza anche i parametri misurabili del sistema avrebbero valori fissi e dunque sarebbero privi di dispersione. Mentre ci pensate procedo.
  • Nella V relazione del V congresso, tenuta da Born e Heisenberg alla funzione d’onda, già proposta da Schrôdinger viene aggiunto il postulato del collasso della funzione d’onda indotta dall’operazione di misura per spiegare come si passa da stati in sovrapposizione a stati univoci. Il termine usato non è ancora collasso della funzione d’onda ma “riduzione del pacchetto d’onde” (Reduktion des Wellenpakets). mentre la sua struttura matematica formale fu successivamente sviluppata da John von Neumann nel suo libro del 1932, Mathematical Foundations of Quantum Mechanics. Sebbene Heisenberg non fornisse una spiegazione completa del significato fisico, egli sottolineò che non si trattava di un processo fisico, e von Neumann lo formalizzò come un cambiamento improvviso e non unitario che si verifica durante la misurazione. Il concetto era stato introdotto per la prima volta in un articolo del marzo 1927 da Werner Heisenberg nel contesto del principio di indeterminazione. *

È molto interessante la polemica che si sviluppa al V congresso a questo riguardo fra Dirac e Heisenberg, riportata da Mehra (pag. 149) in riassunto che traduco qui:

La teoria quantistica, dice Dirac, descrive uno stato mediante una funzione d’onda dipendente dal tempo Ψ che può essere espansa in un dato momento t in una serie contenente funzioni d’onda Ψn con coefficienti cn. Le funzioni d’onda Ψn sono tali da non interferire in un istante t> h. Ora, la Natura effettua una scelta in un momento successivo e decide a favore dello stato Ψn con probabilità |cn|2. Questa scelta non può essere revocata e determina l’evoluzione futura dello stato.

Heisenberg si oppose a questo punto di vista affermando che non aveva senso parlare di una scelta della Natura e che era la nostra osservazione a darci la riduzione alla funzione propria. Ciò che Dirac chiamava “scelta della Natura”, Heisenberg preferiva chiamarlo “osservazione”, mostrando la sua predilezione per il linguaggio che lui e Bohr avevano sviluppato insieme.

Heisenberg descrive il collasso come una caratteristica dell’osservazione, ma non come un processo fisico in sé, mentre von Neumann lo ha formalizzato come un cambiamento distinto e discontinuo nello stato del sistema al momento della misurazione. Entrambi sono in disaccordo con Dirac che oggi sarebbe molto vicino ad un sostenitore di un’altra delle interpretazioni della MQ che vedremo nei prossimi post (mi riferisco qui alla teoria GWR).

Il termine collasso della funzione d’onda prenderà il sopravvento solo dopo il 1955, l’anno in cui il libro di Von Neumann fu tradotto in inglese. Notate la sottile differenza fra riduzione e collasso, che però implica o può implicare una profonda differenza di vedute ed anche la solita onnipotenza della lingua (cui abbiamo accennato altre volte in questi post).

E terminiamo con quello che disse de Broglie.

Ora può sembrare facile fare questo riassunto, invece vi assicuro che questa è stata la parte più difficile; sono passati quasi 100 anni e le idee di de Broglie sono state messe nel dimenticatoio, peggio, sono state ridotte, tranciate, schiacciate, presentate con sufficienza e anche con superficialità.

de Broglie ha almeno tre diversi approcci alla questione della meccanica quantistica, cosa non banale da riportare.

Dunque non so se riuscirò; ma vi invito a dare un occhio al lavoro di Bacciagaluppi e Valentini, citato in fondo, che rappresenta una delle più fedeli e complete rappresentazioni delle cose; la relazione di de Broglie occupa il 2° capitolo, 26 pagine, ma molto utili. Anche perché se provate a scaricare i lavori originali di de Broglie ne troverete delle belle, del tipo che ne trovate solo versioni francesi o non le trovate affatto. Una sorta di sottile damnatio memoriae.

L’intervento di de Broglie inizia ricordando le proprie posizioni passate e quelle degli altri intervenuti alla conferenza.

Nel gennaio 1927 de Broglie aveva scritto una brevissima memoria che dice l’essenziale della differenza che incomincia a separarlo da Bohr e Born relativa all’interpretazione dell’onda materiale e comincia da questa noterella la strada che lo porterà poi a pubblicare come vedremo in altri post lavori più complessi ma solo nel 1954.

La nuova Meccanica assimila il punto materiale in un dato campo a un fenomeno ondulatorio la cui equazione di propagazione contiene la funzione potenziale F (x, y, z, t). Sembra fisicamente probabile che questa equazione ammette in ogni caso una soluzione della forma f(x,y,z,t)cos φ(x,y,z,t)e la funzione f  comporta una singolarità puntuale (grassetto mio), in genere mobile, che traduce analiticamente l’esistenza del punto materiale. Al grado di approssimazione delle vecchie meccaniche, si dimostra che la velocità di questa singolarità è in ogni istante normale alla superficie φ= cost. e probabilmente deve essere lo stesso quando le vecchie meccaniche non sono più applicabili. …………..

Nonostante le difficoltà che presenta la loro messa a punto, ci sembra interessante segnalare queste idee che si possono riassumere come segue: sia nella micromeccanica che nell’ottica, le soluzioni continue delle equazioni di propagazione devono fornire solo una rappresentazione statistica, poiché la descrizione microscopica esatta dei fenomeni richiede senza dubbio l’uso di soluzioni con singolarità che riflettono la natura atomica della materia e della radiazione.(sottolineatura mia).

Secondo Ben-Dov, Nel valutare la posizione di de Broglie, occorre innanzitutto prestare attenzione

al fatto che tra il 1926 e il 1927 de Broglie sviluppò non una, ma due diverse interpretazioni (corsivo mio) della meccanica ondulatoria, che egli definì collettivamente come “teorie causali”. La prima di queste interpretazioni, la “teoria della doppia soluzione”, rifletteva effettivamente le convinzioni più profonde di de Broglie; ma la seconda, la “teoria dell’onda pilota”, non fu mai considerata da lui come qualcosa di più di un approccio “provvisorio” e persino “truncato”.

Dice ancora Ben-Dov: Pertanto, nel suo intervento alla quinta conferenza Solvay, de Broglie [Rif. 3, p. 112] critica l’interpretazione di Schroedinger, che considera la funzione d’onda quantistica come una distribuzione continua di materia e carica. In questo caso, le argomentazioni di de Broglie sono le seguenti: in primo luogo, la funzione d’onda a più particelle ψ(x1 . . . xN ) è scritta come una funzione dello spazio di configurazione a 3N dimensioni e quindi ne fa un uso esplicito. Ma lo spazio di configurazione è definito dalle coordinate x1 . . . xN di N particelle puntiformi “immaginarie”, che di per sé non compaiono nella teoria; pertanto, l’uso esplicito dello spazio di configurazione sembra privo di significato. In secondo luogo, anche di per sé, il concetto di spazio di configurazione non ha una chiara interpretazione fisica: è solo un costrutto matematico astratto.

Prima di proseguire vorrei anche ricordare un altro lavoro, pubblicato da de Broglie all’inizio del 1927 e che quando lo ho trovato mi ha bloccato per settimane, a causa della grandezza della sua intuizione, che mi sono dovuto digerire (lo approfondirò nel prossimo post); il titolo è L’universo a cinque dimensioni e la meccanica ondulatoria.

Siamo reduci dallo sconvolgimento einsteiniano che ha reso il tempo equivalente ad una delle altre tre dimensioni, la relatività è a 4 dimensioni e nel 1921 Theodor Kaluza e successivamente (1926) Oskar Klein (che non è quello della famosa bottiglia) ne avevano proposto una quinta, sia pur compattificata, ossia invisibile da noi soggetti macroscopici, ma accessibile alla dimensione di Planck, per ospitare l’elettromagnetismo insieme alla gravità.

de Broglie accoglie e sviluppa questa idea e suggerisce come una quinta dimensione possa eliminare alcuni dei problemi che avevano reso difficile da digerire la MQ: eliminando per esempio le grandezze immaginarie, e ripristinando la causalità ed il determinismo.

Non proseguì su questa strada per la difficoltà matematica dell’analisi ed anche perché alcune previsioni non coincidevano con la realtà particellare e quantizzata delle cose.

Questo è forse l’aspetto più contraddittorio, ma anche più profondo. Se ogni particella vibra in modo stazionario nella quinta dimensione questo può giustificare in modo naturale la sua quantizzazione e le sue caratteristiche specifiche. L’idea è stata ripresa in tempi recenti e ne riparleremo.

Costretto dalla forza delle cose, della realtà storica e dalle difficoltà che incontrava de Broglie rinuncia a questa idea rivoluzionaria e si concentra sulla cosiddetta “doppia soluzione” (lavoro pubblicato sempre nell’inizio del 1927 e riportato in fondo, un lavoro di cui Pauli ebbe a scrivere in una lettera privata a Bohr che si trattava “di un lavoro ricco di idee, molto acuto e su un livello molto più alto di quello fanciullesco di Schroedinger”), nella quale egli postula l’esistenza di due onde di natura differente :

la prima è l’onda u, l’onda materiale, comportante una singolarità, che deve essere oggettiva e, in quanto tale, deve avere un’ampiezza sempre ben determinata, legata alla particella, per determinarne il comportamento e la posizione;

la seconda è l’onda Ψ, l’onda pilota, che essendo, invece, solo uno strumento matematico calcolabile in base all’onda reale con un’ampiezza continua è semplicemente una rappresentazione delle probabilità inerenti alla particella.

Le due onde hanno la medesima fase.

Ciò è espresso dal cosiddetto postulato della doppia soluzione:

« a ogni soluzione regolare Ψ = ae ^(2φπi/h) dell’equazione d’onda della meccanica quantistica deve corrispondere una soluzione a singolarità del tipo u = fe^(2φπi/h) , avente la stessa fase φ, ma con un’ampiezza f comportante una singolarità puntuale, in generale mobile».

Questa teoria mira a superare l’interpretazione probabilistica di Copenhagen, proponendo un modello deterministico. de Broglie propone che l’equazione di Schrödinger non descriva l’intera realtà, ma solo la componente statistica. La formula di guida stabilisce che la velocità istantanea del corpuscolo nello spazio, nel caso in cui si possano ignorare le correzioni relativistiche e supporre nullo il campo elettromagnetico, assume la seguente semplice forma: v=(-1/m)(grad φ). Infine la particella è sottoposta ad una forza di tipo nuovo, uguale a –gradQ, dove Q è il potenziale quantico, che esprime l’effetto del fenomeno ondulatorio sulla particella e che, per il caso non relativistico, si scrive:

A differenza dell’interpretazione standard, la teoria della doppia soluzione (che sarà poi ripresa da Bohm) sostiene che particelle e onde seguano traiettorie ben definite e prevedibili.

Ma attenzione, de Broglie non presenta nemmeno questa teoria al congresso Solvay. Egli ne presenta una forma edulcorata che viene di solito chiamata teoria dell’onda pilota, che viene spessissimo presentata come LA teoria di de Broglie il che è semplicemente falso; tanto più che è sulle critiche a questa teoria, sollevate durante la conferenza, che si appunta l’attenzione e si conclude poi con l’approccio di Copenhagen.

La teoria dell’onda pilota mantiene l’idea che esistano particelle ed onde, separate, e che l’onda, che evolve secondo l’equazione di Schrödinger, indirizzi il moto della particella, che a sua volta non ha alcun effetto sull’onda. Si parte sempre dalla equazione proposta da de Broglie λ = h / p, dove la lunghezza d’onda associata alla particella dipende dal suo momento p secondo il quanto di Planck.

Wolfgang Pauli durante la conferenza sollevò un’obiezione riguardo a tale proposta, affermando che non trattava adeguatamente il caso dello scattering anelastico profondo. De Broglie non riuscì a replicare a tale obiezione, e si dice abbandonasse quindi l’approccio dell’onda pilota, ma abbiamo visto che il problema era più ampio.

Un impressionante esempio dell’interazione onda-particella in un contesto del tutto diverso è mostrato negli esperimenti di Yves Couder, che avevo raccontato in un altro post su questi temi di alcuni anni fa. Qui un liquido viscoso, olio di silicone (o una soluzione di glicerolo) viene indotta meccanicamente ad oscillazioni forzate verticali in un contenitore basso e “guida” il moto di gocce del medesimo fluido senza mescolarsi con esse. Vi assicuro, per esperienza personale (ci feci una tesi sperimentale) che è emozionante ripetere questo esperimento in laboratorio, che mostra parecchie delle classiche proprietà dei sistemi quantistici.

Si racconta che durante la discussione generale alla fine della conferenza Paul Ehrenfest scrivesse sulla lavagna il seguente pezzo della Genesi (11; 3-7)

Si dissero l’un l’altro: «Venite, facciamoci mattoni e cuociamoli al fuoco». Il mattone servì loro da pietra e il bitume da cemento.

Poi dissero: «Venite, costruiamoci una città e una torre, la cui cima tocchi il cielo e facciamoci un nome, per non disperderci su tutta la terra».

Ma il Signore scese a vedere la città e la torre che gli uomini stavano costruendo.

Il Signore disse: «Ecco, essi sono un solo popolo e hanno tutti una lingua sola; questo è l’inizio della loro opera e ora quanto avranno in progetto di fare non sarà loro impossibile.

Scendiamo dunque e confondiamo la loro lingua, perché non comprendano più l’uno la lingua dell’altro».

Ehrenfest in quel fine 1927 considerava la torre di Babele una buona analogia della situazione.

Consultati:
http://hyperphysics.phy-astr.gsu.edu/hbase/DavGer.html#c1

https://en.wikipedia.org/wiki/Davisson%E2%80%93Germer_experiment#cite_note-:0-1

dedicati entrambi all’esperimento di Davisson e Germer

R. Feynman scrive la frase citata in La legge fisica, Universale scientifica Boringhieri,

Torino, 1971

J. Mehra, The Solvay Conferences on Physics © D. Reidel Publishing Company, Dordrecht, Holland 1975 – Il libro di Mehra sulle conferenze Solvay. Il cap. 6° è dedicato alla V conferenza e si può scaricare anche separatamente da internet.

Bacciagaluppi e Valentini, Quantum Theory at the Crossroads: Reconsidering the 1927 Solvay Conference che si può trovare all’inverosimile prezzo di 212 euro su Amazon, ma anche gratis e facilmente su arXiv; https://arxiv.org/abs/quant-ph/0609184, una storia non banale della conferenza del 1927 considerata come un momento critico nella storia della scienza; e sono d’accordo con la loro valutazione.

Yoav Ben-Dov , de Broglie’s causal interpretations of quantum mechanics in Annales de la Fondation Louis de Broglie, vol. 14, no. 3, 1989 343

https://isonomia.uniurb.it/vecchiaserie/2003deluca.pdf  la tesi di stampo filosofico di Angelina De Luca, ma forse proprio per questo scritta in modo molto sintetico ma chiaro.

J. von Neumann, Mathematical foundations of quantum mechanics, Princeton University Press, Princeton 1955, il classico mattone matematico, non guardatelo se non avete robuste basi matematiche, rischiate di perdervi.

*W. Heisenberg, Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik [Sul contenuto intuitivo della cinematica e della meccanica nella teoria quantistica], in Zeitschrift für Physik, vol. 43, n. 4, 1927, pp. 172-178. una traduzione inglese si trova qui: https://ntrs.nasa.gov/api/citations/19840008978/downloads/19840008978.pdf

** Davide Fiscaletti – I gatti di Schrödinger – Meccanica quantistica e visione del mondo, Franco Muzzio editore, 2007 p 21, testo bello e ambizioso, consigliatissimo

https://plato.stanford.edu/entries/qt-uncertainty/

H.P. Robertson: The uncertainty principle [Il principio di indeterminazione], Physical Review 34 (1929) 163–164.

E. U. Condon: Remarks on uncertainty relations [Osservazioni sulle relazioni di indeterminazione], Science 69 (1929) 573-574.

L. de Broglie, Structure atomique de là matière et du rayonnement et la Mécanique ondulatoire. Note de M. Louis de Broglie, 31 gennaio 1927, Comptes rendus hebdomadaires des séances de l’Académie des sciences, scaricato da gallica.bnf.fr/ un sito dove la Francia raccoglie buona parte della sua produzione culturale

Louis de Broglie. L’univers à cinq dimensions et la mécanique ondulatoire. Journal de Physique et le Radium, 1927, 8 (2), pp.65-73. 10.1051/jphysrad:019270080206500 . jpa-00205281 una versione inglese di questo articolo si trova in https://neo-classical-physics.info/uploads/3/4/3/6/34363841/de_broglie_-_5d_wave_mech.pdf

Louis de Broglie, Nouvelle dynamique des quanta, in Electrons et Photons. Rapports et discussions du cinquième conseil de physique tenu a Bruxelles du 24 au 29 octobre 1927 sous les auspices de l’Institut International de Physique Solvay, Gauthier-Villars, 1928, pp. 105-132.

Le bioplastiche sono veramente bio?

16 February, 2026 - 14:03

Luigi Campanella, già Presidente SCI

La problematica è chiara. Le bioplastiche dovrebbero garantire la disponibilità di un materiale per certi aspetti utile, senza però danneggiare ambiente e salute a causa della diffusione ubiquitaria dei suoi prodotti di degradazione. Ovviamente il prefisso bio deve essere garantito e lo si fa imponendo una composizione in cui la componente non bio non superi l’1%.

Da qui la necessità di disporre di metodi capaci di determinare con precisione tale componente, al fine di garantire la commerciabilità della corrispondente bioplastica. I metodi di controllo della composizione delle bioplastiche già esistenti includono:

1. *Analisi chimica*: tecniche come la cromatografia liquida (HPLC), la spettroscopia infrarossa (IR) e la spettrometria di massa (MS) per determinare la composizione chimica delle bioplastiche.

2. *Test di solubilità*: per valutare la solubilità delle bioplastiche in diversi solventi e determinare la loro composizione.

3. *Analisi termica*: tecniche come la calorimetria differenziale a scansione (DSC) e la termogravimetria (TGA) per studiare le proprietà termiche delle bioplastiche.

4. *Microscopia*: tecniche come la microscopia elettronica a scansione (SEM) e la microscopia a forza atomica (AFM) per studiare la morfologia e la struttura delle bioplastiche.

Ora fa piacere sapere che un team, peraltro italiano, di ricercatori ha messo a punto un nuovo metodo (si veda la citazione in fondo al post). Tra i componenti che hanno contribuito ci sono anche ricercatori pisani a cui vorremmo chiedere che i vantaggi in termini di accuratezza e sensibilità del metodo siano diffusi, al di là della pubblicazione scientifica, con il doppio fine di ridurre gli abusi e verificare le conformità alla legge.

Il team di ricercatori dell’Università di Pisa, d’intesa con il Consorzio Biorepack, il Consorzio nazionale per il riciclo organico delle bioplastiche compostabili, ha sviluppato questo nuovo metodo per rilevare la presenza di polietilene, un polimero non biodegradabile, nelle bioplastiche compostabili. L’obiettivo è contrastare l’illegalità nel settore degli imballaggi e garantire la qualità delle bioplastiche, proteggendo l’ambiente e la salute umana.

Sul piano operativo, il protocollo proposto dai ricercatori UniPi si basa su tecniche di pirolisi analitica accoppiata a spettrometria di massa, questo tipo di coordinamento rende capaci di rilevare concentrazioni di PE anche inferiori all’1%, in linea con i limiti di legge.

L’innovazione non sta solo nella metodica in sé, ma nel suo doppio valore strategico: da un lato diventa una garanzia di trasparenza industriale, permettendo alle aziende di certificare con assoluta certezza la purezza dei propri materiali; dall’altro si trasforma in un potente strumento di sorveglianza ambientale, offrendo alle autorità di controllo una “lente d’ingrandimento” capace di distinguere, senza margine d’errore, le bioplastiche autentiche.

Non è sufficiente etichettare un prodotto come biodegradabile e compostabile: è essenziale verificarne l’effettiva conformità, per evitare che i residui plastici persistano nell’ambiente per anni”, sottolinea Marco Mattonai, uno degli autori.

I risultati delle analisi sinora condotte hanno rivelato che circa metà delle buste sottoposte ai controlli sono fuori norma con quantità di polietilene anche sino al 5%. Si tratta di prodotti in gran parte di provenienza extra UE.

Con le metodiche analitiche che abbiamo sviluppato è finalmente possibile effettuare controlli affidabili anche su campioni complessi, in tempi rapidi e con costi contenuti, offrendo uno strumento concreto a tutela dell’ambiente e della trasparenza verso i consumatori”, aggiunge Erika Ribechini.

Vorrei ricordare quando negli anni 70 alcune leggi a protezione sanitaria ed ambientale furono ritardate dalla indisponibilità di metodi analitici affidabili di controllo rispetto ai limiti individuati dalla medicina come capaci in ogni caso di produrre un effetto.

Sapere che una legge ed il rispetto di una norma sono dotati di adeguati strumenti scientifici di controllo diviene un elemento importante di educazione civile e di sicurezza ambientale.

L’articolo è stato pubblicato in Journal of Analytical and Applied Pyrolysis col titolo “Quantification of polyethylene in biodegradable plastics by analytical pyrolysis-based methods with GC split modulation.”

Consultati:

https://www.polimericanews.com/articolo.asp?id=348

Lotta all’illegalità nelle bioplastiche: Unipi sviluppa un metodo innovativo per individuare la componente non biodegradabile

Anche la plastica aumenta l’effetto serra?

12 February, 2026 - 09:52

Diego Tesauro

Forse questo titolo appare piuttosto scontato in quanto, essendo la plastica prodotta da fonti fossili, sia nella fase della sua produzione che nella fase del suo smaltimento, con qualunque procedura si operi, genera CO2. La sola produzione è responsabile di circa il 5% (2,24 gigatonnellate di CO2 equivalente) delle emissioni globali di gas serra, rispetto all’1,4% (0,6 GtCO2) dell’aviazione [1]. Quindi aumenta l’effetto serra, il punto interrogativo sarebbe pleonastico. Ma la domanda si pone nel caso ci si voglia riferire al contributo alla produzione di un altro gas serra al quale contribuisce in misura non ancora stimata con certezza: il protossido di azoto (N2O) (Figura 1). Il protossido di azoto o ossido nitroso, scoperto da Joseph Priestley nel 1772, già all’inizio del XIX secolo aveva mostrato le sue proprietà anestetiche, è un potente gas serra e inoltre contribuisce ad una riduzione dello strato di ozono. Spesso ci si concentra sulle prevalenti emissioni di altri gas serra come il biossido di carbonio ed il metano trascurando spesso questo ossido di azoto. Eppure ha una lunga permanenza in atmosfera ed è 273 volte più efficace della CO2 come potenziale di riscaldamento globale (GWP) su un periodo di 100 anni (https://www.epa.gov/ghgemissions/understanding-global-warming-potentials). Inoltre le emissioni sono aumentate del 40% dal 1980 al 2020 secondo l’agenzia federale degli USA National Oceanic and Atmospheric Administration (NOAA).

 Figura 1 Struttura di Lewis del protossido di azoto

La causa primaria è ascrivibile all’uso agricolo di fertilizzanti ricchi di azoto e letame. I processi che lo generano nel suolo sono di natura abiotica e microbica che agiscono in condizioni di bassa concentrazione di ossigeno. (Figura 2)

Figura 2 Quadro concettuale per i processi e i fattori chiave che regolano il ciclo dell’azoto nel suolo e di conseguenza la produzione di N2O dai terreni coltivati

(A) La crescita delle piante attraverso la fotosintesi, la produttività, l’allocazione della biomassa e l’impatto della lettiera e degli essudati radicali sulle proprietà del suolo e sui percorsi di produzione di N2O.

(B) Principali processi biotici attraverso percorsi microbici per la produzione, la riduzione, la trasformazione e la diffusione di N2O dai terreni coltivati.

(C) Principali processi abiotici attraverso percorsi chimici per la produzione e la diffusione di N2O dai terreni coltivati.

(D) Le proprietà del suolo controllano i percorsi biotici e abiotici per la produzione di N2O.

(E) Impatti dei cambiamenti climatici sulla produzione di N2O nei terreni coltivati ​​attraverso la crescita delle piante, le proprietà del suolo e i percorsi microbici e chimici.

(F) Le pratiche di gestione agricola influenzano la produzione di N2O nei terreni coltivati ​​attraverso la crescita delle piante, le proprietà del suolo e i percorsi microbici e chimici.

I batteri denitrificanti utilizzano i nitrati come agenti ossidanti producendo nitriti e quindi protossido di azoto prima di chiudere il ciclo con produzione di azoto elementare. Quindi le condizioni del suolo, il tipo di fertilizzante ed i tempi di applicazione influenzano significativamente le emissioni. Va da sé che per contenere le emissioni dovrebbero essere messe in atto strategie di mitigazione che includano un uso ottimizzato dei fertilizzanti, l’impiego di urea protetta  con un inibitore di ureasi come N-(n-butil)tiofosforico triamide (NBPT) e inibitori della nitrificazione come 3,4-dimetilpirazolofosfato (DMPP) , e approcci innovativi come l’aggiunta di rocce silicatiche , come il basalto, frantumate che rilasciano nutrienti vitali (come potassio, calcio, magnesio e silicio), migliorano la salute del suolo, aumentano la resilienza delle colture ed aumentano il pH del suolo. Tuttavia, i costi e i benefici incerti sulle rese ne hanno limitato fino ad oggi l’adozione su larga scala.

Ma accanto alla produzione agricola bisogna aggiungere le emissioni dell’industria e della deforestazione. Ma se queste sono almeno in qualche misura quantificabili, sono completamente sconosciute le emissioni che provengono da quella, che possiamo definire oggi con un neologismo plastisfera che comprende la comunità microbica presente sui detriti di plastica, dovuta alla presenza delle microplastiche nei corsi d’acqua, nel mare e nel suolo.

Sebbene le microplastiche contengano quantità trascurabili di azoto come possono generare il protossido di azoto modificando significativamente il ciclo dell’azoto? Negli ultimi anni, molta attenzione è stata diretta verso questo problema. Inizialmente gli studi si sono concentrati su alcune forme di azoto (ad esempio, l’azoto totale del suolo) suggerendo che i diversi composti azotati (ad es. azoto organico, ammonio, nitrato e nitrito) erano influenzati dalle microplastiche tuttavia, non esiste un consenso unanime sui cambiamenti specifici che si verificano. Sebbene uno studio di qualche anno fa [2] abbia rilevato che l’emissione di N2O è stata anch’essa influenzata dall’esposizione alla microplastica, il meccanismo alla base della variazione delle emissioni di N2O rimane ancora poco chiaro, come testimoniano due studi sempre del 2022. Un primo conducendo esperimenti in laboratorio rileva che la concentrazione di ammonio (NH4+) nel suolo è aumentata e quella di nitrato (NO3–) è diminuita dopo l’applicazione di microplastiche. Al contrario, per un secondo le concentrazioni di NH4+ e NO3– non sono state significativamente influenzate dalla presenza di microplastiche.

Inoltre, i cambiamenti nei processi azotati del suolo e nei microrganismi funzionali coinvolti non sono stati sistematicamente elucidati in seguito all’esposizione alla microplastica. Pertanto, diventa urgente determinare come vengano modificati questi processi.

Le microplastiche possono modificare in certa misura le strutture delle comunità microbiche del suolo e le alterazioni nei microrganismi funzionali coinvolti nel ciclo dell’azoto possono infine influenzare il corrispondente processo dell’azoto. I geni infatti possono tradursi in enzimi che catalizzano i processi del ciclo dell’azoto.

Ad esempio, i microrganismi ossidanti l’ammonio mediano la fase iniziale del processo di nitrificazione esprimono il gene marker amoA, mentre i microrganismi funzionali svolgono ruoli essenziali nel processo di denitrificazione esprimono i geni marker come narG, napA e nirS. Allora esiste una correlazione fra l’espressione dei geni e quindi la funzione degli enzimi coinvolti nel ciclo dell’azoto e le quantità di specie azotate presenti nel suolo?  Effettivamente uno studio sperimentale ha rivelato che le variazioni nel numero di copie dei geni amoA e nirS, indotte dalle microplastiche, potrebbero riflettere dei mutamenti nelle concentrazioni dello ione ammonio e dello ione nitrato. Per esempio la nitrato reduttasi è codificata da narG o napA, mentre la nitrito reduttasi è codificata da nirS e nirK, con entrambi gli enzimi che partecipano alla denitrificazione, uno studio ha riportato che, sotto esposizione a microplastiche, la diminuzione delle concentrazioni di nitrito nel suolo (NO2–) era strettamente associata a una maggiore attività della nitrato reduttasi. Pertanto, le attività enzimatiche coinvolte nel ciclo dell’azoto sono variabili indispensabili per chiarire i cambiamenti nei processi dell’azoto. Questi geni funzionali possono rispondere in modo variabile alla microplastica in quanto questa può alterare le proprietà del suolo (cioè pH e contenuto di grandi aggregati, ecc.) e influenzare l’aerazione del suolo. È stato osservato che il numero di copie di nirS può aumentare o diminuire sotto esposizione a microplastiche, mentre l’entità di amoA è influenzata. Le risposte variabili di questi geni probabilmente intrecciano i contributi della nitrificazione e della denitrificazione nelle emissioni di N2O (Figura 3). Inoltre, è stato ipotizzato che gli effetti delle microplastiche sul ciclo dell’azoto nel suolo fossero legati alle loro caratteristiche (cioè struttura, dimensione delle particelle, concentrazione, ecc.) e alla durata sperimentale. È necessario chiarire come questi fattori influenzino il ciclo dell’azoto del suolo.

Figura 3  Un quadro ipotetico proposto per rivelare le variazioni nelle trasformazioni dell’azoto in risposta alla presenza di microplastiche. La freccia rosa mostra la relazione tra due forme di azoto. Le linee tratteggiate indicano i cambiamenti gerarchici nel processo di ciclo dell’azoto. I microrganismi funzionali sono nel rettangolo rosa e gli enzimi del suolo sono nel rettangolo verde. ‘?’ rappresenta una variabile mancante. Abbreviazioni: NR = Reduttasi del nitrato, NIR = Reduttasi del nitrito, NXR = Nitrito ossidoreduttasi. (Copyright Elsevier)

Per valutare sistematicamente gli impatti delle microplastiche sul ciclo dell’azoto nel suolo bisogna analizzare i dati riportati dai vari studi effettuati: (1) quantificare l’entità con cui le varie forme di azoto nel suolo cambiano in presenza di microplastiche; (2) rivelare come i processi dell’azoto nel suolo sono alterati e identificare quali processi dominano la modifica delle emissioni di N2O; (3) esplorare come le proprietà delle microplastiche e le condizioni sperimentali influenzino le emissioni di N2O e i microrganismi funzionali che le inducono.

A seguito di un’analisi in contrasto con studi precedenti [3], si rivela un aumento delle emissioni di N2O complessivamente del 140,6% sotto l’esposizione a microplastiche. Il tasso di denitrificazione è aumentato significativamente del 17,8% con l’esposizione alle microplastiche. Vale la pena notare che il contributo della denitrificazione all’incremento di N2O è stato maggiore di quello della nitrificazione. Il numero totale di geni dei denitrificanti è aumentato del 10,6%, così come il numero di copie di diversi geni (nap, nas, nir e nos); tuttavia, il numero di copie dei nitrificanti non è stato alterato dall’esposizione alle microplastiche. Inoltre, le microplastiche hanno aumentato significativamente le attività della nitrato reduttasi del 4,8%. I cambiamenti divergenti nei processi dell’azoto nel suolo hanno portato a una diminuzione delle concentrazioni di ammonio e nitrato nel suolo (rispettivamente -6,7% e -22,4%). La razionalizzazione dei dati sembrano mettere in luce l’effetto delle microplastiche sulla produzione di protossido di azoto nel suolo. Ovviamente non essendo il suolo omogeneo i risultati possono essere molto influenzati dalla composizione, temperatura, dal pH, dal potere cationico. Questi primi risultati preliminari andrebbero allargati anche alle microplastiche presenti nei corsi d’acqua o nel mare. Inoltre andrebbe analizzato l’effetto delle comunità microbiche presenti sulle varie tipologie di microplastiche, ipotizzare il ruolo delle molecole rilasciate dalle microplastiche ed il motivo per il quale i geni dei microbi ne risultano influenzati. Insomma siamo soltanto all’inizio di un’attività di ricerca ancora tutta da svolgere.

Per approfondimenti:

[1] Karali, N., Khanna, N. & Nihar, S. Climate Impact of Primary Plastic Production (Lawrence Berkeley National Laboratory, 2024). https://escholarship.org/uc/item/6cc1g99q

[2] Gao, H. et al.  Macro-and/or microplastics as an emerging threat effect crop growth and soil health. Resour. Conserv. Recycl. 2022, 186, 106549 https://doi.org/10.1016/j.resconrec.2022.106549.

[3] Pinjie Su et al. Microplastics stimulated nitrous oxide emissions primarily through denitrification: A meta-analysis Journal of Hazardous Materials 2023, 445, 130500 https://doi.org/10.1016/j.jhazmat.2022.130500

Zhu, G., et al. Nitrous oxide sources, mechanisms and mitigation. Nat Rev Earth Environ  2025, 6, 574–592 https://doi.org/10.1038/s43017-025-00707-5

L’inquinamento dell’aria indoor. Questo sconosciuto.

8 February, 2026 - 10:05

Angelarosa Piergiovanni

Quando si parla di inquinamento dell’aria una delle prime immagini che torna in mente alla maggior parte di noi è sicuramente quella vista più volte in TV, ovvero un enorme impianto industriale con tante ciminiere che riversano in atmosfera spropositate quantità di densi fumi grigiastri. Forse qualcuno penserà agli alti livelli di inquinanti nelle zone urbane particolarmente congestionate dal traffico o ai fumi prodotti dagli impianti di riscaldamento domestici obsoleti. Ma quanti si fermeranno a riflettere se e quanto sia inquinata l’aria all’interno delle nostre case, uffici, scuole, centri commerciali, e via dicendo? Ambienti in cui trascorriamo gran parte del nostro tempo ma che percepiamo come sicuri ed accoglienti. Effettivamente dell’inquinamento indoor si parla molto poco ma ciò non vuol dire che il problema non esista o che sia ignorato dalla comunità scientifica. Infatti, da una rapida ricerca ci si accorge che la mole di studi pubblicati sull’argomento è tutt’altro che trascurabile ma i risultati sono poco noti al di fuori dello stretto ambito scientifico. Sebbene non sia semplice quantificare i singoli inquinanti nei vari contesti, l’OMS ha stimato in 3.2 milioni, 500.000 dei quali solo in Europa (European Environmental Agency, 2019), i decessi prematuri riconducibili all’inquinamento indoor. Ovviamente le fonti di inquinamento sono un po’ diverse tra le varie tipologie di edifici poiché la qualità dell’aria indoor dipende essenzialmente da tre fattori:

1) posizione dell’edificio;

2) attività che si svolgono al suo interno;

3) materiali usati per la costruzione e per gli arredi.

Limitandoci al caso di una abitazione privata al suo interno vi sono varie fonti di inquinanti che generalmente non percepiamo come tali.

1. Posizione dell’abitazione

La qualità dell’aria all’interno di una abitazione è molto influenzata dalla sua ubicazione poiché è inevitabile uno scambio di aria tra esterno e interno tutte le volte che si apre una finestra, una porta o per l’azione di sistemi di climatizzazione. Il livello di inquinanti esterni che penetrano all’interno sarà decisamente diverso a seconda che si abbia un affaccio su una strada molto trafficata, vicino a strutture industriali o su spazi verdi sufficientemente ampi. Il traffico veicolare, come sappiamo, diffonde in atmosfera CO2, CO, NOx, SO2, O3, polveri sottili (PM) ma altre fonti presenti nelle vicinanze come attività commerciali, cantieri, interventi urbanistici di vario genere, ecc. rilasciano una variegata serie di composti organici e inorganici che inevitabilmente si ritroveranno all’interno delle abitazioni situate nei dintorni. Inoltre, nell’interscambio d’aria esterno/interno giocano un ruolo non trascurabile le condizioni metereologiche. Giornate ventose o di pioggia favoriscono l’abbattimento degli inquinanti all’esterno con indubbi benefici anche per la qualità dell’aria indoor. Infine, in particolari contesti, a questo background possono aggiungersi specifici composti prodotti da impianti industriali presenti nelle vicinanze dell’abitazione. Prescindendo da casi di rilascio accidentale di inquinanti dovuti a inconvenienti tecnici o incidenti, situazioni in cui vi è una costante esposizione a sostanze nocive non di rado sono salite all’attenzione delle cronache anche nel nostro paese.

2. Attività che si svolgono

Le attività che normalmente si svolgono in una abitazione contribuiscono a loro volta all’inquinamento indoor ma il loro impatto è correlato alle abitudini di chi ci abita. La cottura domestica dei cibi, oltre alla diffusione di composti volatili che comunemente percepiamo come “odori gradevoli”, è una importante fonte di inquinamento. L’utilizzo per la cottura di fiamme libere (prevalentemente fornelli a gas nel nostro paese), come tutti i processi di combustione, genera consumo di ossigeno e rilascio di biossido e monossido di carbonio (CO2, CO), quest’ultimo in misura minima. Eventuali impurità presenti nel gas, bruciando, produrranno biossido di zolfo, ossidi di azoto (SO2, NOx), polveri sottili o ultra sottili (PM) che vengono rilasciati nell’ambiente in assenza di adeguati sistemi di aspirazione. L’impiego di piani a induzione o piastre elettriche risulta decisamente meno impattante sulla qualità dell’aria indoor ma non necessariamente sull’ambiente se l’energia elettrica utilizzata per il loro funzionamento è comunque prodotta da combustibili fossili. Ulteriori fiamme libere in ambiente domestico sono costituite dall’utilizzo per il riscaldamento di caminetti o stufe (a gas, pellet, legna, biomasse, ecc.). Tutte queste tipologie incrementano ulteriormente i livelli dei prodotti della combustione. Purtroppo non sono rari i casi di intossicazione o decesso a causa di malfunzionamenti che portano il livello di CO indoor al di sopra della soglia tollerabile da un essere umano. La presenza di fumatori contribuisce a sua volta alla contaminazione dell’aria poiché anche la combustione del tabacco rilascia nell’ambiente sostanze nocive.

Un capitolo a parte è rappresentato dalla vasta gamma di prodotti utilizzati per la pulizia della casa il cui uso è essenzialmente concentrato in due ambienti la cucina e il bagno. Tali prodotti contengono in quantità variabile surfattanti, acidi, basi, solventi, sbiancanti, propellenti oltre a varie fragranze. Il loro rilascio nell’ambiente durante l’utilizzo non sono influenza negativamente la qualità dell’aria ma può dar luogo a reazioni chimiche indesiderate generate dalla combinazione con composti rilasciati nell’ambiente da altre fonti. È bene ricordare che è stato ampiamente dimostrato come un uso eccessivo e/o scorretto dei prodotti per l’igiene può portare all’insorgenza di patologie alle vie respiratorie, acidi e basi concentrati sono fortemente irritanti, alcune fragranze possono causare allergie, il benzalconio cloruro può dar luogo a dermatiti.

3. Materiali di costruzione e arredi

I materiali con cui è edificata o arredata una abitazione hanno a loro volta un impatto sulla qualità dell’aria. Parquet, superfici in PVC, pitture murali, laccatura e collanti di infissi e mobili, agenti sigillanti possono rilasciare una vasta gamma di composti che, avendo un basso punto di ebollizione, si diffondono facilmente. Genericamente denominati Composti Organici Volatili (VOCs), appartengono a questa categoria circa 400 diverse molecole. Si tratta di alcani, composti aromatici alchilati, stirene, toluene, glicoli, esteri, chetoni, formaldeide, ecc. che sono variamente presenti nelle abitazioni private, uffici, scuole, centri commerciali, ecc. Gli effetti negativi sulla salute dei VOCs più comuni sono ampiamente documentati in letteratura ma definire per ciascuno di essi una soglia limite è molto difficile poiché si tratta di valori strettamente legati alle diverse tipologie di edifici.

È bene fare qualche esempio esplicativo poiché si tratta di molecole molto diverse tra loro che sono rilasciate in quantità e modalità differenti. Gli abiti sottoposti a lavaggio a secco in lavanderia a seguito del trattamento subito rilasciano tetracloroetilene o prodotti similari per un certo lasso di tempo. Prodotti per la profumazione degli ambienti e oli essenziali rilasciano pinene, limonene e altri terpeni. Plastiche di vario tipo, pitture, solventi, adesivi rilasciano benzene, etilbenzene, xileni, toluene i cui livelli sono generalmente più alti in ambienti da poco costruiti o ristrutturati. Particolarmente attenzionata è la formaldeide che è rilasciata da svariati materiali molto diffusi nelle abitazioni quali Il compensato, presente nei manufatti in legno, materiali utilizzati per l’isolamento termico, resine, collanti, pitture. Anche in questo caso il rilascio nell’ambiente andrà via via decadendo col trascorrere del tempo dalla data di costruzione o ristrutturazione. Alcuni detergenti per la casa contengono a loro volta formaldeide ma questa può anche generarsi per ossidazione di alcuni VOCs in presenza di ozono.

tetracloroetilene

formaldeide

Le piante da appartamento possono giocare un duplice ruolo sulla qualità dell’aria poiché, oltre a produrre ossigeno, possono migliorare o peggiorare la qualità dell’aria a seconda della specie. Alcune specie sono capaci di assorbire selettivamente diverse classi di VOCs, altre rilasciano isoprene, monoterpeni, sesquiterpeni, i quali danno luogo a aerosol organici secondari a seguito di ossidazione. La formazione di tali aerosol varia nell’arco della giornata essendo i processi ossidativi favoriti dalla presenza della radiazione solare. Esiste una vasta letteratura sugli effetti delle piante sulla qualità dell’aria che sarebbe bene conoscere per fare scelte appropriate prima di acquistare delle piante da interno. Ad esempio, il potos (Epipremnum aureum)eil falangio(Chlorophytum comosum) sono molto utili poiché agiscono come purificatori dell’aria.

Potos

Falangio

Un ultimo pericoloso inquinante è rappresentato dal radon, un gas radioattivo generato dal decadimento dell’uranio naturalmente presente in alcune rocce e suoli. La sua cancerogenicità è nota da decenni e già nel 2014 la UE ha sollecitato i governi ad intraprendere le necessarie misure per ridurre l’esposizione della popolazione (EU, 2014). A tal fine è fondamentale definire la relazione tra quantità di radon indoor e le caratteristiche geologiche del suolo su cui sono stati costruiti i singoli edifici. Uno studio appena pubblicato (Antignani et al 2026) va in questa direzione fornendo un quadro sufficientemente dettagliato del rischio di esposizione al radon per il nostro paese. I dati presentati dagli autori evidenziano significative differenze della potenziale concentrazione di radon indoor tra le diverse zone d’Italia. Va comunque precisato che la concentrazione di radon si riduce progressivamente passando dal piano terra, che è a diretto contatto col suolo, ai piani via via più alti. Si può anche notare come in certe zone del nostro paese i materiali da costruzione usati (il tufo campano) sono sorgenti di radon.

Per migliorare la qualità dell’aria indoor sono disponibili sul mercato diversi tipi di purificatori che operano sia sulla base di principi fisico-chimici (ozonizzatori, materiali adsorbenti, ecc.) che biologici (microrganismi immobilizzati su film, microalghe, ecc.). Ciascuna tipologia ha una diversa efficacia nell’abbattimento di specifiche classi di inquinanti per cui la scelta di un purificatore va commisurata alla particolare situazione da affrontare. In genere, si tratta però di purificatori poco adatti a un utilizzo in ambito domestico. Questa breve nota è tutt’altro che esaustiva, ma prendere coscienza del problema è già un importante passo in avanti per intraprendere consuetudini utili a migliorare la qualità dell’aria nella propria abitazione.

BIBLIOGRAFIA

Antignani S. et al, 2026.Towards a representative and affordable national survey on radon in dwellings: a new methodological approach with findings from Italy. Environmental Research, 293, 123702. https://doi.org/10.1016/j.envres.2026.123702

Campagnolo et al, 2017. VOCs and aldehydes source identification in European office buildings. The OFFICAIR study Building and Environment 115: 18-24.

https://www.sciencedirect.com/science/article/abs/pii/S0360132317300094

European Commission, 2014. Council Directive 2013/59/Euratom of 5 December 2013 Official Journal of the European Union, pp. 1–73. https://doi.org/10.3000/19770677.L_2013.124.eng

European Environmental Agency, 2019. Air Quality in Europe d 2019 Report. https://doi.org/10.2800/822355

González-Martín J. et al, 2021. A state–of–the-art review on indoor air pollution and strategies for indoor air pollution control. Chemosphere, 262, January, 128376 Elsevier

Salonen H.et al, 2024. Cleaning products: Their chemistry, effects on indoor air quality, and implications for human health Environment International 190, 108836 https://doi.org/10.1016/j.envint.2024.108836

Tran, V.V., et al., 2020. Indoor Air Pollution, Related Human Diseases, and Recent Trends in the Control and Improvement of Indoor Air Quality. Int. J. Environ. Res. Public Health, 17, 2927. https://doi.org/10.3390/ijerph17082927

WHO, 2022. Household air pollution. Fact Sheets. 2023, 2022.

NdW- In italiano si vedano anche:

Vivere e lavorare in ambienti salubri: aria indoor, materiali da costruzioni, arredi

Fai clic per accedere a 1106-quaderno-1-09-indoor.pdf

Copyright © 2012 Società Chimica Italiana. All Rights Reserved.