The Second Version

25/09/13

Quel Che Cambia nel Clima

A dire il vero io penso che le attivita' umane abbiano gia' causato evidenti cambiamenti climatici.

Ma come direte, non eri tu uno che fino all'altro giorno ce la menava con le incertezze sulle serie storiche di temperatura, e le dubbie tecniche statistiche eccetera? Ed ora te ne esci fuori cosi'?

Ma attenzione, io ho detto "cambiamenti climatici", non "riscaldamento globale antropogenico" e men che meno ho aggiunto l'aggettivo "catastrofico".

I cambiamenti climatici antropogenici di cui parlo sono a livello locale, massimo regionale (in termini tecnici, sulla mesoscala di 1-100 km, forse con echi sulla scala sinottica di 1000-2500 km). Abbiamo ad esempio il ben noto effetto citta', l'aumento di temperatura all'interno delle aree urbane rispetto a quelle rurali.

Poi ci sono altri cambiamenti, anche su scala piu' ampia, dovuti alla variazione di uso del suolo. Per viariazione di uso si intende quando, ad esempio, un tratto di bosco viene abbattuto per far spazio a campi coltivati (oppure, come accade in Italia, il bosco rioccupa campi abbandonati). Bosco e campi hanno caratteristiche diverse per quanto riguarda evotraspirazione, ritenzione delle acque meteoriche, albedo, capacita' di consolidare il suolo e probabilmente altre grandezze ancora.

Altri esempi di variazione d'uso del suolo sono la costruzione di edifici e strade (anche parcheggi, aeroporti); la sostituzione di un tipo di bosco con un altro; il drenaggio di paludi e la creazione di laghi artificiali. Anche la costruzione di vasti parchi di generatori eolici o fotovoltaici puo' rientrare nel cambiamento d'uso del suolo (visto che questi sistemi possono alterare i normali cammini dell'energia contenuta nel vento o radiazione solare in maniera ancora sconosciuta).

E' chiaro che se solo un ettaro di foresta viene convertito in coltivazione, la differenza e' ininfluente. Ma se vaste superfici cambiano d'uso, allora anche il clima locale ne viene influenzato.
Un caso noto e' il circolo vizioso della deforestazione, che porta alla diminuzione della precipitazioni e formazione di terreni inospitali per le giovani piante, e quindi a grandi difficolta' per il riboscamento.

Invece, la creazione di laghi artificiali puo'aumentare le precipitazioni e portare ad un clima generalmente piu' mite e con piu' stretti limiti di temperatura nei dintorni - ma con una maggiore frequenza di temporali e forti rovesci.

Mi pare che pochi sforzi vengano fatti per capire l'impatto complessivo dei cambiamenti climatici antropogenici locali - mentre tutta l'attenzione e' rivolta ai modelli basati sul forzamento della CO2, le cui previsioni si stanno rivelenado grossolanamente errate. Potremmo anche infine scoprire che la somma di tutti questi cambiamenti locali ha un discernibile effetto globale, ma sarebbe comunque una posizione molto piu' articolata del semplicistico riscaldamento globale.

Anche dal punto di vista pratico, agli abitanti di una zona e' utile prima di tutto sapere come potrebbe cambiare il clima in un raggio di qualche centinaio di chilometri; se vivete a Parma le temperature medie di Ulan Bator non vi cambiano la vita, ma le precipitazioni sulla Val Parma si'.

Etichette: ,

17/05/13

La Formulazione Sconosciuta

Almeno quando frequentavo Chimica Industriale a Parma io - e si parla di 10 - 15 anni fa - ci si concentrava piu' che altro sulla produzione di sostanze pure, e quindi gli impianti e tecniche per ottenerle.

Che e' utile e necessario, ma purtroppo limitante. Perche' i prodotti in commercio, quelli destinati agli utenti finali solo di rado sono sostanze pure (discorso diverso vale per materie prime ed almeno certi prodotti intermedi); nella maggior parte dei casi si tratta di formulazione con diversi ingredienti per ottimizzare le proprieta' del prodotto.

Per esempio, nei detergenti anche solo per piatti ci sono 2 - 3 tipi di tensioattivi, dosati non solo per l'efficacia ma anche per aspetti come il livello di schiuma. Gia', perche' non e' necessario che il detergente sia schiumoso per pulire, pero' la schiuma viene presa dalle persone comuni come segno di efficacia.

Poi ci sono anche profumi e coloranti, piu' che altro per l'estetica; e spesso conservanti (battericidi) per prolungare la vita del prodotto. Si, perche' ci sono batteri che riescono a proliferare pure in una soluzione concentrata di tensioattivi - ecco perche' non e' bene stoccare soluzioni diluite di detergenti.

Tutti questi componenti sono necessari? A parte profumi e coloranti, direi di si' - ma un detergente senza questi additivi sarebbe incolore oppure di un noioso giallino ed avrebbe un odore non necessariamente sgradevole, ma molto "chimico". Poi possiamo dibattere sull'opportunita' di avere molta schiuma persistente.

Per tutti i prodotti detergenti e simili, quasi sempre e' anche necessario aggiustare la viscosita' (per non parlare dell'interso spettro della reologia), ed a questo scopo spesso si usa il semplice cloruro di sodio; la separazione di fase nel prodotto poi e' un problema grave e per evitarla bisogna aggiungere appositi tensioattivi oppure co-solventi.

A mio parere i conservanti sono necessari, perche' un prodotto degradato non solo e' meno efficace ma puo' anche essere dannoso per la salute od il processo industriale. Senza conservanti, un prodotto dipende interamente dalle condizioni di conservazione, ed e' pressoche' impossibile assicurare le giuste condizioni per un prodotto usato al di fuori degli ambiti piu' specializzati - tipo l'industria farmaceutica, dove per esempio le materie prime devono essere conservate in stanze a clima controllato E registrato.

E' un peccato che un campo cosi' importante nella pratica - le formulazioni - siano solo sfiorate nel corsi universitari, ma tant'e'; a chi trova un lavoro nel ramo resta da imparare le formulazioni da manuali specifici oppure persone piu' esperte. Siamo gia' fortunati se non si parla di teoria impiantistica femminista o bagginate simili nelle universita'.

Etichette: , ,

29/04/13

Rigenera Questo

L'altro giorno ho visto Iron Man 3, e mi ha ispirato pensieri che col film c'entrano poco o nulla.

Spero di non rovinarvi il piacere della visione, ma devo rivelare qualcosa del film: in questo caso, i nemici di Tony Stark sono persone che, grazie al solito miracoloso trattamento farmacologico creato per i militari, hanno assunto interessanti e letali poteri - primo fra tutti guarire in pochi minuti da ferite anche molto gravi ed amputazioni di arti.

Naturalmente questo e' utile ad avere tese scene d'azione nelle quali ci sforziamo di capire come fara' il nostro eroe a sconfiggere nemici che di morire non ne vogliono sapere, ma non soddisfa una mente scientifica.

Intanto, a che velocita' possono ricrescere i tessuti? Non lo so devo ammettere, ma per esperienza personale so che piccoli graffi superficiali guariscono entro 24 ore, mentre un'ustione di secondo grado richiede diverse settimane per guarire.

Ora, anche se le cellule dei tessuti umani si replicassero alla velocita' del Saccharomyces nel mosto in fermentazione, non c'e' verso che un avambraccio amputato possa essere rigenerato in pochi secondi.

Anche ammettendo di avere un farmaco miracoloso, bisognerebbe concedere almeno una settimana di tempo, direi. Facciamo un mese per un'intera gamba.
E per semplicita', ammettiamo che un arto appena ricresciuto non abbia bisogno di fisioterapia per tornare all 100% delle sue prestazioni.

Gia' questi tempi di guarigione sarebbero una rivoluzione tale da meritare una storia di fantascienza dedicata a loro - ma di certo non ci si puo' fare un film d'azione.

E c'e' un altro grosso problema con questa rigenerazione rapida: la conservazione della massa. La materia che serve a ricostruire un arto - diciamo, due chili per un avambraccio muscoloso - non puo' essere creata dal nulla.

Quindi, ammettiamo che il corpo la possa prendere da altre zone, un paio di chili distribuiti uniformememente non sarebbero un gran cosa. Ma se invece si perde una gamba da dieci chili o piu'? O se una persona soffre multiple amputazioni?

Presto si troverebbe incapace di rigenerare i tessuti danneggiati o persi, a meno che non abbia a disposizione tessuti in eccesso tenuti come riserva.

No, non vederete mai un eroe d'azione grasso e colla pelle cadente. Magari una spalla, ma mai l'eroe.

In realta', la materia che serve a far crescere un corpo umano (od a mantenerlo se adulto) viene dal cibo; la quantita' di cibo che serve per creare un chilo di tessuti dipende molto dall'animale in questione e dal tipo di cibo, ma usando il valore misurato per il maiale, abbiamo 3 - 4 kg di cibo per 1 kg di massa corporea.

Una visione realistica del miracoloso trattamento rigenerante sarebbe quella di una persona che impiega da qualche giorno a parecchie settimane per rigenerare i tessuti mentre resta a riposo (un'arto in fase di ricrescita non sarebbe una bella vista, penso) ed, in eccesso rispetto al loro normale fabbisogno calorico introducono 3 - 4 kg di cibo per kg di tessuto da rigenerare.

Ed una volta che un'arto sia rigenerato, avrebbe anche bisogno di un perido piu' o meno lungo di fisoterapia ed esercizio per arrivare al 100%.

Etichette: , ,

18/01/13

Cambiamento Memetico

Qualche giorno fa, trovo quest'articolo su di un sito meteo italiano:
RISCALDAMENTO GLOBALE: non sono attesi aumenti nei prossimi 5 anni
Bene, no? Buone notizie, una volta tanto.   Quello che m'incuriosisce pero' e' il primo commento all'articolo:
Lo ripetero' fino allo sfinimento: Il GW non e' un problema di termometri o temperature medie terrestri (magari lo fosse) ma di irreversibile cambiamento di ecosistemi, tra cui ne cito alcuni: glaciale e polare tramite lo scioglimento delle banchise e dei ghiacciai perenni; costiero (e non solo costiero, pensate alle Maldive) tramite l'innalzamento dei mari; continentale tramite l'inaridimento e il riscaldamento anomalo di vaste aree densamente popolate; tropicale tramite la distruzione delle foreste primarie pluviali. Tutti questi eventi sono in atto e drammaticamente documentati e vanno ben piu' spediti delle medie misurate dai termometri umani. Se come e' stato previsto il ghiaccio estivo al polo nord scomparira' in pochi decenni per un aumento di 2 gradi della temperatura superficiale non m interessa assolutamente nulla se in antartide la temperatura si abbassa di altri 2 gradi e mi salva la media. Ma cosa diamine me ne faccio della media se il disastro per noi abitanti di questo emisfero sara' comunque totale e irreversibile. Meditate gente meditate.
Ora io ripenso al dibattio sul riscaldamento globale degli utlimi, oh 15 anni, e cosa mi viene in mente? Che e' stato per il 90% almeno a proposito delle temperature medie globali.   C'e' il grafico della correlazione fra concentrazione atmosferica di CO2 e temperatura GLOBALE; c'e' la famigerata Mazza da Hockey che doveva essere la prova schiacciante del riscaldamento globale antropogenico, ed e' un grafico della temperatura... be' non globale ma dell'intero emisfero nord - e chi citava il Periodo Caldo Medievale contro la supposta piattezza del "manico della mazza" veniva zittito con la motivazione che quel periodo caldo sarebbe stato un fenomeno regionale, non globale. Ci sono le proiezioni dell'IPCC che provano a calcolare la temperatura GLOBALE in funzione delle emissioni di CO2; ci sono le foto pornoclimatiche fotoscioppate di come questo o quell'angolo di mondo appariranno in caso di aumento di X gradi della temperatura media globale. Eccetera, eccetera, non serve fare un elenco troppo lungo.   Ed adesso arriva qualcuno a dire che no, la temperatura media globale non significa nulla ma bisogna andare a vedere anche altri parametri ed a livello locale. Che non e' un'idea sballata, ecco, ma quando arriva nel 2013, dopo un 15 anni di temperature globali stabili e dopo che il MetOffice ha previsto 5 anni senza aumenti di temperatura... mi sa tanto di pararsi il culo per non dover ammettere di aver sbagliato.   E per finire, il nemico piu' pericoloso delle foreste pluviali non e' il clima. In Indonesia, ad esempio, vaste aree di foresta sono state sostituite con pinatagioni palma da olio. Per produrre biocarburanti e ridurre le emissioni di CO2.

Etichette: ,

24/10/12

Terremoto Giudiziario

Ormai la notizia e' diffusa, quindi non serve riassumerla di nuovo. Potete leggere qui, o questo articolo.

Facile da immaginare, la sentenza non mi convince molto. Perche' sembra essere l'ennesimo prodotto di un giudice che si e' fatto il proprio quadro mentale di come il mondo dovrebbe andare, e se invece va diversamente, succede perche' qualcuno e' colpevole di qualcosa, qualsiasi cosa, e va punito. Prova? Pare che la requisitoria contenga l'affermazione:
“Ma non è questa la risposta che qui si vuol dare: quello numerico non è il giusto terreno di confronto.”
I numeri non contano, tipica espressione da umanista con la realta' opzionale.

Primo punto.
Per molto tempo, a proposito di questo processo, una pubblicistica drogata ha raccontato che la Commissione era accusata “di non aver previsto il terremoto”, cosa falsa. In realtà il processo era incentrato su un’accusa molto solida e completamente diversa da questa barzelletta antigiudici. Secondo i sostituti procuratore Roberta D’Avolio e Fabio Picuti, la commissione Grandi Rischi in realtà non ha esaminato i rischi possibili che ci sarebbero stati nel caso di future scosse. Nonostante avessero documenti ad hoc per verificare. Nella lunga requisitoria dei pm sono indicati studi e analisi firmati da alcuni membri della commissione grandi rischi realizzati negli anni precedenti. ”Sono state fornite dopo la riunione” si legge nel capo di imputazione “informazioni imprecise, incomplete e contraddittorie sulla pericolosita’ dell’attivita’ sismica vanificando le attivita’ di tutela della popolazione”. Secondo i pm gli imputati “sono venuti meno ai doveri di valutazione del rischio connessi alla loro funzione” anche sotto il profilo dell’informazione. Queste notizie rassicuranti “hanno indotto le vittime a restare nelle case”.
Eppure, non e' cosi' facile scindere l'aspetto di previsione dei terremoti dalla valutazione del rischio. Perche' i provvedimenti da prendere dipendono dalla magnitudo del terremoto che ci si attende: una scossa lieve richiede un certo livello di preparazione; una distruttiva richiede altre misure.

Se gli scienziati preposti, al meglio delle loro conoscenze ed esperienza hanno ritenuto non abbastanza probabile una scossa distruttiva (o meglio, hanno ritenuto che lo sciame sismico in atto non fosse precursore di scosse piu' forti) perche' avrebbero dovuto dare raccomandazioni diverse? Tanto per "stare sul sicuro"?

Nessuna decisione ha costo zero, bisogna ricordare. Tanto piu' che le carte di pericolosita' sismica sono note da anni' cosi' come lo stato (scadente) di molti edifici. Dov'erano gli amministratori locali quando si trattava di fare il loro lavoro? Facile si nascondersi dietro la Commissione.

E la Commissione Grandi Rischi non e' nemmeno tenuta ad informare direttamente il pubblico:
Decreto del Presidente del Consiglio dei ministri n. 23582 del 03 aprile 2006:

Art.1 – La Commissione, incaricata di rendere al Dipartimento della protezione civile pareri e proposte di carattere tecnico-scientifico in relazione alle problematiche relative ai settori di rischio indicati all’art.1 si riunisce di regola con cadenza bimestrale.
Ho letto poi obiezioni pietose del tipo "Se non l'avessero rassicurato gli scienziati, Tizio avrebbe tenuto una torcia elettrica sul comodino e sarebbe riuscito a scappare". Come, c'e' qualcuno che non tiene una torcia a portata di mano la notte?

Gente cosi' se lo merita: se ha bisogno dello Stato a guidarli per mano ad ogni passo, va bene che viva o muoia quando e come voglia lo Stato.

Secondo punto.
Un'obiezione che sento spesso e' del tipo
"Se non e' possibile dire con certezza che un terremoto avverra', non e' nemmeno possibile dire che non avverra'".
Sbagliato. anche in caso di sciame sismico molto intenso, il tempo occupato dalle scosse e' molto piccolo rispetto al totale. Per un ipotetico sciame da 1000 scosse/mese ognuna della durata media di 1 minuto, il 97% del tempo e' comunque di quiete.

In ogni dato momento lo stato di gran lunga piu' probabile e': NO TERREMOTO.
Ergo, per dire che non ci sara' un terremoto non serve alcun particolare sforzo, non servono studi e ricerche. Basta affermare che le cose andranno avanti come al solito.

Aggiornamento 29/10: Non bisogna poi dimenticare le responsabilita' individuali: chi ha costruito una casa per se', o l'ha comprata o ristrutturata senza curarsi della protezione sismica. In genere perche' costa meno, naturalmente. Ed anche chi ha accettato di vivere in affitto dentro case/appartementi scadenti.

No, non e' colpa degli "speculatori" ma degli individui, purtroppo anche delle brave persone che hanno perso un membro della fmaiglia. E' chi ha costruito una casa o ci vive dentro il primo responsabile della sicurezza.
Ma se uno non aveva alternative? Almeno che smetta di incolpare altri e di chiedere che siano "gli scienziati" a finire in galera ed accetti la realta'.

Certo che le amministrazioni locali hanno il ruolo di vigilare sul rispetto delle regole, ma mica possono verificare ogni isngolo edifico e mandare due vigili per cantiere per far fare i lavori come si deve.

Etichette: , ,

04/06/12

Trivellazioni e Terremoti

Nota d'apertura: il post sara' stringato, lo scrivo durante la pausa pranzo. Collegamenti ai documenti seguiranno.

Ho notato molte visite al mio blog di persone che stavano cercando termini come "terremoti" e "trivellazioni petrolifere": non mi stupisce, visto il baccano fatto a proposito della presunta relazione fra trivellazioni (o stoccaggio di gas, non c'e' una teoria coerente) e lo sciame sismico in Emilia-romagna.

Volevo scrivere un'invettiva contro queste farloccate, ma invece cerchero' di essere pacato e divulgativo.

Per prima cosa, l'aspetto della correlazione spaziale. La spinta dalla placca africana contro quella eurasiatica ha prodotto pieghe negli strati di sedimenti, ed a' in queste pieghe che petrolio e gas possono rimanere intrappolati. Questa spinta pero' a' anche quella che causa i terremoti delle ultime settimane. Non c'e' nulla di sinistro nel fatto che pozzi petroliferi siano stati perforati nelle zone interessate dallo sciame sismico: giacimenti di idrocarburi e sismicita' sono entrambe prodotti dalla stessa causa basilare.
Iniziamo dal correggere un errore frequente: petrolio e gas non si trovano liberi nel sottosuolo, ma all'interno dei pori della roccia. Guardate qui:
Queste sono carote di roccia serbatoio estratte da una campo petrolifero (dettagli qui). Non ci sono spazi vuoti (a parte quelli prodotti dagli utensili per il prelievo dei campioni) ma strati di roccia nera perche' impregnata di petrolio. Quando il petrolio viene estratto, la roccia rimane ed il peggio che puo' accadere e' una lenta subsidenza del suolo. In rari casi si possono anche avere terremoti in grado di causare danni come risultato dello sfruttamento di un giacimento.

Veniamo alla famigerata ed incompresa tecnica detta fracking (abbreviazione di hydraulic fracturing): si tratta semplicemente del pompare fluidi ad alta pressione in un pozzo in modo da fratturare la roccia serbatoio cosi' da migliorare il flusso di idrocarburi verso il pozzo. Le fratture provocate in questo modo hanno larghezza dell'ordine dei centimetri e lunghezza dell'ordine delle decine di metri. Il fracking puo' causare piccoli episodi sismici - una ricerca sullo sfruttamento di un giacimento di scisti bituminosi in Inghilterra (documento PDF) ha rilevato sismi fino al magnitudo 2.6, mentre altre fonti parlano di magnitudo 3.3 (Wikipedia, anche per la descrizione della tecnica del fracking). Che e' comunque molto meno delle scosse principali con epicentro nel ferrarese. Inoltre, gli ipocentri di questi terremoti sono intorno ai 10 km di profondita', che e' una profondita' inaudita per pozzi petroliferi.

Ma c'e' una categoria di pozzi che puo' causare terremoti di magnitudo maggiore, se non erro fino a 4.6: i pozzi d'iniezione. L'iniezione nel sottosuolo e' un metodo relativamente semplice ed economico di smaltire acque inquinate - come quelle che derivano dallo stesso sfruttamento di certi giacimenti di idrocarburi. Se l'acqua iniettata raggiunge un piano di faglia (perche' il pozzo lo interseca oppure e' abbastanza vicino), spesso agisce da lubrificante e permette lo scorrimento di una faglia che altrimenti rimarrebbe ferma. Con il risultato di un terremoto (documento del Kansas Geological Survey ed atti della Seismological Society of America). Ma non mi risulta che ci siano pozzi d'iniezione in servizio in quelle zone.

Per favore non venite a ventilare la possibilita' di un'esplosione nucleare 10 km sotto la Pianura Padana perche' se no mi metto davvero ad inveire. E peggio ancora se nominate HAARP o panzane simili.

Aggiornamento 05/06: Aggiunti collegamenti all'articolo. Sono tutti in inglese, perché il grosso della ricerca è stato fatto in paesi anglofoni. Mi dispiace, ma se non sapete l'inglese siete tagliati fuori dal 75% della letteratura tecnico-scientifica.

Conclusioni
Viste le magnitudini dei terremoti molto più alte di quelle associate ad attività umane e vista le posizioni degli ipocentri - che coincidono con una faglia nota almeno dal 2003, e visti gli spostamenti orizzontali e verticali del suolo, si può affermare che questo sciame sismico è consistente con la geologia dell'area e la sua storia sismica e non appare causato da attività umane.

Etichette: , ,

28/06/11

Prevedere ed Intervenire

Aribandus scrive del sito Nextearthquake, messo in piedi dal Dottor Reg Roberts: questo studioso a quanto pare ha sviluppato un metodo per prevedere con buona accuratezza (spaziale, temporale e di magnitudo) i terremoti.

C'è anche un progetto del Goddard Space Flight Center per la previsione dei terremoti in California che funziona molto bene - almeno fino al 2004.

Però anche il Dr. Roberts mette sul suo sito una liberatoria legale:
The earthquake predictions and long-term forecasts are given in good faith and with due care, but the author accepts no responsibility for their use, either directly, indirectly, or implied. Any person or organisation who uses these earthquake predictions or forecasts for any purpose whatsoever, does so at their own risk.
Insomma, usate queste previsioni a vostro rischio e pericolo e non prendetevela con l'autore se ha sbagliato.

Un punto importante è che per un individuo è relativamente facile sviluppare un metodo per la previsione dei terremoti, e pubblicare i risultati via internet.

Il lavoro è molto più difficile per chi deve eventualmente agire su tali informazioni e prendere provvedimenti.

Per prima cosa, le autorità devono considerare una serie di fattori, fra cui la possibilità dei danni causati da un terremoto contro la certezza dei danni causati dall'interruzione delle normali attività in caso di evacuazione.

Per agire sulle previsioni poi serve un certo livello di accuratezza spaziale: per esempio, 100 km di raggio intorno a Roma significano una zona che va da Spoleto a Terracina passando per L'Aquila.

Se un terremoto distruttivo venisse previsto in quest'area, che si fa? Si evacuano tutti i cittadini? No, è chiaramente non-fattibile.

Serve anche accuratezza per quanti riguarda le date, perchè non è fattibile tenere i servizi di emergenza in allerta per un tempo molto lungo.

Terzo punto, serve accuratezza sul magnitudo, e questa è molto importante. Perchè se per scosse lievi (diciamo, fino a M5.0) basta mettere in allerta i servizi d'emergenza, per scosse oltre M6.0 bisogna mettere in conto molti edifici distrutti o comunque non agibili - anche fra quelli che ospitano istituzioni e servizi, e strade impraticabili eccetera. Che significa evacuazione.

In Italia poi siamo pressochè sicuri che qualunque decisione venga o non venga presa dalle autorità preposte, queste ultime verrano messe sotto indagine per questa o quella ipotesi di reato.

E nemmeno si può semplicemente pubblicare la previsione lasciando le persone libere di fare come preferiscono, per almeno un paio di motivi.

Primo, centinaia o migliaia di persone che dormono all'addiaccio o si trasferiscono per tempi prolungati sono un problema di una scala difficile da ignorare: se decine di negozi ed altre attività chiudono per una settimana, diciamo, i cittadini ne sentiranno gli effetti.

Secondo, la cultura statalista imperante. Presto si alzerebbero a gran voce le proteste di chi chiede alle istituzioni di fare qualcosa! Che cosa non si sa, ma non importa.

Ci sarebbero sistemi per evitare o ridurre questi problemi? Si, certo che ci sono: scrivere leggi e regole per cui se si verificano le condizioni A, B e C si prendono i provvedimenti X, Y e Z senza eccezioni, e le autorità preposte non sono imputabili per aver seguito le procedure.

Ma non credo che questo piacerebbe a molti.

Se questa analisi vi sembra scarna e sintetica, lo è davvero: non sono costretto, nè pagato, per passare ore ed ore a scrivere su di un blog che tengo per passione.

Etichette: , ,

29/11/09

Ancora Sul Clima

Sui grandi media italiani, la storia del file con email e dati provenienti dagli archivi della CRU sta trovando poca risonanza. Ricordo solo un articoletto del Corriere, e una breve ricerca su Repubblica ha portato a nulla. Solo i blog e siti internet si danno da fare.

Eppure non è una storia da poco, visto che svela retroscena poco confortanti sul riscaldamento globale antropogenico (RGA), quello che i più ritengono un fatto provato e la base scientifica per gravi decisioni politiche.

All'estero, il giornale inglese Telegraph* sta dedicando parecchi spazio alla vicenda chiamata Climategate, ed il 28 Novembre ha pubblicato un editoriale che fa un buon riassunto di quello che è accaduto finora.

Il pezzo si articola su diversi punti principali.

- Gli scienziati coinvolti nello scandalo non sono topi di laboratorio qualsiasi, ma gli esponenti più noti e famosi della scienza del clima - soprattutto dell'allarme per il RGA - ed hanno posizioni di rilievo nell'IPCC. In particolare, Jones è il direttore della Hadley CRU, un istituto legato al Met Office inglese e che fornisce una delle principali serie di dati di temperatura a livello globale.

- Il famigerato grafico a mazza da hockey è stato prodotto all'interno di questa cerchia, ed è diventato l'icona del riscaldamento globale antropogenico. Da quando nel 2003 McIntyre ha demolito i metodi statistici usati per generare la Mazza, lo scontro fra la "Squadra di Hockey" e gli scienziati scettici è diventato più aspro.

- Le email trafugate dimostrano che per anni Jones ed i suoi colleghi hanno usato ogni possibile mezzo per non pubblicare i dati di temperatura grezzi ed i programmi usati per elaborarli. Queste persone sono arrivate al punto di cancellare vasti archivi per poi affermare che i dati sono semplicemente andati perduti. Visto che le richieste fatte secondo il Freedom of Information Act hanno forza legale, cancellare i dati può costituire reato.

- I programmi usati per trattare i dati grezzi sono confusi, complicati e tortuosi, studiati per manipolare i dati in modo da far apparire il passato più fresco e le temperature in aumento precipitoso negli ultimi anni. (Nota personale: nel file Harry Read Me il redattore dei commenti si lamenta anche dello stato pietoso del database di temperatura). Tuttavia, anche in questo modo gli scienziati della Squadra di Hockey non sempre riescono ad ottenere in modo consistente i risultati voluti.

- Gli scienziati coinvolti hanno anche usato ogni mezzo per impedire la pubblicazione di articoli scettici e per intralciare la carriera di chi non aderisce al dogma. Già nel 2006, Edward Wegman . l'autore di un rapporto per il Congresso USA - aveva accusato Jones e colleghi di formare una cerchia ristretta che collaborava per sostenere i propri aritcoli, escludere i dissidenti e così rendere le proprie idee dominanti nei rapporti dell'IPCC.

Se questo non è proprio il più grande scandalo scientifico della nostra generazione, è di sicuro uno molto serio.

Etichette: , ,

24/11/09

Clima Rovente

Spero di riuscire a breve a scrivere qualcosa sulla pubblicazione di email, parti di codice, dati e risultati di corse di modelli climatici - con relativi commenti - che uno o più hacker hanno carpito da un server della Hadley Climate Research Unit nella Università della East Anglia.

Diciamo che la credibilità degli scienziati del gruppo allarmista (Mann, Briffa, Jones ed altri) non ne esce per nulla rinforzata, così come la confidenza nella qualità dei dati di temperatura e nella bontà del loro trattamento.

Aggiornamento 24/11.
Nel frattempo, ecco qualche risorsa da considerare.

Il file che ha iniziato lo scandalo da Megaupload.

Un database delle email.

Il sito scettico italiano Climate Monitor con diversi articoli su questa storia, ed un'analisi tecnica dei dati.

Etichette: , ,

26/05/09

Attenti all'Azoto - AGGIORNATO

Tre operai, purtroppo, sono morti in un incidente sul lavoro nella raffineria Saras, in Sardegna.

Così l'inestimabile Corriere descrive il fatto:
I tre, secondo le prime informazioni, stavano pulendo una cisterna in un impianto di desolforazione (Nh51) che si sarebbe saturato di esalazioni tossiche. I tre sarebbero così morti per intossicazione da azoto, che è letale in pochi minuti.
No, no e no. Queste idee sull'azoto sono fin troppo comuni, ma sbagliate.

L'azoto non è un gas tossico, tanto che l'aria che respiriamo tutto il tempo ne contiene circa il 20%. E' però un gas asfissiante - solo l'ossigeno può sostenere la respirazione negli umani - e sì, un'atmosfera priva di ossigeno è letale in pochi minuti.

Non si può mai ripetere abbastanza quanto sia importante usare la massima precauzione quando si entra in spazi chiusi come cisterne, tombini e serbatoi. Non bisogna solo verificare l'assenza di sostanze tossiche, ma anche accertarsi che ci sia abbastanza ossigeno.

Aggiornamento 21:00: Dopo qualche ora dalla pubblicazione iniziale, il Corriere ha aggiornato l'articolo (facendo sparire la castroneria iniziale), che ora recita:
Le tre vittime, secondo le prime informazioni, stavano pulendo una cisterna in un impianto di desolforazione. Sarebbero morti intossicati per le esalazioni di gas, non è chiaro se monossido di carbonio o anidride solforosa.
Considerato il tipo d'impianto, anidride solforosa sembra più probabile. A quanto pare, anche in questo caso un'operaio si è sentito male e gli altri sono corsi a salvarlo rimanendo intossicati a loro volta. Sembra cinico e crudele, ma se un persona si sente male in uno spazio del genere non bisogna correre a salvarlo senza prima avere preso le precauzioni del caso. Altrimenti, si avranno almeno due morti invece di uno.

Etichette: , ,

Istituto di BioIdeologia

Via Meteo Giornale, ho visitato il sito dello Istituto di Biometeorologia del CNR, e... apriti cielo!

Il loro testo introduttivo inizia così:
Il terzo millennio si apre all'insegna dei cambiamenti globali del pianeta causati dal modello economico conseguente all'industrializzazione dei paesi occidentali a partire dalla rivoluzione scientifica del XVI secolo. Il primo segnale dell'impatto dell'uomo sull'ambiente è rappresentato dai cambiamenti climatici legati alla emissione dei gas ad effetto serra. L'uso dei combustibili fossili ha infatti alterato la composizione dell'atmosfera ed il ciclo naturale del carbonio. Attraverso il meccanismo della fotosintesi, l'anidride carbonica viene fissata dalle piante e ritorna in circolazione con i processi di decomposizione delle medesime o di uso della legna; la combustione di petrolio, carbone e gas mette in circolazione una quantità anomala di anidride carbonica accumulata in tempi geologici nel sottosuolo in miliardi di anni[...].
E finisce cosà:
La fruizione di tali benefici da parte di circa il 10% della popolazione mondiale pone ulteriori interrogativi e mette in moto processi di difficile gestione come quello delle grandi migrazioni attraverso il pianeta. D'altronde l'impatto visibile del cambiamento globale mette in evidenza come il modello adottato non sia trasferibile sic et simpliciter a tutta la popolazione del pianeta, che anela peraltro ad ottenere gli stessi benefici, ma a condizione di non mettere a repentaglio la sostenibilità del pianeta. Agli inizi del terzo millennio è dunque necessaria una riflessione a tutto tondo su questi aspetti, sulle scelte da effettuare per il futuro, sui tempi necessari per un cambiamento dei modelli adottati senza tuttavia sconvolgimenti improvvisi che avrebbero lo stesso impatto di una guerra mondiale.
Ma chi l'ha scritta questa roba? Naomi Klein? O più probabilmente, un suo discepolo durante un okkupazione?

Questo istituto che dovrebbe fare ricerca scientifica dichiara apertamente di avere accettato il riscaldamento globale antropogenico come fatto indisputabile (mentre come minimo c'è notevole incertezza sull'esatto ruolo della CO2), ed un posizione ideologica, ovvero che sia necessario un serio ripensamento del "modello di sviluppo" attuale.

Lo Ibimet farà anche ricerca seria e valida, ma non si possono certo lamentare se qualcuno ritiene il loro lavoro inaffidabile perchè ideologizzato: è scritto nella prima pagina del sito.

Etichette: , ,

11/05/09

Fenomeni Parastatali di Trasporto

Fresca dalla Prova del Cuoco:
Il freddo, come il calore, arriva agli alimenti per compressione.
Se l'avessero saputo Bird, Stewart e Lightfoot si sarebbero risparmiati un sacco di fatica.

In realtà si chiama conduzione, e la cosa importante dal punto di vista pratico è trovare quale sia la dimensione che domina la conduzione di calore. Nel caso di uno spaghetto, è il diametro e non la lunghezza che stabilisce il tempo di cottura; nel caso di un disco di pastafrolla è lo spessore del disco e non il diametro che controlla il tempo necessario a raffreddarlo.

Etichette: ,

24/03/09

Gli Effetti Delle Scie

Leggendo qua e là ho trovato una fotografia interessante:

Questa è una versione rimpicciolita dell'originale che invece ha risoluzione di 500 metri per pixel e quindi una dimensione non indifferente. L'immagine è stata scattata dal satellite Aqua con l'apparecchio MODIS; ulteriori dettagli si possono avere cliccando su "Display metadata".

L'aspetto più interessante sono le scie di condensazione ben visibili sull'Alto tirreno e Nord-ovest Italia - insieme ad estese formazioni di cirri.

Dove le condizioni di temperatura ed umidità sono adatte alla formazione e persistenza di cirri, sono adatte anche alla formazione di scie persitenti. Anzi, se una scia di condensazione viene emessa all'interno di un volume di aria sovrassatura, i cristalli di ghiaccio provenienti dai gas di scarico dei motori possono fungere da nuclei di condensazione e quindi innescare la formazione di cirri.

Inoltre, molte aerovie passano sopra quell'area geografica, per cui non c'è nulla di sinistro in questa foto.

Quello che mi ha spinto a pensare un po' e scrivere un articolo è che buona parte dei cirri più ad ovest sembrano essere stati catalizzati dalle scie di condensazione - ed ho visto di persona, da terra, scie persistenti tanto larghe da coprire una buona frazione del cielo. Quindi, le scie di condensazione possono aumentare notevolmente la copertura nuvolosa.

Che le nuvole siano capaci di influenzare il clima è certo, ma quale siano segno e magnitudine dell'influenza è più difficile da stabilire.

Questo perchè - semplificando molto - le nuvole da una parte riflettono parte dei raggi solari diminuendo la radiazione che raggiunge il suolo, ma dall'altra intrappolano parte della radiazione emessa dalla superficie terrestre. Quale effetto sia prevalente dipende - come al solito - da diversi fattori: altezza e densità delle nubi, loro distribuzione temporale, tipo di terreno e di copertura. Durante il giorno, quando il sole è alto, prevale la riduzione di albedo, mentre di notte c'è solo l'effetto "coperta", tanto per fare un esempio.

Rimane poi da stabilire se la differenza di copertura nuvolosa prodotta dalle scie di condensazione sia poi sufficiente per produrre alcuna variazione rilevante dei flussi energetici da e verso la superficie terrestre.

In conclusione, l'eventuale influenza sul clima delle scie di condensazione sarebbe un curioso caso di quelle frequenti conseguenze non volute ed impreviste che accompagnano quasi ogni attività o decisione.

Etichette: , ,

02/02/09

La Diminuzione del Guadagno

Il concetto di diminuzione del guadagno (dimishing returns) fu sviluppato già da Malthus alla fine del '700. Malthus si sbagliava sull'aumento della popolazione umana, ma non sulla diminuzione del guadagno.

In termini semplici e molto generali, la diminuzione del guadagno significa che, oltre una certa soglia, le prestazioni di un sistema non migliorano in modo proporzionale agli investimenti fatti, ma in maniera minore.

Anche questa legge si può applicare ad una vasta gamma di fenomeni, a partire dall'economia (da dove scaturì la sua formulazione) al rendimento delle macchine termodinamiche.

In generale, si ha che quando il sistema (poniamo, un generatore di vapore) è molto lontano dalle sue massime prestazioni ideali bastano alcuni accorgimenti relativamente semplici per ottenere molto; nel nostro caso, un rivestimento isolante in semplice lana di vetro farà miracoli. Successivamente però sarà necessario intervenire su dettagli sempre più fini - ad esempio, materiali isolanti con maggiori prestazioni e grande cura nel sigillare tutte le fessure.

Si arriverà quindi al punto che ulteriori costosi interventi produrranno aumenti soltanto impercettibili delle prestazioni, e quindi nessun apprezzabile risparmio economico od energetico. Se nella prima parte della curva un investimento di 100 poteva aumentare le prestazioni di 50, vicino al limite ideale lo stesso investimento può aumentare le prestazioni a malapena di 5.

Oppure pensate ad un animale predatore: spendere molta energia per catturare piccole prede poco sostanziose non dà molto gudagno e potrebbe anche risultare in una perdita.

Il punto esatto della diminuzione del guadagno è difficile da determinare, in parte perchè l'avvicinamento alle prestazioni ideali è asintotico e quindi non c'è un punto matematicamente definito come invece sono massimi, minimi, flessi od intersezioni di curve. Inoltre, la posizione di questo punto dipende in misura variabile da molti fattori ed è anche soggetto a compromessi fra priorità contrastanti. Nel caso del nostro generatore di vapore, si può avere che la sostituzione del materiale isolante diventa conveniente solo al di sopra di un certo prezzo del combustibile, tanto per fare un esempio banale.

Anche quella della diminuzione del guadagno è una legge di natura; non così ferrea come quelle della fisica, ma sempre all'opera.

Etichette: ,

17/09/08

Dati e Loro Manipolazioni

Armatevi di pazienza e concentrazione...

Un'operazione molto diffusa in quasi tutti i campi dello scibile è quello di eliminare il rumore ad alta frequenza da una serie di dati (che può essere una serie storica o anche no) nel tentativo di isolare tendenze a lungo termine - il segnale. Questo si fa con diverse tecniche statistiche chiamate smoothers o filtri, che tratterò meglio più avanti.

C'è subito un problema di tipo quasi filosofico in questo approccio: eliminare il rumore è legittimo quando si ha un'idea di come il segnale debba essere; tuttavia quando il segnale è ignoto - in casi estremi anche l'esistenza stessa di un segnale è dubbia - l'uso di filtri non porta forse con sè il rischio di trovare solo quello che si vuole trovare?

All'atto pratico, lo strumento di smussatura più semplice è la media mobile, che consiste nel generare una nuova serie di dati in cui lo i-esimo punto è dato dalla media di N punti (N è il numero di periodi, o costante di tempo) che precedono lo i-esimo nella serie originale - o in una versione leggermente diversa, nota come running mean (media corrente?) - che includono lo i-esimo valore.

Ci sono altri metodi, come medie mobili pesate con diverse opzioni sul come calcolare i pesi, ed il calcolo della media (pesata o meno) in un intervallo centrato intorno allo i-esimo punto invece che usando soltanto i dati anteriori. Maggiori informazioni sono disponibili in inglese (naturalmente). Comunque tutti i metodi di smussatura hanno una caratteristica in comune: ogni valore della serie smussata è una combinazione di un certo numero di valori della serie originale.

Ho svolto un piccolo esperimento con Excel 2003, che chiunque conosca questo programma ed i rudimenti di statistica può replicare. Ho usato la funzione CASUALE per generare una serie di 30 valori (pseudo)casuali normalizzati (compresi fra 0 ed 1), quindi ho applicato una smussatura a media corrente con tre diverse costanti di tempo alla serie, per esaminarne gli effetti, ed ho riportato il tutto nel grafico che segue (il file è disponibile per gli interessati).


I rombi blu scuro sono i dati grezzi, e la linea nera spessa è la loro media aritmetica. F-5 è la media corrente a 5 periodi; F-10 quella a 10 ed F-30 a 30 periodi. Come si nota subito, la smussatura dà l'impressione di un andamento che ha alti e bassi ma è decisamente crescente con una brusca caduta finale; l'impressione di andamento crescente aumenta passando da 5 a 10 periodi. Non è riportato nel grafico, ma le serie smussate hanno media leggermente maggiore, e deviazione standard decisamente minore, rispetto all'originale.

Le serie T-5 e T-10 rappresentano la risposta transiente delle medie correnti: all'inizio della serie, non ci sono a disposizione i 5 o 10 valori richiesti; ogni punto della serie è dato dalla somma dei valori disponibili divisi per N; questo produce un deciso andamento crescente - e per rigore intellettuale la risposta transiente non dovrebbe essere mostrata nei grafici.

Il comportamento più particolare è però quello di F-30: una funzione approssimativamente lineare che cresce fino a raggiungere il valore medio originale al 30esimo valore. In pratica, tutta la serie smussata è la risposta transiente. E' ovvio che usare un N così grande sia sbagliato, ma l'esempio serve ad illustrare come un errore può avere conseguenze notevoli.

Escludendo N=30, quale smussatura è la migliore per rappresentare l'andamento della serie di dati? Nessuna, questo è il punto: una serie di numeri casuali non contiene alcun segnale, non ha andamento a lungo termine. Eppure, dall'applicazione dei filtri sembra che ci sia qualcosa. E' vero che non si tratta di veri numeri casuali, quindi forse ripetendo l'analisi su un grande numero di serie si potrebbe scoprire un qualche segnale definito - ma questo esula dal mio scopo.

Un altro problema connesso con la smussatura delle serie di dati è la perdita di informazioni. Una volta che un insieme di valori è stato registrato, il suo contenuto di informazione viene fissato, e qualsiasi operazione fatta su questo insieme non può mai aumentare la quantitò di informazione. In realtà, la maggior parte delle operazioni possibili estraggono un sottoinsieme di valori, che necessariamente contiene meno informazione - nel caso della smussatura, un certo numero di elementi dell'insieme viene combinato in un solo elemento del sottoinsieme. Un corollario di questo fatto è che le serie smussate sono anche autocorrelate - i valori della serie non sono indipendenti, ma ognuno di essi è funzione di altri valori nella serie. Qui bisogna accettare l'autorità degli studiosi del ramo, i quali dicono che le serie autocorrelate devono essere trattate in modo particolare, pena conclusioni errate.

Questa discussione serve come introduzione ad un esperimento pubblicato da William Briggs, che è statista di professione e sa usare il pacchetto R (che è un poco migliore di Excel quando si parla di statistica seria). Briggs scrisse un programma che genera due serie di numeri casuali normalizzati, le smussa con la media corrente in un caso ed un filtro passa-basso nell'altro, quindi calcola le probabilità di avere correlazione fra le due serie, in entrambi i casi, per valori di N (là chiamato k) crescenti e finalmente mostra i risultati di 500 simulazioni in un boxplot.

Il risultato di Briggs è interessante anche se non sorprendente: uno smoothing poco spinto (con N pari ad 1/12 della lunghezza della serie) è sufficiente a far sì che più del 25% delle volte si ottenga una correlazione significativa al 95% fra serie casuali - che in realtà possono essere correlate solo per caso. Ovvero, la smussatura delle serie di dati causa una certezza gonfiata, in particolare nella correlazione fra serie.

La ragione si può capire tornando al mio grafico: più la smussatura di una qualsiasi serie di numeri casuali normalizzata (ma normalizzare una serie è cosa facile) è spinta, più si tende alla situazione di F-30, ovvero ad una funzione crescente. E' pure chiaro che ci sarà sempre più correlazione fra due funzioni crescenti che fra due funzioni qualsiasi - visto che ambedue le funzioni crescenti appunto crescono nello stesso intervallo.

La certezza gonfiata dovrebbe essere tenuta a mente quando si tenta di fare una calibrazione dei proxy di temperatura contro i dati strumentali: entrambe le serie sono molto rumorose, e la tentazione di ricorrere ad una smussatura preliminare è molto forte.

Più in generale, la smussatura delle serie di dati dovrebbe essere evitata il più possibile, ed usata con moltissima attenzione negli altri casi - in modo particolare quando la serie smussata è il punto di partenza per operazioni successive.

Finito ore 01:24

Etichette: ,

16/09/08

In Gestazione

Sto preparando un nuovo post sull'effetto delle tecniche di smoothing sulle sequenze di dati (serie storiche di temperatura, nel caso che qualcuno abbia dei dubbi), ma ci vorrà un po' di tempo. Anteprima: uno degli effetti più seri è la comparsa di correlazioni spurie.

Nel frattempo, viste le ultime preoccupazioni di Veltroni, io gli vorrei fare una domanda: "Lei, Veltroni, è anticomunista convinto?".

Etichette: ,

11/09/08

Marketing Scientifico

Su Progetto Galileo, il mio "collega" fabristol, studente di dottorato, scrive:
[...]Ormai per avere fondi nella ricerca bisogna sempre sottolineare che quella ricerca potrebbe avere ricadute su importanti malattie per esempio, o su ipotesi che piacciono al grande pubblico (vita su Marte e’ un esempio lampante). Per esempio per l’esperienza che ho io (biomedica farmacologica) se non nomini malattie come schizofrenia, alzheimer, cancro ecc. non vai da nessuna parte[...].
Ora, non è forse plausibile che una cosa simile accada anche nel campo della scienza del clima? Non potrebbe accadere che ricerche sensazionali e previsioni catastrofiche facciano più presa su chi tiene i cordoni della borsa?

Etichette: , ,

08/09/08

Il Ritorno della Mazza

Quella da hockey, naturalmente - e più precisamente la nuova ricostruzione climatica di Mann et al. che è stata annunciata alla stampa e verrà pubblicata presto sulle riviste specializzate.

Di nuovo, come nel caso di MBH98, Steve McIntyre (e la sua informale squadra di collaboratori su internet) si sono messi al lavoro esaminando l'articolo di Mann, ed hanno trovato diverse magagne.

McIntyre ha già scritto diversi articoli in pochi giorni, ma un buon inizio è questo che tratta delle serie di temperatura indirette nel lavoro di Mann che non sono state ottenute dagli anelli di accrescimento degli alberi. I problemi di questa nuova ricostruzione rimangono in buona parte gli stessi della prima: solo poche delle serie di temperatura presentano una forma a mazza da hockey, ed a queste serie viene assegnato un grosso peso statistico nella ricostruzione - ma la bontà della correlazione fra i dati indiretti e la temperatura non viene controllata in modo rigoroso per queste serie di grande importanza.

In particolare, alcune serie indirette ottenute dall'analisi dei sedimenti di laghi finlandesi sono fortemente influenzate dalle attività agricole nella loro parte più recente, e quindi non valide per una ricostruzione di temperatura.

Mann inoltre conserva nella sua seconda ricostruzione le solite serie di temperatura dagli anelli di accrescimento degli alberi, nonostante che il lavoro di McIntyre et al. e gli studi di Ababneh abbiano dimostrato che anche queste serie non sono valide.

Penso che una più dettagliata analisi degli algoritmi per la ricostruzione diventerà disponibile quando l'articolo verrà finalmente pubblicato - se Mann questa volta non farà ostruzionismo, ma per ora si può affermare che in questa nuova ricostruzione ci sono invero poche novità e deve essere considerata come la prima: non valida.

Etichette: , ,

26/08/08

La Radiofobia Colpisce Ancora

Se non fosse per il caso Litvinienko, il polonio-210 sarebbe solo una curiosità per addetti ai lavori. Uno dei suoi usi principali è la costruzioni di iniziatori di fissione (sorgenti di neutroni) per le armi nucleari, ovvero oggetti di uso non proprio comune.

Metalloide di numero atomico 84, appartiene al Gruppo 16 (lo stesso di ossigeno, zolfo, selenio, tellurio); è un potente emettitore di particelle alfa e chimicamente tossico. La massima dose tollerabile di polonio è minuscola, nell'ordine dei nanogrammi.

Ma l'assassinio Litvinienko ha portato questo elemento alla ribalta delle cronache, ed ora i media fiutano il polonio.

Così ora ci troviamo la storia di come le grandi compagnie del tabacco (i supercattivi di questa epoca) avrebbero tenuto nascosto al grande pubblico che il tabacco contiene tracce di polonio.

Il Corriere parte con un passo falso definendolo "sostanza radioattiva letale". Non esiste alcuna sostanza assolutamente letale: è la dose che conta. Il fumo di sigaretta contiene comunque sostanze tossiche, ed anche ossido di carbonio che nella concentrazione giusta è letale di suo.

La vera notizia sarebbe che il polonio si trova nel tabacco per cause naturali (o almeno così io deduco, visto che l'articolo non menziona le possibili cause) e che le compagnie del tabacco hanno fatto grandi sforzi per eliminarlo senza però ottenere molti risultati.

E se il polonio in tracce si trova nel tabacco per cause naturali, è molto probabile che si trovi anche nei cibi, pure quelli biologici. Ma quello che non tutti sanno è che siamo comunque circondati ed impregnati di elementi radioattivi: carbonio-14 e potassio-40 in tutti gli esseri viventi (quindi passare una notte con la donna od uomo dei nostri sogni ci espone ad una dose di radiazioni. Meditate, gente); Radon nell'aria soprattutto di certe zone e così via.

Vorrei anche sapere, la marijuana contiene polonio? Questa è una domanda scomoda per molti, ci scommetto.

Quanto a me, fumo magari una sigaretta al mese se sono stressato o nervoso, e continuerò a farlo comunque.

Etichette: ,

18/08/08

La Saga della Mazza da Hockey

Il blog Bishop Hill ha di recente pubblicato un articolo nel quale si racconta la saga del lavoro di Amman e Wahl, due autori che si sono prefissi l'obbiettivo di confermare la bontà del famigerato grafico delle temperature globali "Mazza da Hockey" di Mann contro le critiche portate principalmente da Steve McIntyre.

L'articolo è lungo ed in inglese, per cui qui provvederò solo un sintetico riassunto. Chi può, dovrebbe leggere l'originale.

La genesi dei due articoli di Amman e Wahl è lunga e complicata, e comincia con un inusuale annuncio alla stampa dell'invio (non della pubblicazione, e nemmeno dell'accettazione) di due bozze di articolo a due diversi giornali specializzati.

Un articolo è stato in primo luogo rifiutato, mentre l'altro, seppure accettato, è rimasto non pubblicato. Nel frattempo, gli autori si sono dimostrati estremamente reticenti, fino al punto di non rivelare i dettagli dei metodi statistici usati nel loro lavoro, e nemmeno i valori di certe importanti quantità che darebbero una buona idea della bontà della correlazione*.

Finalmente, uno degli articoli in ballo venne accettato dalla rivista Climatic Change in una versione che rivela i coefficienti di correlazione: prossimi allo zero, come McIntyre aveva già notato. Lo IPCC aveva fissato il termine per l'accettazione degli articoli destinati a contribuire al suo Quarto Rapporto, verso la fine del 2005, per cui il lavoro di Amman e Wahl viene incluso.

Ma la cosa curiosa è che la versione definitiva dell'articolo, quella che contiene la discussione statistica, è datata Febbraio 2006 - per cui lo IPCC può permettersi di ignorare la conferma delle affermazioni di McIntyre.

Tuttavia, l'altro articolo dei due autori - nel quale vengono stabilite i metodi di comparazione che permetterebbero di stabilire la bontà del lavoro di Mann - viene di nuovo rigettato da Geophysical Research Letters. I due autori però non si scoraggiano ed inviano sostanzialmente lo stesso articolo a Climatic Change, che lo pubblica nella seconda metà del 2006.

Il cerchio dei riferimenti incrociati fra i due articoli quindi si chiude, e lo IPCC decide di chiudere un occhi sul fatto che almeno uno dei due articoli di Amman e Wahl è stato pubblicato molto dopo il termine fissato. E' difficile non pensare che lo IPCC abbia preso questa decisione per includere nel quarto rapporto qualcosa, qualunque cosa, che potesse ammantare di validità la Mazza da Hockey - fondamentale per l'ipotesi riscaldamento globale antropogenico.

Ma veniamo finalmente al contenuto degli articoli - ovvero, come Amman e Wahl avrebbero dimostrato la veridicità delle conclusioni di Mann. I dettagli sono complicati, visto che si rifanno ai metodi usati per stabilire la correlazione fra le misure indirette di temperatura (come gli anelli di accrescimento) e le misure strumentali.

Amman ha rivelato i dettagli del suo metodo all'improvviso nel luglio del 2008, e quello che ne emerge è sconcertante. I risultati intermedi di questo metodo sono pressochè identici a quelli di McIntyre (ovvero, che la Mazza da Hockey ha ben poca correlazione con il reale andamento delle temperature), per cui i due difensori di Mann per iniziare hanno inventato un nuovo parametro statistico, mai visto prima nè in climatologia nè in alcuna altra disciplina.

Ma non contenti di questo, hanno pure scelto un valore di soglia per questo parametro che rende la ricostruzione di Mann la migliore fi un vasto numero. Questo metodo non è solo intellettualmente poco onesto, ma ha anche il perverso effetto collaterale di assegnare un basso punteggio a simulazioni che hanno correlazioni anche migliori di quella di Mann nei periodi di calibrazione e verifica.

Eppure, nonostante tutta quest disonestà, gli stratagemmi statistici, le cattive pratiche, la Mazza da Hockey viene ancora vista da molti come la giusta guida per le decisioni sulla politica ambientale.

* Dovrei spiegare a quali serie di dati i coefficienti di correlazione si riferiscono, ma questo non vuole essere un articolo tecnico. La questione è spiegata meglio da Bishop Hill, quindi da McIntyre in parecchi post di Climate Audit; una trattazione dei problemi della calibrazione e verifica dei proxy di temperatura si trova anche qui (naturalmente in inglese).

Etichette: , ,