Buone idee

Il Gruppo Nature lancia una nuova rivista in open access, diversa da tutte le altre.

Motivo
Everyone wants better ways to make research data available and to give more credit to the researchers who create and share data. But for a data set to be widely reusable, scientists need to know how the data were produced and what quality-control experiments were performed. They need access to detailed descriptions of the data outputs, file formats, sample identifiers and replication structure. This is hard work that is often poorly rewarded. As a result, potentially valuable data sets go unpublished, or are not fully released to the public or not described in sufficient detail to permit reuse. (grassetto mio)

Quindi
To address this need, Nature Publishing Group will next spring launch Scientific Data, an open-access, online-only journal for detailed descriptions of data sets (http://nature.com/scientificdata). This week, Scientific Data announced its first call for submissions (see go.nature.com/1gnd1j). The doors are now open for scientists to submit ‘Data Descriptor’ manuscripts — a new article type that is designed to describe scientifically valuable data sets in a way that will promote data sharing and reuse.

Il servizio reso alla collettività viene riconosciuto
Data Descriptor articles are fully fledged, peer-reviewed scientific publications, and will be listed in major indexing services, thereby giving authors the credit they deserve for sharing their data and making it usable by others.
Niente copyright
All Data Descriptors will be released under a Creative Commons licence that allows researchers to reuse, re­distribute and remix the articles’ content.

***

Nature si allea con PLOS Medicine contro le Big Pharma e i ricercatori che pubblicano solo i risultati positivi dei trial clinici, rif. la ricerca uscita ieri di Beate Wieseler et al. sugli studi clinici inediti (CSRs) ottenuti dall’Institute for Quality and Efficiency in Health Care

According to the analysis, crucial trial information, such as mortality rates and serious side effects, is missing from much published data. But it can frequently be found in standard non-public documents prepared by industry, known as clinical study reports (CSRs). Missing information uncovered by the study includes details of depression symptoms in trials for antidepressant drugs, and details of heart attacks and strokes in diabetes-drug trials.

*

Con le simulazioni di 39 modelli (CMIP5) e le anomalie annue di temperature terrestri e marine del 1860-2004 come base, Camilo Mora et al. hanno costruito un indice per calcolare – per una data zona di 100 x 1000 km – quando il clima supererà i limiti della variabilità storica in funzione dei vari scenari per le emissioni di gas serra (Representative Concentration Pathways) dal 2006 al 2100.

Risultati:
global mean of 2069 (±18 years s.d.) for near-surface air temperature under an emissions stabilization scenario and 2047 (±14 years s.d.) under a ‘business-as-usual’ scenario.

Il margine di errore è ancora notevole, ma è un primo tentativo, e i tempi per gli oceani sono più lunghi, 60 anni nel caso di stabilizzazione della CO2 atmosferica ed equivalenti, e 40 nel business as usual.

Nella seconda parte, gli autori cercano di calcolare gli effetti sulla biodiversità – concentrata fra i Tropici dove storicamente il clima è stato più stabile – e le popolazioni più povere:

The fact that the earliest climate departures occur in low-income countries  further highlights an obvious disparity between those who benefit economically from the processes leading to climate change and those who will have to pay for most of the environmental and social costs. (…) Our results on the projected timing of climate departure from recent variability shed light on the urgency of mitigating greenhouse gas emissions if widespread changes in global biodiversity and human societies are to be prevented.

Avvertono che i dati del periodo 1860-2005 non rappresentano tutta la variabilità del clima (prima i dati annui non ci sono) e che mancano del tutto sulla capacità di adattamento di molte specie – nei Tropici, i coralli sono una delle eccezioni – e ancora di più su quella delle economie del terzo mondo.

*

C’è anche uno speciale sulla tubercolosi che leggo con calma, e un sensazionale esperimentogratis su arXivdi Kater Murch e del gruppo di Irfan Siddiqi a Berkeley (abituati ai giochi di prestigio!). Guardano la funzione d’onda collassare in un “transmone” tridmensionale, un qbit – in realtà un pezzo nanometrico di materiale superconduttore fatto di alluminio spalmato sottile sui due lati di una fettina di silicio – dentro un specie di fornellino a micro-onde – la scatoletta quadrata con le prese A, C e B, tenuto in freezer.
Più che guardarla, la misurano – con statistiche, proiezioni ecc. – mentre collassa e de-collassa, dai cambiamenti nei fotoni entangled delle micro-onde che entrano ed escono dal fornellino.

4 commenti

  1. Mentre è vero che è necessario un sistema condiviso e organizzato per la condvisione dei dati, che questo passi attraverso un gruppo editoriale mi lascia perplesso.
    Quando lanciando una rivista si afferma che “This is hard work that is often poorly rewarded”, traspare chiramente che il reward per uno scienziato è l’indice bibliometrico. Capisco che oggi funziona così, ma io continuo a non essere daccordo.

  2. @Riccardo
    Indice a parte, un raccoglitore di good practices e un posto dove si comincia a discuterne ci voleva proprio. Altrimenti ogni disciplina e ogni paese continuano come prima. Per non parlare del rischio che i finanziamenti per la conservazione/condivisione dei Big Data non si materializzino. Se no, a cosa serve esigere i dati che BigPharma tiene nascosti se poi li usa solo un istituto tedesco?

  3. ocasapiens
    si, ci vuole. Il problema è chi deve stabilire le modalità e mantenere i database. E’ un po’ come per gli indici bibliometrici in mano ai grandi gruppi editoriali, non ti danno garanzie e non sono sotto controllo. In più, una società privata può fallire, chiudere, essere comprata, decidere di non supportare più l’iniziativa, cambiarne le modalità, etc. Il database dovrebbe comunque essere duplicato per evitare che vada perduto.
    Anche se è una strada più difficilmente percorribile, io punterei ad un accordo fra società scientifiche.

  4. @Riccardo
    Eh sì, ma certe società scientifiche dipendono dal Congresso che già protesta per i dati condivisi con i cinesi.
    Comunque trovo una buona idea una rivista specializzata non fatta da una ditta che si offre di mantenere database – non come la rivista sugli impact factors della Thomson Reuters, per dire. Forse perché sono curiosa di vederei il primo numero.

I commenti sono chiusi.