(Dis)attenzione

Altmetric, come dice il nome, è un punteggio alternativo o aggiunto all’impact factor che indica l’attenzione riservata dai media on-line a una pubblicazione scientifica. Su Research Integrity and Peer Review, Romana Haneef dell’INSERM et al. hanno cercato di capire quanta ne veniva riservata a 792 pubblicazioni, uscite nei primi sei mesi del 2014, che valutavano terapie antitumorali, e a quali altri fattori era più frequentemente associata:

Our study has some important implications. First, it shows that online media attention does not warrant the high quality of research. In fact, news, blogs and social media may highlight research on the basis of perceptions of their potential appeal to patients and the public, not because of their rigorous methodology.

Interessanti anche la correlazione tra citazioni nei social media e quelle successive nelle riviste, e l’influenza dell’open access. Questa da un lato sembra una buona notizia, fa pensare che i commentatori non leggano solo il com. stampa, dall’altro mica tanto vista la quantità di roba comprata su riviste truffaldine e la disattenzione alla qualità. Quanto alla raccomandazione:

To enhance the impact of their research, [researchers] should favour open access and disseminate press releases.

sarebbe giustificata se l’open access fosse una garanzia di rigore metodologico, se i ricercatori fossero degli addetti stampa e se avessero il tempo e la voglia di correggere i travisamenti ecc. Nell’analisi manca il “peso” dell’istituzione e del suo uff. stampa.

Detto questo, Research Integrity & Peer Review appartiene a BioMedCentral, editore open access di manica XL con >130 articoli la cui peer-review era stata falsificata, e conseguente ritrattazione. L’ultima, segnalata da Retraction Watch, fa pensare che i redattori del Journal of Molecular Neuroscience ne facessero a meno. L’articolo era stato

received and accepted by the journal over two days in March 2014 and first appeared online in April 2014.

***

Se non siete stufi di valori p bistrattati, su PeerJ  Valentin Amrhein e altri due zoologi di Basilea

review why degrading p-values into ‘significant’ and ‘non significant’ contributes to making studies irreproducible, or to making them seem irreproducible  A major problem is that we tend to take small p-values at face value, but mistrust results with larger p-values. In either case, p-values tell little about reliability of research, because they are hardly replicable even if an alternative hypothesis is true…

*

Se non siete stufi di sentir parlare di vaccini, rif. Orac e Medbunker; se non siete stufi di sentir come viene diffamato Michael Mann, rif. Greg Laden

***

Hilarity ensues

A galla nello spam ho trovato un commento  del “lei non sa chi sono io” sotto il post “Contraddizioni apparenti”…