Restauri


Sul British Medical Journal, Peter Doshi, Kay Dickersin, David Healy, Swaroop Vedula e Tom Jefferson hanno lanciato l’iniziativa Restoring Invisible and Abandoned Trials (RIAT), altro fronte nella battaglia contro chi non pubblica – o pubblica solo parzialmente  i dati degli esperimenti clinici che non corrispondono alle aspettative aziendali.

Hanno raccolto
around 178.000 pages of previously confidential company research documents. For drugs such as paroxetine, quetiapine, and gabapentin, litigation over illegal off-label marketing put thousands of pages of trial reports in the public domain. Other trial reports, such as for oseltamivir and clopidogrel, were obtained through new freedom of information policies at the European Medicines Agency (EMA)…  We expect that other independent groups will also have access to many additional trial reports.

Esperimenti conclusi addirittura nel 1983, fatti dal Gotha della categoria, da Astra a Zeneca… Serve aiuto:

We call on others to join us, to contribute trial documents they have obtained from public sources that need publishing or republishing, and to help us with the writing. We need volunteers to act in place of those who should have but did not make trial reports visible and accessible.

Le responsabili di PLoS Medicine spiegano, perché la rivista ha aderito:

Nothing better underscores the urgency and importance of the RIAT proposal than the list of abandoned trials that accompanies it. Read it and weep: on the list are clinical trials for drugs used by millions of people, including zanamivir, atorvastatin, gabapentin, and paroxetine… Secrecy and selective reporting were an integral part of the system. Reforms such as trial registration and mandatory results reporting will improve things in the future but can do nothing about the flawed evidence of the past.

L’idea non è soltanto di verificare l’evidence passata e trarne le conseguenze per le terapie da prescrivere o meno, ma anche di fare da deterrente. Se Big Pharma non permetterà ai ricercatori di pubblicare tutti i dati, ci penseranno altri senza conflitto di interessi e senza NDA.

Ostacoli tanti

*

Ripulita all’impact factor

L’iniziativa DORA comincia a dare frutti? Per abuso di autocitazioni e/o citazioni incrociate tra riviste dello stesso gruppo editoriale, Thomson Reuters ha escluso 66 riviste dalla classifica che pubblica ogni anno nei Journal Citation Reports. Erano 51 nel 2012 e 34 nel 2011.

*

Home-made

Jeffrey Beall segnala un altro predone: il titolare dell’International Academy, Research, and Industry Association che s’inventa sensazionali impact factor. Come l’editore sotto presunta “egida dell’Unesco” al quale il dott. Celani & Co. hanno pagato la pubblicazione del loro dépliant aziendale.

Come i titolari di Nexus, 22 passi e il “prof.” Valenzi (anche se in un inglese meno spassoso), vende gite presunte scientifiche a geni incompresi e seguaci, di cui quattro a Roma solo in questa settimana. Prezzo salato nonostante innumerevoli sponsor tra cui UniBo, PoliTo e UniUrbino – sarà un caso?

7 commenti

  1. L’iniziativa DORA mette in luce un problema che non può trovare soluzione con un “aggiustamento” degli indici da parte degli editori. E’ paradossale che Thomson Reuters continui a ritenere obiettivo il suo indice nel momento stesso in cui cerca di far fronte alla sua manipolazione.
    Questo aspetto si riflette anche sulle valutazioni personali dei ricercatori. L’eccesso di autocitazioni, così come altri difetti di un lavoro scientifico, sono sempre esistiti. Quando la peer review non funziona a dovere la comunità scientifica è comunque in grado di valutare. Era e continua ad essere una valutazione non scritta e non quantificata, ma tremendamente selettiva. Questa “seconda valutazione” è la più difficile da superare, ma è un aspetto che difficilmente si riesce a far capire a chi non è del mestiere. Quando qualcuno difende un lavoro “rivoluzionario” dicendo che non è stato smentito, non si rende conto che è successo di molto peggio, è stato ignorato.

  2. @Riccardo
    “comunque in grado di valutare”: collettivamente sì, ma nobody’s perfect e le metriche dovrebbero anche temperare nepotismi clientelismi spoils sytem old boys’ network ecc.
    E ai giornalisti le metriche fanno comodo, come prima approssimazione, se Thomson Reuters “clean their act” è già qualcosa.

  3. La pubblicazione di riviste solo online e open source, l’ingresso in massa degli scienziati dei paesi emergenti, in due parole i cambiamenti che si sono verificati nel mondo negli ultimi decenni, sono tutte cose buone e giuste; ma hanno cambiato le regole del gioco ed il modello di valutazione basato sulle citazioni non funziona più (ammesso che abbia funzionato in passato per quello per cui di fatto è stato usato).
    Nel frattempo è partita la caccia alle riviste open source dove paghi (chi ha un po’ di migliaia di euro da buttare) e pubblicano. Diranno che sono corrotti i ricercatori, mai che li costringono ad un gioco con regole assurde.

  4. Faccio modestamente notare che per la pubblicazione su International Journal On Advances in Life Sciences non è legata al pagamento di un feed come per esempio su Hindawi (che comunque si fa una pagina di pubblicità su Nature per dire).
    Piuttosto farei notare che per pubblicare sull’ International Journal On Advances in Life Sciences
    occorrono i seguenti steps
    -pubblicare uno short paper di 6 pagine nella conferenza eTELEMED (passando quindi attraverso una prima peer-review)
    -vincere un Best Paper Awards su quel paper
    -pubblicare una extended version di 25 che comunque è nuovamente sottoposta a peer-review prima di essere pubblicata. Quest’ultima non soggetta al pagamento di nessun feed.
    Ora si potrà obiettare che il livello di una conferenza del genere non è quello di una IEEE, ma francamente ho visto la partecipazione aumentare negli ultimi anni e la qualità dei paper di pari passo. Non avendo partecipato né pubblicato come accademico o comunque persona interessata all’impact factor, per come la vedo si può dire che gli impact factor accreditati siano stati gonfiati ma sulla qualità generale del processo di pubblicazione non mi sentirei di essere così definitivo

  5. @Piero Giacomelli
    Sul sito, c’è scritto che nessuno paga per pubblicare. Infatti costa 500-600 euro presentare a una conferenza 6 pagine – poi allungate da 10 a 25 – peer reviewed nel senso di approvate dal board scientifico della conferenza che coincide con l’editorial board della rivista.
    Poi, per essere certi che gli autori gonfino gli indici, vene precisato:
    Your cross-reference to the papers published in these journals is important in establishing the reference index to enter the major indexes.
    Nel senso “indexed by Google scholar”. Per esempio Ion, Maresca, Migoni, Fanizzi, “Porphyrin – Cis-Platin drug system for HeLa cells photodynamic treatment” – riciclato come tanti altri – è autocitato 3 volte in 4 anni.
    Sono ancora meno autocitati i papers di due numeri del 2010. Per il suo è un po’ presto, mi fermo qui, ma sarei curiosa di sapere come lei ottiene un IF 14,2 con meno di un’autocitazione/anno.

  6. Di nuovo ribadisco, sicuramente gli indici sono gonfiati è stata la mia premessa.
    Per quando riguarda i costi è corretto affermare che 500/600 sono il costo di partecipazione alla conferenza. Ho anche partecipato ad una IEEE e i costi sono circa gli stessi e francamente la qualità non mi è parsa poi così alta anche se sicuramente più orientata al mondo accademico.
    Mi preme precisare che, almeno nel mio caso, il board della conferenza non coincide con l’editorial board della rivista.
    Dato che non mi occupo più di progetti europei, di chi mi cita non mi preoccupa più di tanto.
    Faccio solo notare che la conferenza per sé l’ho trovata molto istruttiva e mi ha permesso di avere molti contatti nelle realtà che lavorano nel settore heath alcune delle quali veramente grosse e importanti. La stessa cosa non la posso dire per IEEE.

  7. @Pietro Giacomelli
    grazie dell’informazione, però trovo che Jeff Beale abbia ragione e sconsiglierei anch’io di pubblicare su riviste con impact factor di fantasia, tanti articoli riciclati e solo autocitazioni. Sembrano fatte apposta per truccare le metriche.
    .
    Si lamentano in molti delle conf. IEEE, e di altre, forse sfornarne in quantità industriale non giova alla qualità.

I commenti sono chiusi.