Ética de las publicaciones científicas y códigos de conducta

Las publicaciones científicas son comunidades en las que confluyen autores, revisores y equipo editorial, teniendo cada uno de ellos un rol y una serie de derechos y obligaciones inherentes a su actividad. Sin embargo, más allá de asuntos de derechos de autor no existen normativas internacionales de obligatorio cumplimiento para ninguna de estas partes, por lo que es la ética la que salvaguarda el conjunto de costumbres y pautas de comportamiento en estas relaciones sociales-académicas.

En este sentido, y para entenderlo en la praxis, el hecho que una revista se tarde un año en poner en revisión un manuscrito, un autor que pone como firmantes en el artículo a personas que no participaron en la investigación, o un revisor que pide que citen sus propias investigaciones en el informe, no son actitudes que conlleven una coacción jurídica pero que sin duda son comportamientos contrarios a la integridad académica, óbices de un relacionamiento óptimo y que indefectiblemente repercutirá en la imagen y reputación de la publicación y de su comunidad científica.

Aunque no han sido pocos los esfuerzos de establecer códigos de conductas y buenas prácticas en la investigación y las publicaciones -sobre todo en áreas de medicina y biología- (ver aquí algunos de ellos), la entidad más reconocida internacionalmente es el Committee on Publication Ethics (COPE) [Comité sobre Ética de las Publicaciones], organización no gubernamental creada en 1997 y que en la actualidad cuenta con más de 12.000 publicaciones suscritas, estando asociada además con el Consejo de Editores Científicos (CSE), la Asociación Europea de Editores Científicos (EASE), el Directorio de Revistas de Acceso Abierto (DOAJ), y otras entidades regionales y locales.

COPE ha establecido en 2017 un decálogo de prácticas que recomiendan que sean implementadas y publicitadas en las publicaciones científicas suscritas:

  • Alegatos de conducta impropia: Las revistas deben explicar claramente cómo atienden las denuncias de fraude académico y sobre cómo realizan los procesos de investigación en estos casos.
  • Autoría y contribuciones: Las publicaciones deben ser transparentes para establecer los requisitos de autoría y contribución.
  • Reclamos y recursos: Las revistas deben explicar detenidamente los procesos que tienen para la tramitación de quejas contra ella misma, su personal editor y los revisores.
  • Conflictos de intereses: Debe ser obligatorio que los autores y revisores declaren si existen conflictos de interés con la temática o el financiamiento.
  • Datos y reproducibilidad: Se deben explicar las políticas de la revista sobre acceso a los datos.
  • Supervisión ética: Debe incluir, entre otras cosas, políticas sobre el consentimiento para la publicación, la publicación sobre poblaciones vulnerables, la conducta ética de la investigación con animales, la conducta ética de la investigación con seres humanos, el manejo de datos confidenciales y las prácticas comerciales y de comercialización éticas.
  • Propiedad intelectual: Todas las políticas sobre propiedad intelectual, incluidos los derechos de autor y las licencias de publicación, deben describirse claramente. Además, cualquier costo asociado con la publicación (APC) debe ser claro para los autores y los lectores.
  • Gestión de la publicación: Es esencial contar con una infraestructura bien descrita y aplicada (organigrama), que incluya el modelo comercial, las políticas, los procesos y los programas informáticos para el funcionamiento eficiente de una revista con independencia editorial, así como la gestión y la capacitación eficientes de los consejos editoriales y del personal de redacción y publicación
  • Proceso de revisión por pares: Todos los procesos de revisión por pares deben ser descritos de manera transparente y bien administrados. Las revistas deben impartir capacitación a los editores y revisores.
  • Debates y correcciones post-publicación: Las revistas deben permitir la publicación de los artículos de debate en su sitio web, mediante cartas al editor, o en un sitio externo moderado, como PubPeer. Deben tener mecanismos para corregir, revisar o retirar los artículos después de su publicación.

En el caso de la Revista Comunicar se ha ido más allá de lo estrictamente solicitado por COPE, incluyendo un conjunto de compromisos de obligatorio cumplimiento para editores, revisores y autores (disponible aquí).

Métricas a Nivel de Artículo, las revistas deben colaborar con la causa

https://doi.org/10.3916/club-de-editores-013

Una de las responsabilidades de una revista, con relación a sus autores, es la de proporcionar datos que revelen la actividad de los artículos que publica. Habitualmente, las revistas han presentado los datos de manera agregada, al nivel de las revistas. Las Métricas a Nivel de Artículo (ALMs Article Level Metrics) pretenden desagregar todos esos datos y ofertarlos por artículo, aprovechando las posibilidades de las plataformas digitales de revistas (Journal Management Systems). Estos datos son importantes para las propias revistas pues les permite obtener una información muy valiosa sobre el uso, repercusión y distribución de cada uno de los trabajos que publican y por tanto de su papel como entidades evaluadoras y difusoras de trabajos. No obstante, es especialmente útil para los autores, pues estos datos son un reflejo de la calidad de los trabajos que pueden ser (y deberían ser) usados en procesos de evaluación.

Una de las revistas pioneras en ofrecer estos datos fue Plos One (2005) que entre muchas novedades incorporó una plataforma de gestión que aprovechaba al máximo toda la información que los usuarios registraban y la repercusión de los artículos en otras plataformas (Tabla 1). De hecho, es común que se usen las métricas tradicionales de citas, con las métricas de uso web y en conjunción con métricas alternativas. Sin embargo, estas métricas fuera de contexto no tienen una medida para ser comprendidas, las métricas tienen que estar contextualizadas, relativizadas en el tiempo y en el espacio, es decir, que las citas de un artículo se deben poner en relación con las del conjunto de su revista o su categoría en el número o el año en que se publicó. Para ello, existen productos como Incites (Web of Science) o SciVal (Scopus).

Tabla 1. Métricas a Nivel de Artículo registradas por Plos One (2005)

¿Por qué las Métricas a Nivel de Artículo son importantes para la evaluación científica?

La evaluación científica del profesorado español se basa principalmente en la valoración de las publicaciones según la calidad de los medios en los que se publica, se aproxima la calidad del artículo a la calidad de la revista que lo publica. ¿Por qué? Básicamente porque apenas había información que nos ayudaba a situar la relevancia de cada trabajo, especialmente de los recién publicados. Por ello, se asumía (y asume) que publicar en una revista de calidad implicaba «competir» y “ganar” a otros trabajos para poder publicar, pues existe una relación directa entre el impacto de las revistas y sus tasas de rechazo. Por cierto, esto ya no es así con las MegaJournals, donde la competitividad por publicar teóricamente desaparece.

Es decir, que se evalúa un trabajo por la presencia de una revista en ciertas bases de datos y los indicadores promedio (Factor de Impacto, CiteScore, Scimago Journal Rank) que se genera, lo que provoca una gran desigualdad, pues sabemos que unos pocos trabajos reciben la mayor parte de las citas que posicionan a las revistas y en cambio la mayoría de los trabajos pasan sin pena ni gloria. Dicho de otra forma, un trabajo se evalúa por asociación con la calidad del medio que lo publica. ¿Qué proponen las Métricas a Nivel de Artículo? Algo simple, evaluar un trabajo de forma directa según indicadores, principalmente las citas, que han generado el propio trabajo poniéndolos en relación con el conjunto. Los indicadores a nivel de artículo son mucho más fiables y justos.

Por ejemplo; el siguiente trabajo de Andreu Casero publicado en la revista amiga “El Profesional de la Información” obtiene un número de citas elevado (16 citaS). En principio la revista EPI estaba situada en el segundo cuartil de la categoría “Library and Information Science” posición 43 de 88. Sin embargo el artículo es uno de los trabajos más citados de la revista. InCites (Web of Science) nos indica que le trabajo recibe 5.28 veces más citas que el promedio de artículos publicados en EPI en 2017. A la vez, recibe 4.61 veces más citas que los artículos publicados en el área (Library & Information Science), por lo que si ordenásemos los artículos de esa categoría ese año de más citado a menos citado el artículo escrito por Andreu Casero se situaría en el percentil 3, o dicho de otra forma; ¡este trabajo está en el 3% más citado de su categoría!

Las revistas deben preocuparse por facilitar los datos de uso de los trabajos que publican, así como de buscar otros datos como las citas en distintas plataformas y a ser posible los registros altmétricos, pero como decíamos al principio, estos datos hay que contextualizarlos para poder darles valor. Por ejemplo, esta semana, hemos publicado en Comunicar las citas relativizadas de los artículos, al objeto de que sirvan a los autores para justificar mejor la calidad de sus trabajos en convocatorias como la de Sexenios de Investigación. Sólo con la colaboración de las revistas podremos evolucionar en nuestra forma de evaluar y medir algo más cercano a la realidad, objetivo de todo proceso evaluativo.