Política de la editorial de la Universidad de Lodz respecto a las herramientas de la inteligencia artificial generativa
Normas aplicables a los autores
- Sólo los humanos pueden ser autores de textos científicos. Las herramientas de GSI, incluidos los chatbots como ChatGPT, no pueden considerarse autores/coautores ni citarse como autores.
- Los autores asumen toda la responsabilidad del contenido del manuscrito presentado, incluidos todos los extractos creados con herramientas de GSI, por lo que son responsables de cualquier infracción de la ética de publicación.
- Los autores que utilicen herramientas de IA en su redacción, recopilación de datos y análisis deben revelar con honestidad y total transparencia qué herramienta de GSI, exactamente cómo y en qué medida se utilizó, y qué impacto tuvo en el trabajo.
- El material gráfico y las películas producidos o modificados por la GSI no deben utilizarse en publicaciones a menos que sean objeto de la investigación del trabajo en cuestión.
- Al presentar un manuscrito, los autores deberán enviar una declaración apropiada sobre el uso de herramientas asistidas por la GSI en la creación del trabajo, incluidos los chatbots, grandes modelos lingüísticos (LLM) o creadores de imágenes, junto con una descripción detallada de la finalidad, el alcance y la forma de su uso.
- Debe incluirse información detallada sobre el uso de herramientas de IA en el resumen, así como en las partes iniciales del texto, por ejemplo, en una sección específica titulada "Declaración de uso de GSI en el proceso de redacción del artículo", de modo que pueda repetirse el estudio y confirmarse la fiabilidad de los resultados.
Información necesaria
- hora y fecha de la solicitud,
- datos sobre la herramienta (nombre, versión, modelo),
- motivo, alcance y forma de su aplicación,
- todos los comandos (es decir indicaciones completas) utilizados para obtener texto nuevo, transformar texto o convertir texto en tablas o ilustraciones,
- nombre y versión de la herramienta de IA utilizada.
Además, al presentar un manuscrito para su publicación, el autor debe incluir información sobre el uso de herramientas de IA en la carta de presentación.
- Los autores deben ser conscientes de las limitaciones de las herramientas de inteligencia artificial generativa, incluidos los chatbots como ChatGPT, debido a sesgos, errores y lagunas de conocimiento. El resultado debe verificarse cada vez y, en particular, hay que asegurarse de que no ocurra lo siguiente:
falta de objetividad del contenido, que está relacionada con la forma en que se entrena el sistema;
b. falta de fiabilidad: las herramientas generativas de IA pueden producir contenidos falsos, sobre todo en temas especializados o de nicho, o contenidos que suenan plausibles y correctos a nivel lingüístico pero no científico; pueden malinterpretar hechos y producir bibliografías inexistentes;
c. imagen distorsionada: algunas herramientas se han entrenado con contenidos anteriores a una fecha determinada y tienen datos incompletos;
d. falta de comprensión contextual: las herramientas de IA generativa no pueden aplicar la comprensión humana al texto, especialmente en el caso de expresiones idiomáticas, sarcasmo, humor o lenguaje metafórico. Esto puede dar lugar a errores/malinterpretaciones del contenido generado
e. falta de datos de entrenamiento adecuados: las herramientas de IA generativa requieren una gran cantidad de datos de entrenamiento para lograr un rendimiento óptimo. Sin embargo, en algunos dominios o idiomas, estos datos pueden no estar fácilmente disponibles, lo que limita la utilidad del modelo. - Los autores deben también indicar qué medidas han tomado para reducir el riesgo de plagio, presentar conocimientos fiables y actualizados y garantizar que todas las descripciones bibliográficas facilitadas son exactas y que se identifica correctamente la autoría de las obras citadas. Deberá prestarse especial atención a la verificación de la bibliografía generada y a la citación de las fuentes para garantizar que todas ellas son fiables y están debidamente etiquetadas y descritas.
Normas para editores de las revistas y monografías de autores varios
- Los editores evaluarán cada vez la validez del uso de las herramientas de la GSI en su trabajo.
- Los editores verificarán cada envío utilizando programas informáticos antiplagio y los denominados detectores de GSI, teniendo en cuenta las limitaciones técnicas de estas herramientas y el riesgo de clasificar erróneamente la fuente del contenido.
- Los editores estarán obligados a tener en cuenta que los chatbots pueden conservar y compartir públicamente las aportaciones que se les hagan, incluido el contenido del manuscrito, lo que viola la confidencialidad del material presentado por el autor.
Normas aplicables a los revisores
- Los revisores no deben utilizar herramientas de GSI para apoyar el proceso de revisión.
- Los revisores evalúan cada vez la validez del uso de las herramientas de GSI en el trabajo.
- Los revisores deben tener en cuenta que los chatbots pueden conservar y compartir públicamente las aportaciones que se les hagan, incluido el contenido del manuscrito o del informe de revisión, lo que viola la confidencialidad del material presentado por el autor.
Fuentes
Recomendaciones de la Asociación de Editores
PRINCIPIOS PARA EL USO DE SISTEMAS DE INTELIGENCIA ARTIFICIAL EN LA EDUCACIÓN Y LA GRADUACIÓN EN LA
Autoría y herramientas de IA. posición de COPE
Foro COPE: Cómo excluir generados por IA