Política uso Inteligencia Artificial

Política sobre el uso de la Inteligencia artificial (IA)

Las revistas científicas publicadas por la Editorial de la Universidad de Sevilla están comprometidas con la integridad científica y la transparencia en el uso de la inteligencia artificial (IA). Esta política establece pautas claras sobre el uso adecuado de las herramientas de IA para autores, revisores y editores.

Principios Generales

En línea con las directrices de COPE y las mejores prácticas de la comunidad científica:

• Las herramientas de IA no pueden ser consideradas autores, ya que no pueden asumir la responsabilidad de los contenidos científicos.
• Las herramientas de IA no pueden gestionar de forma independiente los conflictos de intereses, los asuntos de derechos de autor o la toma de decisiones éticas.

 

Uso de la IA por parte de los autores

Declaración de uso

Los autores deben declarar explícitamente el uso de cualquier herramienta de IA en la redacción o análisis de sus manuscritos. Deben especificar el software utilizado, las funciones realizadas y las secciones específicas del manuscrito en las que se empleó la IA.

Responsabilidad por la originalidad

Los autores asumen toda la responsabilidad de garantizar la originalidad de cualquier contenido generado por IA o asistido por IA. Dicho contenido no debe infringir derechos de terceros ni implicar plagio.

Revisión de contenidos asistidos por IA

Los autores deben revisar y verificar cuidadosamente todo el contenido generado por IA para evitar sesgos, errores o inexactitudes.

 

Uso de la IA en la revisión por pares

Declaración de uso de la IA por parte de los revisores

Si los revisores utilizan la IA para ayudar en la evaluación de manuscritos, deben revelar su uso. La IA puede servir como una herramienta complementaria, pero la evaluación final y el juicio crítico deben ser realizados por el revisor.

Evaluación de manuscritos

La IA no debe sustituir la responsabilidad del revisor en la evaluación científica. El proceso de revisión por pares debe ser predominantemente impulsado por humanos, y la IA debe desempeñar solo un papel de apoyo.

 

Uso de la IA por parte del Equipo Editorial

El equipo editorial puede utilizar herramientas de IA para tareas administrativas y de edición, como el formato de manuscritos o la detección de plagio. Sin embargo, todos los procesos asistidos por IA deben someterse a una rigurosa supervisión humana para garantizar la calidad y la coherencia.

 

Consideraciones éticas en el uso de la IA

El uso de la IA nunca debe dar lugar a manipulación de datos, plagio o violaciones de la propiedad intelectual. Cualquier uso indebido de la IA, ya sea intencional o accidental, se abordará siguiendo las pautas de COPE y los estándares éticos del editor.

 

Evaluación y actualización de políticas

Esta política se revisará periódicamente para alinearla con los avances tecnológicos en IA y la evolución de las mejores prácticas en la publicación científica.

 

Consecuencias del incumplimiento

El incumplimiento de esta política puede dar lugar al rechazo del manuscrito, la retirada o la prohibición de envíos futuros a Pixel-Bit. Revista de Medios y Educación, siguiendo los procedimientos establecidos por la Editorial de la Universidad de Sevilla.