Política sobre el uso de la Inteligencia artificial (IA)

Las revistas científicas publicadas por la Editorial de la Universidad de Sevilla están comprometidas con la integridad científica y la transparencia en el uso de la inteligencia artificial (IA). Esta política establece pautas claras sobre el uso adecuado de las herramientas de IA para autores, revisores y editores.
Principios Generales
En línea con las directrices de COPE y las mejores prácticas de la comunidad científica:
• Las herramientas de IA no pueden ser consideradas autores, ya que no pueden asumir la responsabilidad de los contenidos científicos.
• Las herramientas de IA no pueden gestionar de forma independiente los conflictos de intereses, los asuntos de derechos de autor o la toma de decisiones éticas.
Uso de la IA por parte de los autores
Declaración de uso
Los autores deben declarar explícitamente el uso de cualquier herramienta de IA en la redacción o análisis de sus manuscritos. Deben especificar el software utilizado, las funciones realizadas y las secciones específicas del manuscrito en las que se empleó la IA.
Responsabilidad por la originalidad
Los autores asumen toda la responsabilidad de garantizar la originalidad de cualquier contenido generado por IA o asistido por IA. Dicho contenido no debe infringir derechos de terceros ni implicar plagio.
Revisión de contenidos asistidos por IA
Los autores deben revisar y verificar cuidadosamente todo el contenido generado por IA para evitar sesgos, errores o inexactitudes.
Uso de la IA en la revisión por pares
Declaración de uso de la IA por parte de los revisores
Si los revisores utilizan la IA para ayudar en la evaluación de manuscritos, deben revelar su uso. La IA puede servir como una herramienta complementaria, pero la evaluación final y el juicio crítico deben ser realizados por el revisor.
Evaluación de manuscritos
La IA no debe sustituir la responsabilidad del revisor en la evaluación científica. El proceso de revisión por pares debe ser predominantemente impulsado por humanos, y la IA debe desempeñar solo un papel de apoyo.
Uso de la IA por parte del Equipo Editorial
El equipo editorial puede utilizar herramientas de IA para tareas administrativas y de edición, como el formato de manuscritos o la detección de plagio. Sin embargo, todos los procesos asistidos por IA deben someterse a una rigurosa supervisión humana para garantizar la calidad y la coherencia.
Consideraciones éticas en el uso de la IA
El uso de la IA nunca debe dar lugar a manipulación de datos, plagio o violaciones de la propiedad intelectual. Cualquier uso indebido de la IA, ya sea intencional o accidental, se abordará siguiendo las pautas de COPE y los estándares éticos del editor.
Evaluación y actualización de políticas
Esta política se revisará periódicamente para alinearla con los avances tecnológicos en IA y la evolución de las mejores prácticas en la publicación científica.
Consecuencias del incumplimiento
El incumplimiento de esta política puede dar lugar al rechazo del manuscrito, la retirada o la prohibición de envíos futuros a Pixel-Bit. Revista de Medios y Educación, siguiendo los procedimientos establecidos por la Editorial de la Universidad de Sevilla.