Política editorial sobre el uso de IA

1. Introducción

En e-Revista Internacional de la Protección Social (e-RIPS), perteneciente a la Editorial de la Universidad de Sevilla, estamos comprometidos con la integridad científica y la transparencia en el uso de la inteligencia artificial (IA). Esta política establece directrices claras sobre el uso adecuado de herramientas de IA para autores, revisores y editores.

2. Principios generales

De acuerdo con las directrices de la Declaración de COPE y las mejores prácticas en la comunidad científica:

  • Las herramientas de IA no pueden cumplir con los criterios de autoría, ya que no pueden asumir la responsabilidad del contenido científico.
  • No pueden gestionar conflictos de intereses, derechos de autor ni tomar decisiones éticas por su propia cuenta.

3. Uso de IA por parte de los autores

3.1. Declaración de uso:

Los autores deben declarar explícitamente el uso de cualquier herramienta de IA en la redacción o análisis de sus manuscritos. Se debe especificar el software utilizado, las funciones aplicadas y las secciones del manuscrito donde se ha empleado.

3.2. Responsabilidad de la originalidad

El autor es responsable de la originalidad del contenido generado o asistido por IA. El material generado no debe infringir derechos de terceros ni plagiar contenidos existentes.

3.3. Revisión de contenido asistido por IA

Los autores son responsables de revisar y verificar cuidadosamente cualquier contenido generado por IA para evitar sesgos, errores o inexactitudes.

4. Uso de IA en la revisión por pares

4.1. Declaración del uso de IA por los revisores

Si los revisores utilizan IA para ayudar en la evaluación de un manuscrito, deben declarar este uso. La IA puede servir como apoyo, pero el juicio crítico y la evaluación final deben ser realizados por seres humanos.


4.2. Evaluación de manuscritos

La IA no debe reemplazar la responsabilidad del revisor en la evaluación científica. El proceso debe ser realizado principalmente por humanos, y el uso de IA debe ser complementario.

5. Uso de IA por parte del equipo editorial

El equipo editorial puede emplear IA en tareas administrativas y de edición, como el formateo de manuscritos o la detección de plagio, siempre bajo una supervisión humana rigurosa para asegurar la coherencia y calidad.

6. Ética en el uso de IA

El uso de IA no debe, bajo ninguna circunstancia, llevar a la manipulación de datos, plagio o violaciones de propiedad intelectual. Cualquier mal uso de la IA, intencional o no, será tratado de acuerdo con las políticas de COPE y otras normativas éticas de la editorial.

7. Evaluación y actualización de la política

Esta política será revisada regularmente para adaptarse a los avances tecnológicos en IA y para garantizar las mejores prácticas dentro de la publicación científica.

8. Consecuencias del incumplimiento

El incumplimiento de esta política puede conllevar sanciones como la retirada del manuscrito o la prohibición de enviar futuros trabajos a ERIPS, siguiendo los procedimientos de la Editorial de la Universidad de Sevilla.