Politique éditoriale concernant l'utilisation

1. Introduction

Hábitat y Sociedad, appartenant à la maison d’édition de l'université de Séville, s'engage en faveur de l'intégrité scientifique et de la transparence concernant l'utilisation de l'intelligence artificielle (IA). Cette politique définit des directives claires sur l'utilisation appropriée des outils d'IA pour les auteur·rice·s, les évaluateur·rices et les éditeur·rice·s.

2. Principes généraux

Conformément aux directives de la déclaration du COPE et aux meilleures pratiques de la communauté scientifique :

  • Les outils d’IA ne peuvent pas répondre aux critères de paternité, dans la mesure où ils ne peuvent pas assumer la responsabilité du contenu scientifique.
  • Ils ne peuvent pas gérer des conflits d’intérêts, des droits d’auteur·rice·s, ni prendre de décisions éthiques par eux-mêmes.

3. Utilisation de l'IA par les auteur·rice·s

3.1. Déclaration d'utilisation

Les auteur·rice·s doivent déclarer explicitement l’utilisation de tout outil d’IA dans la rédaction ou l’analyse de leurs manuscrits. Le logiciel utilisé, les fonctions appliquées, ainsi que les sections du manuscrit dans lesquelles l’IA a été utilisée doivent être précisés.

3.2. Responsabilité en matière d'originalité

L’auteur·rice est responsable de l’originalité du contenu généré ou assisté par l’IA. Le matériel généré ne doit pas enfreindre les droits de tiers, ni plagier des contenus existants.

3.3. Évaluation du contenu assistée par l'IA

Les auteur·rice·s sont tenu·e·s d'examiner et de vérifier attentivement tout contenu généré par l'IA afin d'éviter les biais, les erreurs ou les inexactitudes.

4. Utilisation de l'IA dans l'évaluation par les pairs

4.1. Déclaration sur l'utilisation de l'IA par les évaluateur·rice·s

Si les évaluateur·rice·s utilisent l'IA pour faciliter l'évaluation d'un manuscrit, il·elle·s doivent indiquer son utilisation. L'IA peut servir de support, mais le jugement critique et l'évaluation finale doivent être effectués par des êtres humains.

4.2. Évaluation des manuscrits

L'IA ne doit pas remplacer la responsabilité de l’évaluateur·rice en matière d'évaluation scientifique. Le processus doit être effectué principalement par des humain·e·s, et l'utilisation de l'IA doit être complémentaire.

5. Utilisation de l'IA par l'équipe de rédaction

L'équipe de rédaction peut utiliser l'IA dans des tâches administratives et d'édition, telles que la mise en forme de manuscrits ou la détection de plagiat, toujours sous une supervision humaine rigoureuse afin de garantir cohérence et qualité.

6. L'éthique dans l'utilisation de l'IA

L'utilisation de l'IA ne doit en aucun cas entraîner la manipulation de données, le plagiat ou la violation de la propriété intellectuelle. Toute utilisation abusive de l'IA, intentionnelle ou non, sera traitée conformément aux politiques du COPE et aux autres réglementations éthiques de la maison d’édition.

7. Évaluation et mise à jour de la politique

Cette politique sera régulièrement revue afin de s'adapter aux avancées technologiques en matière d'IA et de garantir les meilleures pratiques en matière de publication scientifique.

8. Conséquences du non-respect

Le non-respect de cette politique peut entraîner des sanctions telles que la suppression du manuscrit ou l'interdiction d'envoyer de futurs travaux à Hábitat y Sociedad, conformément aux procédures de la maison d’édition de l'université de Séville.