Outil de recherche
L'intelligence artificielle générative soulève un certain nombre de questions éthiques et sociétales importantes qu'il est crucial de prendre en compte pour un développement et une utilisation responsable de cette technologie.
Les modèles d'IA générative peuvent refléter et amplifier les biais présents dans les données sur lesquelles ils sont entraînés, ce qui peut conduire à des discriminations à l'égard de certains groupes de personnes.
Il est essentiel de mettre en place des mesures pour identifier et atténuer les biais dans les données et les algorithmes d'IA générative.
L'IA générative peut être utilisée pour créer des contenus qui s'inspirent ou copient des cultures spécifiques sans le consentement ou la reconnaissance des détenteurs de ces cultures.
Il est important de respecter les droits de propriété intellectuelle et culturelle et de s'assurer que l'IA générative est utilisée de manière inclusive et respectueuse.
L'IA générative peut être utilisée pour créer de faux contenus, tels que des articles de presse ou des vidéos, qui peuvent être utilisés pour tromper ou manipuler les gens. Il est important de développer des outils et des méthodes pour détecter et vérifier l'authenticité des contenus générés par l'IA.
En juin 2023, plusieurs éditeurs ont proposé des conseils sur la manière dont les outils d’IA devraient être pris en compte pour les publications.
Cet éditeur affirme que l’IA doit être déclarée et clairement expliquée, et qu’elle ne répond pas aux exigences de la paternité en termes de responsabilité. Consultez la déclaration sur l'utilisation responsable de cet éditeur.
Cet éditeur déclare que les outils d’IA ne peuvent pas être répertoriés en tant qu’auteur, et que leur utilisation doit être reconnue et documentée de manière appropriée. Consultez la déclaration sur l’utilisation responsable de cet éditeur.
Ces revues de Springer indiquent que les grands modèles de langage (LLM) comme ChatGPT ne seront pas acceptés en tant qu’auteurs crédités sur les articles de recherche. Cependant, les chercheurs qui utilisent des outils de LLM doivent documenter leur utilisation dans la section sur les méthodes ou la reconnaissance. Consultez la déclaration sur l'utilisation responsable de cette revue.
Cette revue a créé une politique d’intelligence artificielle (IA) qui stipule : « Le texte généré à partir de l’IA, de l’apprentissage automatique ou d’outils algorithmiques similaires ne peut pas être utilisé dans des articles publiés dans des revues scientifiques, et les figures, images ou graphiques qui l’accompagnent ne peuvent pas être le produit de tels outils, sans l’autorisation explicite des éditeurs. De plus, un programme d’IA ne peut pas être l’auteur d’un article de revue scientifique. Une violation de cette politique constitue une inconduite scientifique. Consultez la déclaration sur l'utilisation responsable de cette revue.
Bien que certains styles de citation et de référencement aient émis des recommandations provisoires pour la citation de documents générés par l'IA, beaucoup ne fournissent toujours pas de directives spécifiques. Généralement, les documents générés par l'IA doivent être traités comme une source non accessible ou comme une communication personnelle, en respectant les instructions de citation adaptées à ces types de ressources dans le style de référence que vous utilisez.
On peut trouver les directives sur la façon de citer l’intelligence artificielle dans notre section Savoir rédiger et citer, dans les Exemples par type de documents.
Consultez la page web de la TÉLUQ consacrée à Étudier à l’ère de l’IA pour plus d’information sur :