Utilisation éthique de ChatGPT dans la rédaction scientifique : un appel à des lignes directrices transparentes et à des politiques éditoriales uniformes
Auteurs):
Madeena Sultane
Recherche et développement pour la défense Canada
Scientifique de la Défense
Clause de non-responsabilité : La version française de cet éditorial a été auto-traduite et n’a pas été approuvée par l’auteur.
ChatGPT, alimenté par des algorithmes avancés de traitement du langage naturel (NLP), est devenu un outil puissant pour diverses applications, notamment la rédaction scientifique. Il s'agit d'un modèle de langage génératif basé sur l'intelligence artificielle (IA) qui peut s'engager dans des échanges conversationnels, générant des réponses cohérentes et contextuellement pertinentes. Deux mois seulement après son lancement, ChatGPT a déjà acquis plus de 100 millions d'utilisateurs dans le monde. Suivant la tendance, les scientifiques et les chercheurs ont également commencé à utiliser ChatGPT pour la rédaction scientifique. Cependant, contrairement à d'autres outils, la contribution de ChatGPT à la rédaction scientifique peut être aussi importante qu'un co-auteur. Pendant cette période indécise, ChatGPT a même été attribué comme co-auteur d'articles acceptés. Cela soulève des questions telles que celle de savoir si ChatGPT, en tant qu'outil d'IA, peut être tenu responsable, comme les autres auteurs humains, de tout ce qui est présenté dans un article scientifique. Si ce n’est pas le cas, comment les chercheurs et les scientifiques peuvent-ils tirer parti d’un outil aussi puissant pour accroître leur productivité dans le respect des limites éthiques ? Cet éditorial explore l'importance d'établir des lignes directrices standard, des cas d'utilisation et des politiques pour l'utilisation de modèles d'IA génératifs comme ChatGPT dans la rédaction scientifique afin de garantir son utilisation responsable et efficace.
Qu'y a-t-il de si passionnant dans les modèles ChatGPT et d'IA pour la rédaction scientifique ?
ChatGPT présente plusieurs avantages qui peuvent bénéficier considérablement à la rédaction scientifique. Il peut offrir un gain de productivité substantiel en automatisant certains aspects du processus de rédaction, tels que la génération de versions initiales, la synthèse des résultats de la recherche ou la suggestion de littérature pertinente. Ce gain de temps potentiel peut aider les chercheurs à se concentrer sur des tâches de plus haut niveau et à accélérer la diffusion des connaissances scientifiques. ChatGPT peut également améliorer l'équité en supprimant les barrières linguistiques pour les locuteurs non natifs d'une langue particulière, en offrant un support pour l'édition, la correction grammaticale et une écriture cohérente. De plus, cet outil d’IA permet aux chercheurs d’adapter leurs écrits à différents publics, allant des experts scientifiques aux décideurs politiques ou au grand public. Il peut aider à communiquer efficacement des concepts complexes, rendant ainsi les connaissances scientifiques accessibles à un public plus large.. En comblant le fossé entre la recherche scientifique et la société, ChatGPT peut promouvoir une prise de décision éclairée et l'engagement du public dans la science. Quelques outils commerciaux basés sur des modèles de langage tels que ChatGPT émergent pour aider les chercheurs à effectuer des revues de littérature, améliorant ainsi le flux de travail de ce travail fastidieux. En plus de cela, les outils d'IA comme ChatGPT sont excellents pour tracer des graphiques en quelques secondes, ce qui peut prendre plusieurs heures à un chercheur pour créer à l'aide des outils existants. Récemment, des chercheurs qui ont publié leurs travaux dans Comportement humain de nature, ont montré que les modèles d'IA peuvent accélérer les découvertes scientifiques et compléter les angles morts des humains en générant des hypothèses auxquelles les humains ne penseront probablement pas avant un avenir lointain. À mesure que les modèles d’IA continuent de progresser, on s’attend à ce que les processus scientifiques basés sur l’IA, depuis la formulation d’hypothèses jusqu’à la génération d’intrigues et d’écriture, deviennent une réalité indéniable dans un avenir proche. .
Quels sont les risques?
Bien que les avantages potentiels de l’utilisation de ChatGPT dans la rédaction scientifique soient substantiels, il est essentiel de reconnaître les risques associés. Un de ces risques est hallucinations, où ChatGPT peut générer des informations inexactes ou fictives. Ces hallucinations peuvent conduire à l’inclusion de déclarations trompeuses ou fausses dans des articles scientifiques, portant ainsi atteinte à l’intégrité de la recherche et des connaissances. Un autre risque critique est le défi de alignement, où le système d'IA pourrait ne pas capturer avec précision l'intention de l'auteur ou refléter fidèlement les preuves scientifiques. Ce désalignement peut entraîner des interprétations déformées, conduisant à des biais involontaires, des inexactitudes ou des fausses déclarations dans le texte généré. En outre, fuite de données pose une préoccupation importante. Comme ChatGPT est formé sur de grands ensembles de données, y compris des informations protégées par des droits d'auteur ou exclusives, il existe un risque d'inclure par inadvertance du contenu plagié dans le texte généré. Cela peut compromettre l’originalité et l’intégrité de la rédaction scientifique, entraînant potentiellement des problèmes juridiques et éthiques. De plus, la possibilité de fuite de données et de stockage de données sur des serveurs tiers peut présenter un risque important pour sécurité de la recherche, où les données scientifiques doivent être conservées hors de portée des mauvais acteurs. Le équité et préjugés de ChatGPT exigent également de l'attention. Si le modèle d’IA n’est pas suffisamment affiné ou entraîné sur divers ensembles de données, il peut par inadvertance perpétuer des biais dans le texte généré, renforçant ainsi les inégalités ou les préjugés existants. Quelques autres préoccupations importantes publiées dans un récent Article sur la nature incluent la possibilité d'écrire de faux articles scientifiques avec des résultats expérimentaux fictifs, ainsi que le p-hacking, où les scientifiques choisissent de publier uniquement les résultats de tests d'hypothèses favorables.
Quelle voie suivre : interdiction, restriction ou adaptation ?
Les risques associés à l'utilisation de ChatGPT dans la rédaction scientifique peuvent avoir de profondes implications sur la responsabilité, la crédibilité et l'intégrité scientifiques. Pour répondre à ces préoccupations, il est crucial d'élaborer des lignes directrices explicites et des politiques éditoriales standard pour l'utilisation d'outils de type ChatGPT dans la rédaction scientifique. Jusqu’à présent, la communauté scientifique oscille entre l’interdiction, la restriction et l’adoption de l’utilisation de textes, de données et d’images générés par l’IA dans les documents de recherche. Par exemple, le politique éditoriale des revues scientifiques interdit strictement l'utilisation de textes, de figures, d'images et de graphiques générés par l'IA sans l'autorisation explicite de l'éditeur. JAMA décourage la soumission de contenus « reproduits et recréés » par l’IA, des modèles de langage, l’apprentissage automatique ou des technologies similaires, à moins que cela ne fasse partie de la conception et de la méthode formelles de recherche. En cas d'utilisation autorisée, JAMA nécessite une description claire du contenu créé, du nom et du numéro de version avec extension du modèle ou de l'outil et du fabricant. Nature d’un autre côté, il semble avoir adopté une approche un peu plus adaptative. Les directives de Nature stipulent que l'utilisation de modèles de langage tels que ChatGPT doit être correctement documentée dans la section Méthodes ou, en cas d'indisponibilité, dans une autre partie appropriée. Une ligne directrice claire et unanime pour tous les grands éditeurs est de ne pas créditer ChatGPT en tant qu'auteur d'un article de recherche. L'ensemble de la communauté des chercheurs serait d'accord sur ce point, car ChatGPT ou des systèmes similaires ne sont pas encore capables de prendre en charge le responsabilité et responsabilités des auteurs humains. Les rédacteurs de Accountability in Research ont récemment publié un éditorial proposant une nouvelle politique concernant l’utilisation de textes générés par l’IA dans les documents de recherche visant à garantir la transparence et la responsabilité. Le projet de proposition politique adoptait un point de vue beaucoup plus pratique, à la fois en reconnaissant l'utilisation d'outils d'IA à différentes étapes du développement de la recherche, comme l'analyse de la littérature, la synthèse d'idées, la génération de contenu textuel, etc., et en divulguant leur utilisation de manière plus structurée. avec des exemples. Ils ont suggéré de soumettre un document supplémentaire contenant le contenu généré par le système NLP ainsi qu'une divulgation appropriée dans la section méthodologie. Il s’agit d’une initiative reconnaissante ouvrant la voie à une utilisation éthique des outils d’IA dans la rédaction scientifique.
L'IA est là pour rester, nous avons besoin de nous adapter
La communauté scientifique penche de plus en plus vers l’adaptation des outils d’IA dans la rédaction scientifique plutôt que de les interdire purement et simplement. Cependant, les lignes directrices pour la divulgation appropriée du contenu généré par l’IA dans les écrits scientifiques restent insuffisantes pour une mise en œuvre efficace. Du point de vue de l'auteur, les éléments suivants doivent être pris en compte pour élaborer des lignes directrices claires et cohérentes pour l'utilisation des outils d'IA dans la rédaction scientifique :
- Terminologies uniformes : Différents éditeurs ont utilisé de manière interchangeable des termes tels que « généré par l'IA » et « régénéré ». Des outils comme ChatGPT peuvent à la fois générer du contenu à partir de zéro et régénérer le contenu en le modifiant selon les instructions de l'utilisateur. Il est essentiel de faire la distinction entre le contenu « régénéré » par l'IA et le contenu « généré » par l'IA, en utilisant une terminologie cohérente pour les deux.
- Directives en matière de documentation et de divulgation : Toute utilisation de modèles comme ChatGPT dans la rédaction scientifique doit être divulguée. Les lignes directrices actuelles ne précisent cependant pas de manière adéquate comment les contributions de l'IA doivent être documentées, sous quel format et dans quelle mesure. Les éléments suivants doivent être pris en compte pour améliorer la structure et la clarté du processus de divulgation :
- Cas d'utilisation de la documentation : Il est essentiel de fournir des cas d'utilisation qui clarifient la documentation requise. Différents niveaux d'utilisation de l'IA, tels qu'une génération de contenu importante ou une édition de contenu mineure, devraient avoir des exigences de documentation variables.
- Modèle de documentation : Utiliser ChatGPT reste un art, impliquant une ingénierie rapide et des processus itératifs. La documentation libre d’un tel processus est non seulement difficile, mais pourrait également s’avérer contre-productive. Un modèle de documentation structuré pourrait réduire l’ambiguïté, garantissant cohérence et transparence.
- Apparition de la déclaration de divulgation : Différents éditeurs ont des exigences différentes en matière de déclarations de contribution à l'IA. Par exemple, JAMA nécessite une déclaration dans la section accusé de réception ou méthode (selon le cas), Nature dans les Méthodes ou dans une section alternative, IEEE dans la section remerciements, Responsabilité dans la recherche dans la section méthodologie avec soumission de matériel supplémentaire, et Elsevier dans une section distincte au-dessus des références. Un consensus devrait être atteint sur l'endroit où ces contributions sont divulguées afin de fournir aux auteurs des lignes directrices cohérentes.
- Politique de révision : Des directives de révision claires pour les articles qui divulguent l'utilisation d'outils tels que ChatGPT doivent être établies. Par exemple, comment les évaluateurs devraient-ils évaluer la clarté et la présentation si un article a été édité par ChatGPT et reconnu de manière appropriée ?
- Ligne directrice pour le contenu non textuel : Il devrait y avoir des lignes directrices standard pour le contenu non textuel généré de manière éthique, tel que les images, les graphiques, les codes informatiques et les données.
- Mécanisme de détection équitable : Les lignes directrices devraient préciser les mesures permettant de détecter les contenus non divulgués générés par l’IA. UN étude récente menée par des chercheurs de Stanford a mis en évidence les biais des détecteurs d’IA à l’encontre des anglophones non natifs. Il est crucial de garantir que les locuteurs non natifs d’une langue ne soient pas pénalisés par une détection inappropriée.
- Mécanisme de règlement des différends : Compte tenu de l'absence de techniques robustes de détection et de filigrane, ainsi que de la capacité d'outils tels que ChatGPT à imiter le style d'un auteur, des différends pourraient survenir entre auteurs et éditeurs concernant la détection équitable et la transparence. Il est donc essentiel d’établir un système efficace de règlement des litiges pour lutter contre l’équité, la transparence et les préjugés potentiels liés au contenu généré par l’IA.
En conclusion, bien que ChatGPT offre de nombreux avantages pour la rédaction scientifique, il est crucial d'établir des lignes directrices standard, des cas d'utilisation et des politiques pour atténuer efficacement les risques associés. De tels efforts favoriseront une utilisation responsable et éthique de l’IA dans la rédaction scientifique et garantiront que ChatGPT devienne un outil précieux qui améliore le progrès scientifique tout en respectant les normes d’intégrité et de qualité les plus élevées.