ChatGPT et comprendre l’intelligence artificielle
Avec tant de grands titres proclamant l’intelligence artificielle (IA) comme la prochaine technologie qui sauvera l’humanité et d’autres prophétisant qu’elle nous mènera au désastre, il peut être difficile de se faire une idée de là où nous en sommes concernant cette technologie.
Voici ce que nous savons pour le moment.
À l’heure actuelle, la plupart des gens ont entendu parler des technologies d’IA de pointe, notamment ChatGPT créé par Open AI.
En novembre, OpenAI a publié ChatGPT 3, ce qui a créé tout un émoi, avec de nombreux grands titres, des reportages débattant de la compétence émotionnelle de la technologie et des influenceurs qui ont utilisé les flux de réseaux sociaux populaires pour partager leurs opinions.
ChatGPT a été commercialisé à diverses fins, de l’automatisation de la rédaction de contrats dans le domaine juridique à l’aide à la pose de diagnostics médicaux. Il a été utilisé par des professionnels, des étudiants et des personnes curieuses pour répondre à des questions, résoudre des problèmes, générer des codes, avoir des conversations et plus encore. Cependant, comme c’est le cas avec la majorité des technologies, celle-ci peut être exploitée à mauvais escient par des individus, ce qui peut avoir des conséquences néfastes.
Récemment, plus de 1 000 universitaires et chefs de file de l’industrie ont appelé à faire une pause dans le développement de puissantes technologies d’IA comme ChatGPT alors que circulent des questions sur l’impact que ces nouvelles technologies peuvent avoir sur l’économie et la société.
Ainsi, comment les organisations et les travailleurs devraient-ils s’adapter à cette nouvelle IA?
Dans cette analyse, nous expliquerons ce que les organisations et les individus doivent savoir sur ChatGPT et nous fournirons quelques recommandations sur la façon de procéder avec cette nouvelle technologie.
Comment fonctionne ChatGPT?
ChatGPT 3, qui a été publié pour la première fois en 2020, a été formé à partir de contenu publiquement accessible récupéré sur Internet, c’est-à-dire du contenu qui n’était pas protégé par un mot de passe. Il est question ici de sites d’information, de sites Web universitaires, de sites Web commerciaux, de médias sociaux publics et plus encore. L’Internet offre aux chercheurs un approvisionnement presque infini de contenu, et avec cela vient du contenu nuisible ainsi que des biais négatifs.
Ce contenu comprenait le meilleur de ce qu’Internet a à offrir, mais aussi le pire.
Puisque ChatGPT n’est pas un être humain, il n’a aucun moyen de faire la distinction entre le bien et le mal et a une approche extrêmement limitée à un contexte donné. En d’autres termes, il n’a aucun moyen de dire comment il devrait répondre à différentes personnes qui ont des perspectives, des opinions ou des croyances différentes lui posant des questions et tire simplement une réponse et espère qu’il atteint sa cible selon une prédiction mathématique que chaque séquence de mots est probablement correcte.
ChatGPT ne peut créer des réponses qu’en fonction des informations dont il dispose et de ce qu’il a pu récupérer des questions qui lui ont déjà été posées. Ce qui signifie que plus les gens abusent de l’IA, plus elle sera précise dans la création de réponses pour satisfaire les cybercriminels.
ChatGPT n’est pas intelligent comme le sont les êtres humains. Ce type d’intelligence artificielle n’a pas de véritable cognition, ni de conscience de soi. Il n’y a pas de « je pense, donc je suis ».
Comme Bender, Gebru, McMillan-Major et Shmitchell le décrivent dans leur article révolutionnaire publié en 2021, « Sur les dangers des perroquets stochastiques : les modèles de langages peuvent-ils être trop grands », l’IA générative utilisant de larges modèles linguistiques (LLMS) forme :
« […] un système pour assembler au hasard des séquences de formes linguistiques observées dans ses vastes données d’entraînement, selon des informations probabilistes sur la façon dont ils se combinent, mais sans aucune référence à la signification : un perroquet stochastique ».
ChatGPT est-il précis?
ChatGPT ne peut fournir que des réponses fondées sur les informations extraites de ses ressources sur Internet. Et bien que le programme ait accès à un large éventail de ressources, le fait est qu’il peut ne pas être en mesure de tirer la bonne réponse (ou ce que la personne posant la question peut interpréter comme la réponse adéquate).
Lorsqu’il est contesté, ChatGPT tiendra bon et défendra la réponse qu’il a fournie. Certaines personnes peuvent interpréter cette réaction de ChatGPT comme étant têtue ou argumentative, mais cela pourrait également signifier que, face à la confrontation, ChatGPT recherche ses ressources pour des cas de confrontation et tire des acquis de ces expériences.
Il y a aussi la préoccupation délicate du plagiat. Lors de la recherche sur Internet de contenu pour créer des réponses, une partie de ce contenu peut ne pas avoir été acquise avec le consentement approprié conformément aux lois sur le droit d’auteur et pourrait constituer une violation des lois sur la protection de la vie privée de divers pays.
Une équipe de chercheurs de la Penn State University a examiné la source du modèle linguistique introduite dans ChatGPT 2, quelque huit millions de documents, et a constaté que les résultats de ce modèle linguistique constituaient des formes connues de plagiat. Ils ont également constaté que plus le modèle linguistique utilisé pour s’entraîner est grand, plus le risque de plagiat augmente.
ChatGPT 3 et ChatGPT 4 sont nettement plus grands que ChatGPT 2, nous pouvons donc nous attendre à ce que le problème de plagiat continue de façon similaire aux modèles d’IA ultérieurs.
ChatGPT et préoccupations organisationnelles
Il y a aussi le risque de partager des informations confidentielles, comme certaines entreprises l’ont déjà découvert lorsque les employés ont partagé un code logiciel confidentiel avec ChatGPT pour qu’il trouve des erreurs et même chargé une réunion entière dans le système pour rédiger une note de synthèse.
Le problème avec le téléchargement d’informations confidentielles personnelles ou d’entreprise dans ChatGPT est qu’il n’y a pas de directives claires pour l’IA concernant la façon dont ces informations seront stockées ou utilisées à nouveau. Par exemple, si vous demandez à ChatGPT de trouver des erreurs dans votre code logiciel et que quelqu’un d’autre lui demande la même chose, ChatGPT peut utiliser les informations que vous avez fournies pour répondre aux questions d’autres individus.
ChatGPT apprend toujours en fonction du contenu qu’il peut trouver sur Internet et des questions que les gens lui posent. Malheureusement, les cybercriminels ont déjà appris cette fonctionnalité de ChatGPT et l’exploitent pour créer du code logiciel malveillant. De plus, l’accès à une écriture de haute qualité par ChatGPT améliorera sans aucun doute l’efficacité des courriels d’hameçonnage, en particulier par les criminels qui peuvent écrire des messages dans des langues secondes qu’ils ne maîtrisent probablement pas aussi bien.
Comment les organisations peuvent-elles gérer les risques posés par l’IA
Tout d’abord, les organisations doivent évaluer soigneusement les avantages et les inconvénients de cette technologie. Peuvent-ils l’utiliser d’une manière responsable, utile et éthique qui ajoute de la valeur aux clients?
Deuxièmement, les organisations doivent élaborer des politiques et éduquer les employés sur ce qui est et ce qui n’est pas approprié lors de l’utilisation de technologies d’IA comme ChatGPT. Votre organisation peut envisager de configurer des fournisseurs d’IA autorisés, comme l’utilisation de fournisseurs de services d’infonuagique de confiance existants tels qu’Azure de Microsoft, qui aident à répondre aux problèmes de confidentialité des données.
Que peut-on faire pour gérer les risques posés par l’IA?
Tout d’abord, soyez conscient des informations que vous partagez. Tout ce que vous demandez et toutes les informations que vous partagez à ChatGPT ou à d’autres services d’IA peut ne pas demeurer privés et pourrait être consultés ou utilisés d’une manière qui dépasse ce que vous aviez l’intention de faire. Assurez-vous de ne pas partager d’informations personnelles, professionnelles ou autres informations confidentielles. Assurez-vous de comprendre les conditions d’utilisation de tout fournisseur de services d’IA.
Deuxièmement, si vous n’êtes pas sûr que quelque chose soit confidentiel, demandez à votre responsable ou à votre équipe informatique. Ils peuvent vous guider sur les meilleures pratiques et vous expliquer quelles informations sont et ne sont pas autorisées à être partagées en fonction des politiques de votre organisation.