ChatGPT and Getting our Minds Around Artificial Intelligence
With so many competing headlines proclaiming AI as humanity’s next great technology savior while others prophesize it will be our doom, it can be hard to get a sense for where we’re at.
Here’s what we know.
By now, most people have heard of leading-edge AI technologies, most notably Open AI’s ChatGPT.
In November, OpenAI released ChatGPT 3 with a splash. With multiple headlines, news stories debating the technology’s emotional competence and influencers taking to popular social streams to share their opinions.
ChatGPT has been marketed for a variety of purposes, from automating contract creation in the legal field to aiding in medical diagnosis. It’s been used by professionals, students, and curious individuals to answer questions, solve problems, generate code, have conversations and more. But, as with most technologies, people can and do find a way to exploit it which can result in damaging consequences.
Recently, more than a 1,000 academics and industry leaders have called for a pause on development of more powerful AI technologies like ChatGPT as questions on the impact these new technologies may have on the economy and society circulate.
So how should organizations and colleagues adapt to this new AI?
In this analysis, we’ll explain what organizations and colleagues need to know about ChatGPT and provide some recommendations for how to proceed with this new technology.
How ChatGPT Works
ChatGPT 3, which was first released in 2020, was trained on content taken from across the Internet that could be publicly accessed, i.e., wasn’t password protected. This included news sites, academic websites, commercial websites, public social media and more. The Internet offers searchers an almost infinite supply of content, and with that comes harmful material and hurtful biases.
It included the best of what the Internet has to offer, as well as the worst.
Since ChatGPT isn’t human, it has no way to distinguish between right or wrong and has an extremely limited approach to context. Put another way, it has no way of telling how it should respond to different people who have different perspectives, opinions or beliefs posing it questions and simply shoots off a response and hopes it hits its target based on mathematical predictions that each sequence of words is probably correct.
ChatGPT can only create responses based on the information it has available to it and what it has been able to pick up from the questions it has been asked. Which means the more people misuse the AI, the more accurate it will be at creating responses to satisfy cybercriminals.
ChatGPT is not intelligent in the way humans are. This kind of artificial intelligence doesn’t have true cognition, or self-awareness. There’s no “I think therefor I am.”
As Bender, Gebru, McMillan-Major and Shmitchell describe in their ground-breaking 2021 paper, “On the Dangers of Stochastic Parrots: Can Language Models be Too Big,” generative AI using large language models (LLMS) are a:
“ …system for haphazardly stitching together sequences of linguistic forms it has observed in its vast training data, according to probabilistic information about how they combine, but without any reference to meaning: a stochastic parrot.”
Is ChatGPT Accurate?
ChatGPT can only provide answers based on the information that it pulls from its resources on the Internet. And while it has access to a wide array of resources, the fact is that it may not be able to pull the correct (or what the individual posing the question may interpret as correct) answer.
When challenged, ChatGPT will hold its ground and defend the answer it provided. Some people may interpret this as being stubborn or argumentative, but it could also mean that, when faced with confrontation, ChatGPT searches its resources for instances of confrontation and pulls from those experiences.
There is also the tricky concern of plagiarism. When searching the internet for content to create responses, some of that content may not have been gained with proper consent according to copyright laws and could be a violation of various countries’ privacy laws.
A research team from Penn State University reviewed the language model source fed into ChatGPT 2, some eight million documents, and found that the outputs of that language model constituted known forms of plagiarism. They also found that the larger the language model used to train, the more likely plagiarism would occur.
Both ChatGPT 3 and ChatGPT 4 are significantly larger than ChatGPT 2, so we can expect that plagiarism is an issue that continued with the later AI models.
ChatGPT and Organizational Concerns
There’s also the risk of sharing confidential information, as some companies have already found out when employees shared confidential software code with ChatGPT to have it find errors and even loaded an entire meeting into the system to have it write a summary note.
The issue with uploading confidential company or personal information into ChatGPT is that there are no clear guidelines for AI regarding how that information will be stored or re-used. For example, if you ask ChatGPT to find errors in your software code and then someone else asks it the same thing, ChatGPT may use the information you provided to answer the questions of others.
ChatGPT is always learning based on the content it can find on the Internet and questions folks ask it. Unfortunately, cybercriminals have already learned about this feature with ChatGPT and are exploiting it to create malicious software code. Additionally, ChatGPT’s access to high quality writing will no doubt improve phishing email effectiveness, particularly by criminals who may be writing messages in second languages they likely weren’t as proficient in the past.
How Organizations Can Managing AI Risk
First, organizations need to assess the pros and cons of this technology carefully. Can they use it in a responsible, helpful, and ethical way that adds value to customers?
Second, organizations need to develop policies and educate employees about what is and isn’t appropriate to input into AI technologies like ChatGPT. Your organization may want to look at setting up authorized AI providers, like using existing trusted cloud providers such as Microsoft’s Azure that help with data privacy concerns.
What Can Colleagues Do to Manage AI Risks?
First, be mindful of the information you’re sharing. Whatever you ask or input to ChatGPT or other AI services may not private and could be accessed or used in ways you didn’t intend. Be sure not to share personal, work or any other confidential information. Make sure you understand the terms of service for any AI service provider.
Second, if you’re not sure if something is confidential, ask your manager or IT team. They can guide you on best practices and explain what information is and isn’t allowed to be shared based on your organization’s policies.
ChatGPT et comprendre l’intelligence artificielle
Avec tant de grands titres proclamant l’intelligence artificielle (IA) comme la prochaine technologie qui sauvera l’humanité et d’autres prophétisant qu’elle nous mènera au désastre, il peut être difficile de se faire une idée de là où nous en sommes concernant cette technologie.
Voici ce que nous savons pour le moment.
À l’heure actuelle, la plupart des gens ont entendu parler des technologies d’IA de pointe, notamment ChatGPT créé par Open AI.
En novembre, OpenAI a publié ChatGPT 3, ce qui a créé tout un émoi, avec de nombreux grands titres, des reportages débattant de la compétence émotionnelle de la technologie et des influenceurs qui ont utilisé les flux de réseaux sociaux populaires pour partager leurs opinions.
ChatGPT a été commercialisé à diverses fins, de l’automatisation de la rédaction de contrats dans le domaine juridique à l’aide à la pose de diagnostics médicaux. Il a été utilisé par des professionnels, des étudiants et des personnes curieuses pour répondre à des questions, résoudre des problèmes, générer des codes, avoir des conversations et plus encore . Cependant, comme c’est le cas avec la majorité des technologies, celle-ci peut être exploitée à mauvais escient par des individus, ce qui peut avoir des conséquences néfastes.
Récemment, plus de 1 000 universitaires et chefs de file de l’industrie ont appelé à faire une pause dans le développement de puissantes technologies d’IA comme ChatGPT alors que circulent des questions sur l’impact que ces nouvelles technologies peuvent avoir sur l’économie et la société.
Ainsi, comment les organisations et les travailleurs devraient-ils s’adapter à cette nouvelle IA?
Dans cette analyse, nous expliquerons ce que les organisations et les individus doivent savoir sur ChatGPT et nous fournirons quelques recommandations sur la façon de procéder avec cette nouvelle technologie.
Comment fonctionne ChatGPT?
ChatGPT 3, qui a été publié pour la première fois en 2020, a été formé à partir de contenu publiquement accessible récupéré sur Internet, c’est-à-dire du contenu qui n’était pas protégé par un mot de passe. Il est question ici de sites d’information, de sites Web universitaires, de sites Web commerciaux, de médias sociaux publics et plus encore. L’Internet offre aux chercheurs un approvisionnement presque infini de contenu, et avec cela vient du contenu nuisible ainsi que des biais négatifs.
Ce contenu comprenait le meilleur de ce qu’Internet a à offrir, mais aussi le pire.
Puisque ChatGPT n’est pas un être humain, il n’a aucun moyen de faire la distinction entre le bien et le mal et a une approche extrêmement limitée à un contexte donné. En d’autres termes, il n’a aucun moyen de dire comment il devrait répondre à différentes personnes qui ont des perspectives, des opinions ou des croyances différentes lui posant des questions et tire simplement une réponse et espère qu’il atteint sa cible selon une prédiction mathématique que chaque séquence de mots est probablement correcte.
ChatGPT ne peut créer des réponses qu’en fonction des informations dont il dispose et de ce qu’il a pu récupérer des questions qui lui ont déjà été posées. Ce qui signifie que plus les gens abusent de l’IA, plus elle sera précise dans la création de réponses pour satisfaire les cybercriminels.
ChatGPT n’est pas intelligent comme le sont les êtres humains. Ce type d’intelligence artificielle n’a pas de véritable cognition, ni de conscience de soi. Il n’y a pas de « je pense, donc je suis ».
Comme Bender, Gebru, McMillan-Major et Shmitchell le décrivent dans leur article révolutionnaire publié en 2021, « Sur les dangers des perroquets stochastiques : les modèles de langages peuvent-ils être trop grands », l’IA générative utilisant de larges modèles linguistiques (LLMS) forme :
« […] un système pour assembler au hasard des séquences de formes linguistiques observées dans ses vastes données d’entraînement, selon des informations probabilistes sur la façon dont ils se combinent, mais sans aucune référence à la signification : un perroquet stochastique ».
ChatGPT est-il précis?
ChatGPT ne peut fournir que des réponses fondées sur les informations extraites de ses ressources sur Internet. Et bien que le programme ait accès à un large éventail de ressources, le fait est qu’il peut ne pas être en mesure de tirer la bonne réponse (ou ce que la personne posant la question peut interpréter comme la réponse adéquate).
Lorsqu’il est contesté, ChatGPT tiendra bon et défendra la réponse qu’il a fournie. Certaines personnes peuvent interpréter cette réaction de ChatGPT comme étant têtue ou argumentative, mais cela pourrait également signifier que, face à la confrontation, ChatGPT recherche ses ressources pour des cas de confrontation et tire des acquis de ces expériences.
Il y a aussi la préoccupation délicate du plagiat. Lors de la recherche sur Internet de contenu pour créer des réponses, une partie de ce contenu peut ne pas avoir été acquise avec le consentement approprié conformément aux lois sur le droit d’auteur et pourrait constituer une violation des lois sur la protection de la vie privée de divers pays.
Une équipe de chercheurs de la Penn State University a examiné la source du modèle linguistique introduite dans ChatGPT 2, quelque huit millions de documents, et a constaté que les résultats de ce modèle linguistique constituaient des formes connues de plagiat. Ils ont également constaté que plus le modèle linguistique utilisé pour s’entraîner est grand, plus le risque de plagiat augmente.
ChatGPT 3 et ChatGPT 4 sont nettement plus grands que ChatGPT 2, nous pouvons donc nous attendre à ce que le problème de plagiat continue de façon similaire aux modèles d’IA ultérieurs.
ChatGPT et préoccupations organisationnelles
Il y a aussi le risque de partager des informations confidentielles, comme certaines entreprises l’ont déjà découvert lorsque les employés ont partagé un code logiciel confidentiel avec ChatGPT pour qu’il trouve des erreurs et même chargé une réunion entière dans le système pour rédiger une note de synthèse.
Le problème avec le téléchargement d’informations confidentielles personnelles ou d’entreprise dans ChatGPT est qu’il n’y a pas de directives claires pour l’IA concernant la façon dont ces informations seront stockées ou utilisées à nouveau. Par exemple, si vous demandez à ChatGPT de trouver des erreurs dans votre code logiciel et que quelqu’un d’autre lui demande la même chose, ChatGPT peut utiliser les informations que vous avez fournies pour répondre aux questions d’autres individus.
ChatGPT apprend toujours en fonction du contenu qu’il peut trouver sur Internet et des questions que les gens lui posent. Malheureusement, les cybercriminels ont déjà appris cette fonctionnalité de ChatGPT et l’exploitent pour créer du code logiciel malveillant. De plus, l’accès à une écriture de haute qualité par ChatGPT améliorera sans aucun doute l’efficacité des courriels d’hameçonnage, en particulier par les criminels qui peuvent écrire des messages dans des langues secondes qu’ils ne maîtrisent probablement pas aussi bien.
Comment les organisations peuvent-elles gérer les risques posés par l’IA
Tout d’abord, les organisations doivent évaluer soigneusement les avantages et les inconvénients de cette technologie. Peuvent-ils l’utiliser d’une manière responsable, utile et éthique qui ajoute de la valeur aux clients?
Deuxièmement, les organisations doivent élaborer des politiques et éduquer les employés sur ce qui est et ce qui n’est pas approprié lors de l’utilisation de technologies d’IA comme ChatGPT. Votre organisation peut envisager de configurer des fournisseurs d’IA autorisés, comme l’utilisation de fournisseurs de services d’infonuagique de confiance existants tels qu’Azure de Microsoft, qui aident à répondre aux problèmes de confidentialité des données.
Que peut-on faire pour gérer les risques posés par l’IA?
Tout d’abord, soyez conscient des informations que vous partagez. Tout ce que vous demandez et toutes les informations que vous partagez à ChatGPT ou à d’autres services d’IA peut ne pas demeurer privés et pourrait être consultés ou utilisés d’une manière qui dépasse ce que vous aviez l’intention de faire. Assurez-vous de ne pas partager d’informations personnelles, professionnelles ou autres informations confidentielles. Assurez-vous de comprendre les conditions d’utilisation de tout fournisseur de services d’IA.
Deuxièmement, si vous n’êtes pas sûr que quelque chose soit confidentiel, demandez à votre responsable ou à votre équipe informatique. Ils peuvent vous guider sur les meilleures pratiques et vous expliquer quelles informations sont et ne sont pas autorisées à être partagées en fonction des politiques de votre organisation.
ChatGPT y reflexiones sobre la inteligencia artificial
Con tantos titulares en competencia proclamando a la IA como el próximo gran salvador tecnológico de la humanidad, mientras que otros profetizan que será nuestra perdición, se nos pueden nublar un poco las ideas.
Esto es lo que sabemos.
Llegados a este punto, la mayoría de la gente ya ha oído hablar de las tecnologías de IA de vanguardia, especialmente ChatGPT de Open AI.
En noviembre, OpenAI lanzó ChatGPT 3 y armó un revuelo. Encabezando titulares, noticias que debaten la competencia emocional de la tecnología y los influencers recurriendo a las redes sociales populares para emitir sus opiniones.
ChatGPT se ha comercializado para una variedad de propósitos, desde la automatización de la creación de contratos en el campo legal hasta un apoyo a la hora de emitir diagnósticos médicos. Ha sido utilizado por profesionales, estudiantes y personas curiosas para responder preguntas, resolver problemas, generar código, tener conversacionesy más . Pero, como con la mayoría de las tecnologías, las personas pueden encontrar y encuentran una manera de explotarlo capaz de generar consecuencias perjudiciales.
Recientemente, más de 1000 académicos y líderes de la industria han pedido una pausa en el desarrollo de potentes tecnologías de IA como ChatGPT dadas las preguntas que han ido surgiendo sobre el impacto que estas nuevas tecnologías pueden tener en la economía y la sociedad.
Entonces, ¿cómo deberían las organizaciones y los compañeros adaptarse a esta nueva IA?
En este análisis, explicaremos lo que las organizaciones y compañeros necesitan saber sobre ChatGPT y proporcionaremos algunas recomendaciones sobre los pasos a seguir con esta nueva tecnología.
Cómo funciona ChatGPT
ChatGPT 3, que se lanzó por primera vez en 2020, fue entrenado con contenido tomado de Internet al que se tenía acceso público, es decir, que no estaba protegido por contraseñas. Esto incluyó sitios de noticias, sitios web académicos, sitios web comerciales, redes sociales públicas y más. El Internet ofrece a los buscadores un suministro casi infinito de contenido, y con eso va incluido material perjudicial y sesgos capaces de hacer daño.
Se incluyó tanto lo mejor de lo que Internet puede ofrecer, como lo peor.
Dado que ChatGPT no es humano, no tiene forma de distinguir entre lo correcto o lo incorrecto y tiene un enfoque extremadamente limitado del contexto. Dicho de otra manera, no es capaz de decidir cómo debe responder a diferentes personas que tienen diferentes perspectivas, opiniones o creencias que le plantean preguntas y simplemente dispara una respuesta y espera que alcance su objetivo basado en predicciones matemáticas según las cuales cada secuencia de palabras es probablemente correcta.
ChatGPT solo puede crear respuestas basadas en la información que tiene disponible y lo que ha podido recoger de las preguntas que se le han hecho. Lo que significa que cuantas más personas hagan un mal uso de la IA, más precisa será en la creación de respuestas para satisfacer a los ciberdelincuentes.
ChatGPT no es inteligente en la forma en que lo son los humanos. Este tipo de inteligencia artificial no tiene verdadera cognición o autoconciencia. No hay un «Pienso y, por ende, soy».
Como Bender, Gebru, McMillan-Major y Shmitchell describen en su innovador artículo de 2021: «Sobre los peligros de los papagayos estocásticos: ¿pueden los modelos de lenguaje ser demasiado grandes?», la IA generativa que utiliza modelos de lenguaje grande (LLMS) es:
«... un sistema para unir al azar secuencias de formas lingüísticas que ha observado en sus vastos datos de entrenamiento, de acuerdo con información probabilística sobre cómo se combinan, pero sin ninguna referencia al significado: un papagayo estocástico".
¿Es preciso el ChatGPT?
ChatGPT solo puede proporcionar respuestas basadas en la información que extrae de sus recursos en Internet. Y si bien tiene acceso a una amplia gama de recursos, el hecho es que es posible que no pueda obtener la respuesta correcta (o lo que la persona que plantea la pregunta puede interpretar como correcta).
Al ser desafiado, ChatGPT se mantendrá firme y defenderá la respuesta que proporcionó. Algunas personas pueden interpretar esto como terquedad o un carácter argumentativo, pero también podría significar que, cuando se enfrenta a la confrontación, ChatGPT busca en sus recursos casos de confrontación y extrae de esas experiencias.
También existe la delicada preocupación del plagio. Al buscar contenido en Internet para crear respuestas, parte de ese contenido puede no haberse obtenido con el consentimiento adecuado de acuerdo con las leyes de derechos de autor y podría ser una violación de las leyes de privacidad de varios países.
Un equipo de investigación de la Universidad Estatal de Pensilvania revisó la fuente del modelo de lenguaje con el que se alimentó ChatGPT 2, unos ocho millones de documentos, y descubrió que los resultados de ese modelo de lenguaje constituían formas conocidas de plagio. También encontraron que cuanto más grande es el modelo de lenguaje utilizado para entrenar, más probable es que ocurra el plagio.
Tanto ChatGPT 3 como ChatGPT 4 son significativamente más grandes que ChatGPT 2, por lo que podemos esperar que el plagio sea un problema que se extiende a los modelos de IA posteriores.
ChatGPT e inquietudes a nivel organizacional
También existe el riesgo de compartir información confidencial, ya que algunas empresas han descubierto empleados que compartieron código de software confidencial con ChatGPT para que encontrara errores e incluso cargaron una reunión completa en el sistema para que escribiera la minuta.
El problema con la carga de información confidencial de la empresa o personal en ChatGPT es que no hay pautas claras para la IA con respecto a cómo se almacenará o reutilizará esa información. Por ejemplo, si se le pide a ChatGPT que encuentre errores en su código de software y luego alguien más le pregunta lo mismo, ChatGPT puede usar la información que proporcionó para responder las preguntas de otros.
ChatGPT siempre está aprendiendo en función del contenido que puede encontrar en Internet y las preguntas que le plantean. Desafortunadamente, los ciberdelincuentes ya han aprendido sobre esta característica con ChatGPT y la están explotando para crear código de software malicioso. Además, el acceso de ChatGPT a la escritura de alta calidad sin duda mejorará la efectividad del correo electrónico de phishing, particularmente por parte de los delincuentes que pueden estar escribiendo mensajes en otros idiomas que en los que probablemente no eran tan competentes antes.
Cómo las organizaciones pueden gestionar el riesgo que conlleva la IA
En primer lugar, las organizaciones deben evaluar cuidadosamente los pros y los contras de esta tecnología. ¿Pueden usarla de una manera responsable, útil y ética que agregue valor a los clientes?
En segundo lugar, las organizaciones deben desarrollar políticas y educar a los empleados sobre lo que es y no es apropiado ingresar en tecnologías de IA como ChatGPT. Es posible que tu organización quiera considerar la configuración de proveedores de IA autorizados, como el uso de proveedores de nube de confianza existentes, como Azure de Microsoft, que atienden problemas de privacidad de datos.
¿Qué pueden hacer los compañeros para gestionar los riesgos de la IA?
Primero, ten en cuenta la información que estás compartiendo. Cualquier cosa que le preguntes o con la que alimentes ChatGPT u otros servicios de IA podría dejar de ser privada y volverse accesible o usarse de maneras en las que no se pretendía usar. Asegúrate de no compartir información personal, laboral ni ninguna otra información confidencial. Asegúrate de comprender los términos de servicio de cualquier proveedor de servicios de IA.
En segundo lugar, si no tienes plena seguridad de si algo es confidencial, pregúntale a tu gerente o equipo de TI. Ellos podrán brindarte orientación sobre las mejores prácticas y explicar qué información se puede compartir y qué no se puede compartir en función de las políticas de tu organización.