ChatGPT y reflexiones sobre la inteligencia artificial
Con tantos titulares en competencia proclamando a la IA como el próximo gran salvador tecnológico de la humanidad, mientras que otros profetizan que será nuestra perdición, se nos pueden nublar un poco las ideas.
Esto es lo que sabemos.
Llegados a este punto, la mayoría de la gente ya ha oído hablar de las tecnologías de IA de vanguardia, especialmente ChatGPT de Open AI.
En noviembre, OpenAI lanzó ChatGPT 3 y armó un revuelo. Encabezando titulares, noticias que debaten la competencia emocional de la tecnología y los influencers recurriendo a las redes sociales populares para emitir sus opiniones.
ChatGPT se ha comercializado para una variedad de propósitos, desde la automatización de la creación de contratos en el campo legal hasta un apoyo a la hora de emitir diagnósticos médicos. Ha sido utilizado por profesionales, estudiantes y personas curiosas para responder preguntas, resolver problemas, generar código, tener conversacionesy más. Pero, como con la mayoría de las tecnologías, las personas pueden encontrar y encuentran una manera de explotarlo capaz de generar consecuencias perjudiciales.
Recientemente, más de 1000 académicos y líderes de la industria han pedido una pausa en el desarrollo de potentes tecnologías de IA como ChatGPT dadas las preguntas que han ido surgiendo sobre el impacto que estas nuevas tecnologías pueden tener en la economía y la sociedad.
Entonces, ¿cómo deberían las organizaciones y los compañeros adaptarse a esta nueva IA?
En este análisis, explicaremos lo que las organizaciones y compañeros necesitan saber sobre ChatGPT y proporcionaremos algunas recomendaciones sobre los pasos a seguir con esta nueva tecnología.
Cómo funciona ChatGPT
ChatGPT 3, que se lanzó por primera vez en 2020, fue entrenado con contenido tomado de Internet al que se tenía acceso público, es decir, que no estaba protegido por contraseñas. Esto incluyó sitios de noticias, sitios web académicos, sitios web comerciales, redes sociales públicas y más. El Internet ofrece a los buscadores un suministro casi infinito de contenido, y con eso va incluido material perjudicial y sesgos capaces de hacer daño.
Se incluyó tanto lo mejor de lo que Internet puede ofrecer, como lo peor.
Dado que ChatGPT no es humano, no tiene forma de distinguir entre lo correcto o lo incorrecto y tiene un enfoque extremadamente limitado del contexto. Dicho de otra manera, no es capaz de decidir cómo debe responder a diferentes personas que tienen diferentes perspectivas, opiniones o creencias que le plantean preguntas y simplemente dispara una respuesta y espera que alcance su objetivo basado en predicciones matemáticas según las cuales cada secuencia de palabras es probablemente correcta.
ChatGPT solo puede crear respuestas basadas en la información que tiene disponible y lo que ha podido recoger de las preguntas que se le han hecho. Lo que significa que cuantas más personas hagan un mal uso de la IA, más precisa será en la creación de respuestas para satisfacer a los ciberdelincuentes.
ChatGPT no es inteligente en la forma en que lo son los humanos. Este tipo de inteligencia artificial no tiene verdadera cognición o autoconciencia. No hay un «Pienso y, por ende, soy».
Como Bender, Gebru, McMillan-Major y Shmitchell describen en su innovador artículo de 2021: «Sobre los peligros de los papagayos estocásticos: ¿pueden los modelos de lenguaje ser demasiado grandes?», la IA generativa que utiliza modelos de lenguaje grande (LLMS) es:
«... un sistema para unir al azar secuencias de formas lingüísticas que ha observado en sus vastos datos de entrenamiento, de acuerdo con información probabilística sobre cómo se combinan, pero sin ninguna referencia al significado: un papagayo estocástico".
¿Es preciso el ChatGPT?
ChatGPT solo puede proporcionar respuestas basadas en la información que extrae de sus recursos en Internet. Y si bien tiene acceso a una amplia gama de recursos, el hecho es que es posible que no pueda obtener la respuesta correcta (o lo que la persona que plantea la pregunta puede interpretar como correcta).
Al ser desafiado, ChatGPT se mantendrá firme y defenderá la respuesta que proporcionó. Algunas personas pueden interpretar esto como terquedad o un carácter argumentativo, pero también podría significar que, cuando se enfrenta a la confrontación, ChatGPT busca en sus recursos casos de confrontación y extrae de esas experiencias.
También existe la delicada preocupación del plagio. Al buscar contenido en Internet para crear respuestas, parte de ese contenido puede no haberse obtenido con el consentimiento adecuado de acuerdo con las leyes de derechos de autor y podría ser una violación de las leyes de privacidad de varios países.
Un equipo de investigación de la Universidad Estatal de Pensilvania revisó la fuente del modelo de lenguaje con el que se alimentó ChatGPT 2, unos ocho millones de documentos, y descubrió que los resultados de ese modelo de lenguaje constituían formas conocidas de plagio. También encontraron que cuanto más grande es el modelo de lenguaje utilizado para entrenar, más probable es que ocurra el plagio.
Tanto ChatGPT 3 como ChatGPT 4 son significativamente más grandes que ChatGPT 2, por lo que podemos esperar que el plagio sea un problema que se extiende a los modelos de IA posteriores.
ChatGPT e inquietudes a nivel organizacional
También existe el riesgo de compartir información confidencial, ya que algunas empresas han descubierto empleados que compartieron código de software confidencial con ChatGPT para que encontrara errores e incluso cargaron una reunión completa en el sistema para que escribiera la minuta.
El problema con la carga de información confidencial de la empresa o personal en ChatGPT es que no hay pautas claras para la IA con respecto a cómo se almacenará o reutilizará esa información. Por ejemplo, si se le pide a ChatGPT que encuentre errores en su código de software y luego alguien más le pregunta lo mismo, ChatGPT puede usar la información que proporcionó para responder las preguntas de otros.
ChatGPT siempre está aprendiendo en función del contenido que puede encontrar en Internet y las preguntas que le plantean. Desafortunadamente, los ciberdelincuentes ya han aprendido sobre esta característica con ChatGPT y la están explotando para crear código de software malicioso. Además, el acceso de ChatGPT a la escritura de alta calidad sin duda mejorará la efectividad del correo electrónico de phishing, particularmente por parte de los delincuentes que pueden estar escribiendo mensajes en otros idiomas que en los que probablemente no eran tan competentes antes.
Cómo las organizaciones pueden gestionar el riesgo que conlleva la IA
En primer lugar, las organizaciones deben evaluar cuidadosamente los pros y los contras de esta tecnología. ¿Pueden usarla de una manera responsable, útil y ética que agregue valor a los clientes?
En segundo lugar, las organizaciones deben desarrollar políticas y educar a los empleados sobre lo que es y no es apropiado ingresar en tecnologías de IA como ChatGPT. Es posible que tu organización quiera considerar la configuración de proveedores de IA autorizados, como el uso de proveedores de nube de confianza existentes, como Azure de Microsoft, que atienden problemas de privacidad de datos.
¿Qué pueden hacer los compañeros para gestionar los riesgos de la IA?
Primero, ten en cuenta la información que estás compartiendo. Cualquier cosa que le preguntes o con la que alimentes ChatGPT u otros servicios de IA podría dejar de ser privada y volverse accesible o usarse de maneras en las que no se pretendía usar. Asegúrate de no compartir información personal, laboral ni ninguna otra información confidencial. Asegúrate de comprender los términos de servicio de cualquier proveedor de servicios de IA.
En segundo lugar, si no tienes plena seguridad de si algo es confidencial, pregúntale a tu gerente o equipo de TI. Ellos podrán brindarte orientación sobre las mejores prácticas y explicar qué información se puede compartir y qué no se puede compartir en función de las políticas de tu organización.