Cómo protegerse de las estafas de ChatGPT

Con la creciente popularidad de ChatGPT, aumentan también las posibilidades de que los estafadores utilicen la IA para engañar a los usuarios y hacerles revelar información personal. ChatGPT ofrece a los estafadores la posibilidad de crear fraudes más elaborados utilizando la IA para generar correos electrónicos de phishing, códigos maliciosos, sitios web falsos, fotos, videos y llamadas telefónicas. Para el resto de nosotros, esto significa que tenemos que estar más atentos, ya que las estafas son cada vez más difíciles de identificar.

En este blog, repasaremos los fraudes que los ciberdelincuentes han estado elaborado utilizando ChatGPT y sugeriremos las mejores prácticas sobre cómo protegernos y mantenernos ciberseguros en Internet.

Suplantación de marca

La suplantación de marca puede adoptar la forma de correos electrónicos de phishing hábilmente elaborados o de imitación de un sitio web de una marca conocida y de confianza.

En el caso de los correos electrónicos de phishing, el phishing puede llevar el logotipo de la empresa y contener un mensaje casi idéntico al que podría recibir de esa empresa. El estafador puede copiar fácilmente la mensajería del correo electrónico real y cambiar el enlace real por uno malicioso generado por ChatGPT.

OpenAI, los creadores de ChatGPT, han intentado detener la generación de código malicioso a través de ChatGPT. Sin embargo, no es de extrañar que los estafadores hayan encontrado una solución y puedan engañar a la IA para que genere código malicioso.

Al cambiar el parámetro URL, los ciberdelincuentes también pueden crear sitios web falsos convincentes que parecen casi idénticos a los reales. INKY publicó recientemente en su blog un ciberataque que utilizaba tanto un correo electrónico de suplantación de marca hábilmente elaborado como un sitio web falso.

En este ataque, los estafadores consiguieron convencer a los empleados para que siguieran un enlace malicioso que parecía proceder de la organización para la que trabajaban y que les llevaba a un sitio que imitaba al suyo propio. Cuando el empleado intentó iniciar sesión, recibió un mensaje de error y su información de inicio de sesión fue robada.

Llamadas falsas, fotos y videos

ChatGPT también puede crear llamadas telefónicas, fotos y videos falsos que los ciberdelincuentes pueden utilizar para engañar a las personas haciéndoles creer que se están comunicando con una persona real que representa a una marca o proveedor de servicios conocido.

Un ciberdelincuente puede utilizar ChatGPT para elaborar un guión o incluso realizar una llamada telefónica con el fin de manipular a alguien para que divulgue su información personal.

Los estafadores también pueden utilizar fotos de aspecto realista y hacerse pasar por un representante de atención al cliente para engañar a alguien y conseguir que le dé su información de inicio de sesión.

Además, con la ayuda de ChatGPT, los estafadores pueden crear videos falsos haciéndose pasar por personal de alto rango para pedir a los empleados que envíen información personal, dinero u otra información al ciberdelincuente.

Para generar estas estafas, el estafador carga un guión de cómo quiere que sea la foto, o que diga la persona por la que se hace pasar, y la IA hace el resto. Es sorprendentemente sencillo.

El peligro de estas estafas es que la gente es más propensa a creerles a los ciberdelincuentes si parece que se están comunicando con una persona real, o alguien que ya conocen.

Cómo protegerse

Las políticas organizativas en torno a ChatGPT están tardando en implementarse. Esto es especialmente cierto en el caso de las grandes organizaciones y empresas, donde este tipo de cambios tardan más en aplicarse debido a su tamaño y al número de políticas implicadas.

Afortunadamente, para tratar de adelantarse a la curva, muchas organizaciones han compartido con sus equipos avisos para operar con cautela y han empezado a formar a sus empleados en lo que se aplican políticas internas más sofisticadas.

¿Qué puedes tú hacer mientras tanto?

1.       Hacer las cosas más despacio. Estudia el correo electrónico, la llamada telefónica o el video que te están presentando. Hazte estas preguntas:

a.       ¿Lo estabas esperando?

b.       ¿Es de alguien que conoces?

c.       ¿Es así como esta persona u organización suele comunicarse conmigo?

Si contestas en sentido negativo a alguna de estas preguntas, lo más probable es que alguien esté intentando estafarte.

2.       Investiga. Si el correo electrónico, la llamada telefónica o el video proceden de alguien que conoces o de una marca conocida, investiga un poco más. Echa un vistazo a lo siguiente:

a.       Si hay un enlace, pase el cursor por encima. Compáralo con el enlace de la organización desde su sitio web. ¿Coincide?

b.       Mira la dirección de correo electrónico del remitente y compárala con la dirección de la organización o la dirección personal (puede que tengas que buscar esta información). ¿Coinciden las direcciones de correo electrónico?

c.       Cuando investigues un video, fíjate en su calidad y tamaño. ¿La calidad es la esperada? ¿Son correctas las proporciones?

Si respondes que no a alguna de estas preguntas, lo más probable es que alguien esté intentando estafarte.

3.       En caso de duda, no dudes en ponerte en contacto. Si realizaste los dos primeros pasos y sigues sin estar seguro, ponte en contacto con la persona o marca a través de otro método de comunicación para confirmar que la solicitud sea legítima. Siempre puedes pasar por el proceso de soporte de la organización a través de su sitio web directamente para mitigar cualquier sitio web falso también.

4.       Recuerda que es más probable que caigas en una estafa:

a.       Temprano por la mañana y tarde por la noche.

b.       Cuando estés trabajando fuera de tu horario laboral o cuando estás de vacaciones.

Evita consultar su correo electrónico y responder a mensajes durante estas horas, ya que no estás tan alerta y es más probable que caigas en un fraude.

¿Buscas más información?

Echa un vistazo a nuestro blog sobre ChatGPT y entender la inteligencia artificial.

Previous
Previous

Las estafas a los abuelos

Next
Next

ChatGPT y reflexiones sobre la inteligencia artificial