Comment se protéger des arnaques créées avec ChatGPT

Le robot conversationnel ChatGPT gagne en popularité, et de plus en plus d’escrocs risquent d’utiliser l’IA pour inciter les gens à divulguer des renseignements personnels. ChatGPT offre aux escrocs la possibilité de concevoir des arnaques plus sophistiquées. Ils peuvent ainsi utiliser l’IA pour créer des courriels d’hameçonnage, des codes malveillants, de faux sites web, des photos, des vidéos et des appels téléphoniques. Il faut donc redoubler de vigilance, car les arnaques sont de plus en plus difficiles à repérer.

Dans cet article de blogue, nous allons passer en revue les arnaques que les cybercriminels ont conçues avec ChatGPT, puis nous allons présenter les meilleures pratiques pour vous protéger et utiliser Internet en toute sécurité.

Usurpation d’une marque

Une usurpation de marque peut prendre la forme de courriels d’hameçonnage astucieusement conçus ou d’une imitation d’un site web d’une marque connue et fiable.

Dans le cas des courriels d’hameçonnage, le leurre peut porter le logo de l’entreprise et contenir un message presque identique à celui que vous pourriez recevoir de ladite entreprise. L’escroc peut facilement copier un message d’un vrai courriel et remplacer le vrai lien par un lien malveillant généré par ChatGPT.

OpenAI, l’entreprise derrière ChatGPT, a tenté d’empêcher la génération de codes malveillants avec ChatGPT. Il n’est toutefois pas surprenant que les arnaqueurs aient réussi à trouver une solution pour tromper l’intelligence artificielle et générer de tels codes.

En modifiant le paramètre URL, les cybercriminels peuvent également créer de faux sites web convaincants qui semblent presque identiques aux vrais. INKY a récemment publié sur son blogue une cyber-attaque qui alliait un courriel d’hameçonnage habilement conçu pour usurper l’identité d’une marque et un faux site web.

Ici, les arnaqueurs ont réussi à convaincre les employés à suivre un lien malveillant qui semblait provenir de l’organisation pour laquelle ils travaillaient, et qui les conduisait à un site imitant celui de leur employeur. Les employés qui essayaient de s’y connecter recevaient un message d’erreur et se faisaient dérober leurs identifiants.

Faux appels, photos et vidéos

ChatGPT a aussi la capacité de créer de faux appels téléphoniques, de fausses photos et de fausses vidéos que les cybercriminels peuvent utiliser pour faire croire aux gens qu’ils communiquent avec une vraie personne représentant une marque ou un fournisseur de services bien connu.

Un cybercriminel peut utiliser ChatGPT afin de créer un script ou téléphoner à une victime et la manipuler dans le but de lui faire divulguer ses renseignements personnels.

Les arnaqueurs peuvent aussi utiliser des photos réalistes et se faire passer pour un représentant du service clientèle afin d’inciter une personne à fournir ses identifiants de connexion.

En outre, avec l’aide de ChatGPT, les arnaqueurs peuvent créer de fausses vidéos en se faisant passer pour des membres de la direction : ceux-ci demandent ensuite aux employés de partager des renseignements personnels, d’envoyer de l’argent ou de livrer d’autres informations.

Pour créer ces escroqueries, l’arnaqueur télécharge un script indiquant à quoi doit ressembler la photo ou ce que doit dire la personne dont il usurpe l’identité. L’IA fait le reste. C’est étonnamment simple.

Ces arnaques sont redoutables, car les gens sont plus enclins à croire les cybercriminels s’ils ont l’impression de communiquer avec la vraie une personne ou quelqu’un qu’ils connaissent.

Comment se protéger

Il faut du temps pour mettre en place des politiques organisationnelles sur ChatGPT. C’est particulièrement vrai pour les grandes organisations et les entreprises : compte tenu de leur taille et du nombre de politiques concernées, ces types de changements sont mis en œuvre plus progressivement.

Heureusement, pour tenter de prendre de l’avance, de nombreuses organisations ont communiqué des mises en garde à leurs équipes et ont commencé à sensibiliser leurs employés tandis que des politiques internes plus élaborées prennent forme.

Alors, que faut-il faire en attendant?

1.       Évitez de vous précipiter. Réfléchissez au courriel, à l’appel téléphonique ou à la vidéo qui vous est présentée. Posez-vous les questions suivantes :

a.       Vous y attendiez-vous?

b.       Est-ce que cela provient de quelqu’un que vous connaissez?

c.       Est-ce le mode de communication habituel avec cette personne ou cette organisation?

Si vous répondez « non » à l’une de ces questions, il y a de fortes chances que quelqu’un soit en train d’essayer de vous arnaquer!

2.       Menez l’enquête. Si le courriel, l’appel téléphonique ou la vidéo provient d’une personne que vous connaissez ou d’une marque connue, mettez-vous dans la peau d’un détective. Arrêtez-vous sur les éléments suivants :

a.       S’il y a un lien, survolez-le. Comparez-le au lien de l’organisation sur son site web. Est-ce le même?

b.       Regardez l’adresse électronique de l’expéditeur et comparez-la à l’adresse de l’organisation ou à l’adresse personnelle (vous allez peut-être devoir rechercher cette information). Les adresses électroniques correspondent-elles?

c.       Vérifiez la qualité et la taille de la vidéo qu’on vous présente. La qualité est-elle celle à laquelle vous vous attendez? Les proportions sont-elles correctes?

Si vous répondez « non » à l’une de ces questions, il y a de fortes chances que quelqu’un soit en train d’essayer de vous arnaquer!

3.       En cas de doute, n’hésitez pas à en parler! Si vous avez suivi les deux premières étapes et que vous doutez encore, communiquez avec la personne ou la marque par le biais d’une autre méthode de communication pour confirmer la véracité du message. Vous pouvez toujours passer par le processus d’assistance de l’organisation en communiquant avec le service directement depuis son site web afin d’éviter les sites web frauduleux.

4.       Gardez en tête que vous êtes plus susceptible de tomber dans le piège d’une arnaque :

a.       Tôt le matin et tard le soir.

b.       En dehors des heures de travail ou pendant les vacances.

Évitez de consulter votre courrier électronique et de répondre à des messages pendant ces périodes, car votre vigilance baisse, et que vos risques de tomber dans le piège augmentent.

Vous souhaitez plus d’info?

Consultez notre article ChatGPT et comprendre l’intelligence artificielle sur notre blogue.

Previous
Previous

Escroqueries ciblant des grands-parents

Next
Next

ChatGPT et comprendre l’intelligence artificielle