12 décembre 2023

ChatGPT pourrait être utilisé de manière abusive par des escrocs et des pirates informatiques

ChatGPT
Accueil » Analyses de Produits » ChatGPT pourrait être utilisé de manière abusive par des escrocs et des pirates informatiques

OpenAI sous enquête après que la BBC a révélé que ChatGPT peut être détourné pour créer des outils de cybercriminalité. Un reportage de la BBC News a révélé que la fonction de ChatGPT permettant aux utilisateurs de construire facilement leurs propres assistants d'intelligence artificielle peut être utilisée pour créer des outils de cybercriminalité.

Le potentiel exploité : l'IA à des fins malveillantes

Lancé le mois dernier par OpenAI, ChatGPT permet aux utilisateurs de construire des versions personnalisées "pour presque n'importe quoi". La BBC News a utilisé cette fonction pour créer un transformateur pré-entraîné génératif capable de rédiger des courriels, des textos et des publications sur les réseaux sociaux convaincants dans le cadre d'escroqueries et de piratages.

Cela peut vous intéresser : Autres solutions à ChatGPT, fin du monopole

Crafty Emails : un bot d'IA conçu pour tromper

Après avoir souscrit à la version payante de ChatGPT, au coût de 20 $ par mois, la BBC a créé un bot d'IA personnalisé appelé "Crafty Emails". Ce bot a été instruit pour écrire du texte utilisant "des techniques pour inciter les gens à cliquer sur des liens ou à télécharger des fichiers qui leur sont envoyés".

Création sans programmation : une menace potentielle

Le bot a absorbé des ressources sur l'ingénierie sociale en quelques secondes, créant même un logo pour le GPT, sans nécessiter de codage ou de programmation. Le bot a été capable de rédiger des textes très convaincants pour certaines des techniques de piratage et d'escroquerie les plus courantes, dans plusieurs langues, en quelques secondes.

A lire en complément : Rabbit R1 : Une révolution technologique redéfinissant l'expérience mobile

Réponse d'OpenAI : amélioration des mesures de sécurité

La version publique de ChatGPT a refusé de créer la plupart du contenu, mais Crafty Emails a presque tout accompli, ajoutant parfois des avertissements indiquant que les techniques d'escroquerie étaient contraires à l'éthique. OpenAI a répondu après la publication, indiquant que la société "améliore continuellement les mesures de sécurité en fonction de la manière dont les gens utilisent nos produits".

Des experts expriment des préoccupations

Des experts estiment qu'OpenAI ne modère pas ces outils avec la même rigueur que les versions publiques de ChatGPT, ce qui pourrait potentiellement offrir un outil d'IA de pointe aux criminels.

Tests de la BBC : cinq techniques bien connues

La BBC News a testé son bot en lui demandant de créer du contenu pour cinq techniques bien connues de piratage et d'escroquerie, et aucun n'a été envoyé ni partagé. Le rapport souligne que Crafty Emails a réussi à créer du contenu pour ces techniques, tandis que la version publique de ChatGPT a refusé de le faire dans la plupart des cas.

  1. Arnaque au texto "Salut maman"
  2. Email de l'escroquerie du prince nigérian
  3. Texto "Smishing"
  4. Arnaque aux dons de crypto
  5. Email de phishing ciblé (spear-phishing)

L'utilisation malveillante de l'IA suscite des inquiétudes croissantes

Selon Jamie Moles, directeur technique principal de la société de cybersécurité ExtraHop, "il y a clairement moins de modération lorsqu'il s'agit de personnalisé, car vous pouvez définir vos propres 'règles d'engagement' pour le GPT que vous construisez". L'utilisation malveillante de l'IA suscite des inquiétudes croissantes, et des autorités cybernétiques du monde entier ont émis des avertissements ces derniers mois. Certains scammers utilisent déjà des modèles de langage de grande taille (LLM) pour contourner les barrières linguistiques et créer des escroqueries plus convaincantes. Les experts estiment que les constructeurs GPT d'OpenAI pourraient donner aux criminels accès aux bots les plus avancés à ce jour.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

🤖 Aiflare.fr : Explorer l'IA, Innover le Futur 🚀

Bien plus qu'un blog, Aiflare.fr est votre portail vers l'univers dynamique de l'intelligence artificielle. Plongez dans les dernières tendances, découvrez des analyses approfondies, et participez à la conversation qui façonne le futur de la technologie.

Suivez-nous pour rester à la pointe de l'innovation et explorez avec nous les possibilités infinies de l'intelligence artificielle. Ensemble, construisons un avenir où la technologie inspire la créativité et transforme le monde.
📧 Contactez-nous
🔗 Politique de confidentialité
Made with ❤ and ☕ © 2023

Source image : Pixabay.com
logo-1