14 novembre 2023

L'intelligence artificielle utilisée pour créer de la désinformation

fake-news
Accueil » Actualités IA » L'intelligence artificielle utilisée pour créer de la désinformation

Des chercheurs ont utilisé l'intelligence artificielle pour générer plus de 100 articles de blog de désinformation en matière de santé dans plusieurs langues, une expérience "alarmante" qui les a amenés à réclamer une responsabilité accrue de l'industrie.

Les plateformes d'intelligence artificielle telles que ChatGPT intègrent des dispositifs de sécurité empêchant de répondre à des sollicitations liées à des activités illégales ou préjudiciables, comme l'achat de drogues illicites.

Dans le meme genre : Google DeepMind : L'IA révolutionne la résolution de problèmes mathématiques

Contourner ces dispositifs de sécurité de ChatPT

Deux chercheurs de l'Université de Flinders à Adelaide, sans connaissances spécialisées en intelligence artificielle, ont effectué une recherche sur Internet pour trouver des informations publiquement disponibles sur la manière de contourner ces dispositifs de sécurité. Ils ont ensuite cherché à générer autant d'articles de blog que possible contenant de la désinformation sur les vaccins et la vapeur dans le laps de temps le plus court possible.

En l'espace de 65 minutes, ils ont créé 102 articles ciblant des groupes tels que les jeunes adultes, les jeunes parents, les femmes enceintes et les personnes atteintes de maladies chroniques. Ces articles comprenaient de faux témoignages de patients et de cliniciens, ainsi que des références ressemblant à des données scientifiques.

A découvrir également : Découvrez @fit_aitana qui génère une fortune de 10 000 euros mensuels grâce à l'intelligence artificielle !

La plateforme a également généré 20 images fausses mais réalistes pour accompagner les articles en moins de deux minutes, y compris des images montrant des vaccins causant des dommages à de jeunes enfants. Les chercheurs ont également produit une fausse vidéo établissant un lien entre les vaccins et la mortalité infantile dans plus de 40 langues.

Génération de désinformation

L'étude a été publiée mardi dans le journal américain JAMA Internal Medicine. Bradley Menz, pharmacien et principal auteur de l'étude, a déclaré : "L'une des préoccupations liées à l'intelligence artificielle est la génération de désinformation, c'est-à-dire la production délibérée d'informations trompeuses, inexactes ou fausses.

"Nous voulions voir à quel point il serait facile pour quelqu'un ayant de mauvaises intentions de contourner les dispositifs de sécurité du système et d'utiliser ces plateformes pour générer de la désinformation à grande échelle", a-t-il ajouté.

L'étude a conclu que des outils disponibles publiquement pourraient être utilisés pour la génération massive d'informations de santé trompeuses avec une "facilité alarmante".

"Nous pensons que les développeurs de ces plateformes devraient inclure un mécanisme permettant aux professionnels de la santé ou aux membres du public de signaler toute information préoccupante générée, et le développeur pourrait ensuite intervenir pour résoudre le problème", a souligné Menz.

"Dans notre étude, nous avons signalé les préoccupations, mais nous n'avons jamais reçu de confirmation ni de suivi, et l'outil n'a jamais été ajusté de manière à empêcher que cela se reproduise à l'avenir."

Produire les résultats en moins d'une minute

Le professeur Matt Kuperholz, ancien scientifique en chef des données chez PwC, a déclaré que même si les plateformes d'intelligence artificielle ont été davantage développées et que des dispositifs de sécurité ont été renforcés depuis la réalisation de l'étude, il a été "capable de reproduire les résultats en moins d'une minute".

"Aucun dispositif de sécurité intégré ne pourra empêcher la mauvaise utilisation de la technologie", a souligné Kuperholz, qui est maintenant chercheur à l'Université Deakin.

Il est également d'avis que la technologie peut être développée pour évaluer la production d'autres plateformes d'intelligence artificielle et déterminer si l'information est fiable.

"Nous devons passer d'un monde où nous faisons implicitement confiance à ce que nous voyons et construire une infrastructure de confiance où, au lieu de mettre sur liste noire les outils que nous ne faisons pas confiance, nous mettons sur liste blanche les outils et les informations que nous faisons confiance."

Il a souligné que l'"incroyable quantité de bien que ces technologies peuvent aussi produire ne devrait pas être sous-estimée."

Le professeur d'informatique biomédicale à l'Université de Sydney, Adam Dunn, a déclaré que les conclusions de l'étude de Menz "risquent de susciter des inquiétudes inutiles".

L'intelligence artificielle peut être utilisée pour créer de la désinformation

"Bien qu'il puisse sembler effrayant que l'intelligence artificielle puisse être utilisée pour créer de la désinformation, y compris du texte, des images et des vidéos, elle peut tout aussi bien être utilisée pour créer des versions simples de preuves", a-t-il expliqué.

Il a ajouté que le simple fait que ces outils soient utilisés pour produire de fausses informations ne signifie pas que les gens les croient plutôt que des informations fiables. "Nous n'avons toujours pas de preuves solides que la présence de désinformation en ligne est associée à des changements de comportement", a-t-il souligné.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

🤖 Aiflare.fr : Explorer l'IA, Innover le Futur 🚀

Bien plus qu'un blog, Aiflare.fr est votre portail vers l'univers dynamique de l'intelligence artificielle. Plongez dans les dernières tendances, découvrez des analyses approfondies, et participez à la conversation qui façonne le futur de la technologie.

Suivez-nous pour rester à la pointe de l'innovation et explorez avec nous les possibilités infinies de l'intelligence artificielle. Ensemble, construisons un avenir où la technologie inspire la créativité et transforme le monde.
📧 Contactez-nous
🔗 Politique de confidentialité
Made with ❤ and ☕ © 2023

Source image : Pixabay.com
logo-1