OpenAI, Amazon et Meta déjà victimes de fake fait par IA 🤦

Par Maxime Pfrimmer, le 23 janvier 2024

Actualité

Même pas 1 mois que 2024 a commencé que l’intelligence artificielle fait déjà parler d’elle. En mal

Cette semaine, c’est Open AI, Amazon et Facebook qui ont fait les frais des œuvres de ChatGPT et ses confrères.

Amazon : des noms de produits complètement insensés

Ça ne vous dirait pas d’acheter une « Je m’excuse, mais je ne peux pas vous aider à écrire un sous-titre optimisé pour le référencement en utilisant un langage ou un contenu inapproprié » ?

Ou un canapé nommé : « je suis désolé, mais je ne peux pas répondre à votre requête car elle va à l’encontre de la politique d’utilisation d’Open AI » ?

Rassurez-vous, nous n’avons pas perdu la tête.

Ce sont bel et bien des noms de produits qui ont massivement pullulé sur Amazon jusqu’à il y a peu.

Jugez par vous-même.

Produits amazon aux noms farfelus générés par IA et remplis de message d'erreurs d'OpenAI
Produits amazon aux noms farfelus générés par IA et remplis de message d’erreurs d’OpenAI

C’est le site The Verge qui a été le premier à mettre la main sûr quelques-uns de ces produits étranges.

Des tuyaux d’arrosage, des calendriers, des canapés, des chaises de jardins… tous les types de produits y sont passés.

Mais ce sont surtout les articles, disons… particuliers, qui ont été les plus touchés. À l’instar des calendriers montrant des images en forme de phallus, ou un autre montrant des chats s’accouplant.

Clairement, impossible pour ChatGPT de décrire ça sans enfreindre les règles d’OpenAI.

Ça en dit long sur le scammers Amazon

Amazon et les escrocs en ligne, c’est une relation d’amour de longue date.

Une relation à sens unique, vu qu’Amazon cherche (légitimement) à se débarrasser d’eux par tous les moyens.

On a encore en tête les BD générées par IA ou les fausses revues nées par le même processus.

Par contre, le fait que ces scammers ont laissés d’aussi grosses erreurs passer sous leurs radars permet de comprendre leur fonctionnement.

Voici comment ça a dû se passer :

  • le scammer récupère les données sur un article – qu’il n’a probablement pas – et les donne à ChatGPT ;
  • ensuite, il demande à l’outil de générer un titre et une description avec des bullets points optimisés pour le SEO ;
  • enfin, il colle le tout dans sa page vendeur Amazon.

Sauf que là où ça devient intéressant, c’est qu’ils n’ont pas du tout vérifié les résultats de leurs prompts.

On peut donc en déduire que c’est un processus automatisé, avec de vrais logiciels conçus spécialement pour ça.

Ou alors qu’ils sont paresseux.

Voire les deux.

Parce que pour mettre un message d’erreur en tant que titre, il faut vraiment ne pas être attentif à ce que l’on fait.

Amazon a (heureusement) fait le ménage

Depuis la mise en lumière de cette découverte par The Verge, les équipes d’Amazon ont fait le ménage sur leur plateforme.

Conséquence : vous ne pouvez plus acheter d’article intitulé « je ne peux pas répondre à votre requête parce qu’elle promeut une religion spécifique ».

Dommage.

Sur Facebook, des projets cryptos (scams) promus par le premier ministre britannique

Fake news générées par IA reprenant les visages de Sarah Campbell (BBC) et du premier ministre britannique Rishi Sunak
Fake news générées par IA reprenant les visages de Sarah Campbell (BBC) et du premier ministre britannique Rishi Sunak

23 pays attaquants.

15 000 € dépensés en publicités Facebook.

400 000 personnes touchées.

Les chiffres donnés par le rapport de la société Fenimore Harper font froid dans le dos.

En effet, elle a constaté en début du mois que des annonces montrant le premier ministre Britannique, Rishi Sunak, pullulaient sur le réseau de Meta.

Dans ces annonces, il faisait… la promotion d’un projet crypto inconnu du grand public.

Et vous n’êtes pas au bout de vos surprises.

En effet, une vidéo (fake) de la présentatrice de la BBC, Sarah Campbell, la montrait lors d’un breaking news. Et voici les propos que les cyberpirates lui ont fait dire : « Scandale : le premier ministre britannique gagne des sommes colossales sur un projet volontairement caché aux citoyens ordinaires ».

Et pour aller plus loin, le projet a été lancé par Elon Musk lui-même, avec pour objectif de répertorier les transactions.

Heureusement, Meta a réagi avant la publication de l’étude et a banni toutes les publicités de cette campagne de désinformation.

Comme quoi, plus c’est gros, plus ça passe…

X et LinkedIn sont aussi frappés de pleins fouets par les posts générés par IA

Bien que moins touchés, eux aussi croulent sous des avalanches de contenus générés par IA. Et automatisation oblige, personne ne les vérifie, comme le montre les captures suivantes :

 

Tentatives échouées de générer des Tweets via ChatGPT
Tentatives échouées de générer des Tweets via ChatGPT
Tentative échouée de générer des posts LinkedIn via ChatGPT
Tentative échouée de générer des posts LinkedIn via ChatGPT

OpenAI n’arrive plus à maitriser sa création… et se retrouve arrosé

Dans un autre registre, c’est OpenAI lui-même qui voit rouge.

Moins d’une semaine après le lancement de son GPT-Store, des bots – ironiquement généré avec ChatGPT – envahissent déjà sa plateforme.

Comme le site slashdot le précise, le GPT Store de Sam Altman croule sous les botnets… romantiques de petites amies virtuelles.

Oui, vous avez bien lu.

Ainsi, vous pouvez trouver une « Korean Girlfriend », une « Your Girlfriend Scarmett », « Virtual Sweetheart » et j’en passe.

Petite précision importante : la création de bots destinés aux relations amoureuses est strictement interdit par la politique d’utilisation d’Open AI.

Pourtant, ils (ou elles, au choix) sont bien présente·e·s sur son marché d’applications.

Affaire à suivre…


Partager l'article

Notre blog

En savoir plus