ChatGPT accuse une personne d’avoir tué ses enfants, il porte plainte contre l’IA !
Est-ce que ChatGPT pourra un jour résoudre des affaires criminelles ? À priori, non. Un homme a d’ailleurs fait les frais des accusations injustes de l’Intelligence Artificielle. L’homme était tenu coupable d’avoir tué ses enfants. Une plainte a été déposée contre l’IA et la société OpenAI.


ChatGPT accuse un homme d’avoir tué ses enfants !
Peut-on avoir une confiance aveugle en l’Intelligence Artificielle ? Pour l’utiliser, il faut bien entendu comprendre ses fonctionnalités, et ses limites. Mais quand on cherche une simple information, il suffit de poser la question à ChatGPT. Votre réponse arrive immédiatement, et donne même ses sources.
Sauf qu’avant que l’Intelligence Artificielle ne nous remplace dans de nombreux domaines, il y a encore un peu de temps. ChatGPT a en effet accusé un homme de meurtre… À tort. À la question « Qui est Arve Hjalma Holmen ? » , elle a affirmé que l’homme a tué deux de ses enfants et a tenté d’assassiner le troisième.
Pour le cabinet d’avocat Noyb, spécialisé dans la protection des données, ceci est une diffamation. Joakim Söderberg, juriste chez Noyb, indique à TechCrunch que ChatGPT ne respect pas la protection des données imposé par le RGPD de Bruxelles.


L’IA, une source fiable d’information ?
Ce cas relance une nouvelle fois les débats autour des Intelligences Artificielles. ChatGPT peut-il réellement donner une information 100% viable ? Selon une étude de la Columbia Journalism Review, 60% des informations relayées par les IA sont fausses. Si elles sont donc capables de reproduire la voix de Céline Dion en concert, les IA ne peuvent pas toujours donner les bonnes informations.
Et pour cause, elles se basent simplement sur les différentes sources qu’on retrouve sur le net. Grâce à différents algorithmes, ChatGPT, par exemple, va extirper l’information qu’il juge la plus juste en fonction de plusieurs critères. Il est donc toujours conseillé de vérifier ses sources avant d’affirmer une information transmise par l’IA.

Cependant, le cabinet Noyb révèle la dangerosité de ChatGPT face à une fausse information comme celle-ci. En accusant un homme de meurtre, l’IA peut en effet le mettre en danger. D’ailleurs, aucune preuve ne pourrait confirmer les accusations de la plateforme.