ChatGPT utilisé pour la Saint-Valentin : 70 % des gens pensent recevoir de vraies lettres
Le 14 février arrive et il n’est pas toujours évident de trouver un cadeau à la hauteur de vos sentiments. Cette année, hors de question de perdre ses moyens. Certains petits malins ont trouvé une solution grâce aux récentes avancées technologiques de ChatGPT. Après tout, quoi de plus romantique, qu’une lettre d’amour écrite par une intelligence artificielle ?
À lire aussi : Google concurrence ChatGPT en lançant sa propre intelligence artificielle
Avec l’explosion de ChatGPT, les robots conversationnels sont de plus en plus utilisés pour toutes sortes de tâches. Examens universitaires, verdict judiciaire, et même déclaration d’amour. Un tiers des célibataires iraient même jusqu’à faire rédiger leur profil sur une application de rencontre, par ce genre de site. Alors amusant ou inquiétant, c’est le sujet d’une récente étude.
Une lettre d’amour qui a tout d’une vraie
Une étude sur 5 000 personnes et à travers 9 pays a récemment été menée par des chercheurs sur l’utilisation de ChatGPT à la Saint-Valentin. Si cela peut paraitre étrange, le résultat est, contre toute attente, assez réussi. Des lettres écrites par l’IA et d’autres écrites par de véritables personnes ont été mélangées et données sans précision. 70 % des gens interrogés ont préféré la lettre de ChatGPT à celles écrites par des humains. En effet, l’IA se serait montrée plus poétique.
Si sur la forme, cette technique de drague 2.0 séduit, sur le fond ce n’est pas encore ça. Les Britanniques interrogés ont répondu à 58 % qu’ils se sentiraient trahis s’ils apprenaient que la lettre avait été écrite par un robot. Une opinion compréhensible.
Mise en garde
L’entreprise d’antivirus McAfee a prévenu des dangers de l’Intelligence Artificielle. Cette technologie est plus pointue qu’on ne le pense et par conséquent, il vaut mieux s’en méfier. Les chercheurs ont pu observer que ChatGPT pouvait rédiger des messages d’amour à l’apparence si authentique qu’ils pourraient convaincre quelqu’un de partager des données personnelles, voire de l’argent.
« Nous savons que les cybercriminels utilisent également l’IA pour faire évoluer les activités malveillantes. Avec la Saint-Valentin qui approche à grands pas, il est important de faire preuve de signes révélateurs d’activité malveillante de l’IA – comme l’utilisation de phrases courtes et la répétition de mots, combinées à toute demande d’argent ou d’information suspecte. »
Les experts de McAfee appellent donc à la vigilance pour la fête des amoureux. Les personnes malveillantes pourraient s’emparer de l’IA pour manipuler des âmes solitaires et naïves.
« Pour trouver une vraie correspondance, les amateurs d’amour doivent rester vigilants et utiliser des solutions de sécurité qui peuvent aider à protéger leur vie privée et leur identité et les protéger contre les clics sur des liens malveillants qu’un escroc pourrait envoyer. »
À lire aussi : Polémique : Un juge utilise l’intelligence artificielle, ChatGPT, pour rendre son verdict