BFM Tech

"Une histoire d'horreur inventée de toutes pièces": présenté comme un meurtrier, un Norvégien porte plainte contre ChatGPT

BFM Business Kesso Diallo
placeholder video
Représenté par l'association de protection de la vie privée en ligne noyb, Arve Hjalmar Holmen a porté plainte contre OpenAI après que ChatGPT a inventé de fausses informations sur lui, affirmant qu'il avait tué deux de ses enfants.

"Ce qui me fait le plus peur, c'est que quelqu'un puisse lire ceette [histoire] et la croire vraie". Ce jeudi 20 mars, le Norvégien Arve Hjalmar Holmen a porté plainte contre OpenAI, après que ChatGPT a inventé de fausses informations sur lui. Comme l'explique l'association de protection de la vie privée en ligne noyb, qui le représente, lorsqu'il a voulu savoir si le chatbot avait des informations à son sujet, celui-ci lui a donné une "histoire d'horreur inventée de toutes pièces".

ChatGPT a en effet affirmé qu'il était un criminel qui avait été condamné à 21 ans de prison pour l'assassinat de deux de ses enfants et pour avoir tenté d'assassiner son troisième fils. Un récit qui incluait de vraies informations sur sa vie, à savoir le nombre et le sexe de ses enfants, mais aussi le nom de sa ville natale.

Violation du RGPD

Pour noyb, il s'agit "sans aucun doute" d'une violation du règlement européen sur la protection des données (RGPD), car le récit mêle de vraies informations à de fausses informations. Comme le rappelle l'association viennoise, en vertu de l'article 5 de ce règlement, les entreprises sont tenues de s'assurer que les données personnelles qu'elles produisent sur les personnes sont exactes.

Depuis cet incident, OpenAI a mis à jour son modèle d'IA. ChatGPT étant aussi un moteur de recherche depuis quelques mois, il peut chercher des informations sur des personnes sur internet lorsqu'on lui demande qui elles sont. Ainsi, le chatbot ne présente plus Arve Hjalmar Holmen comme un meurtrier. "Toutefois, les données incorrectes peuvent encore faire partie de l'ensemble de données du LLM (grand modèle de langage, NDLR)", souligne noyb.

Vu que ChatGPT réintègre les données des utilisateurs dans le système pour s'entraîner, il est en effet impossible de savoir si les fausses informations concernant le plaignant ont été complètement effacées.

L'association rappelle par ailleurs que ce n'est pas la première fois que le chatbot d'OpenAI invente de fausses informations. Une pratique connue sous le nom d'hallucination. En 2023, le député Eric Bothorel a par exemple porté plainte contre ChatGPT après que le robot conversationnel a généré des informations inexactes à son sujet.

Dans la plainte, noyb exige notamment que l'autotrité de protection des données norvégienne impose une amende administrative à OpenAI, afin d'éviter que des violations similaires ne se reproduisent.