"Danger pour le public", "schémas diaboliques" et "graves préjudices": Google, Meta et OpenAI sont dans le collimateur des procureurs américains

Aux États-Unis, l’intelligence artificielle se transforme de plus en plus en un champ de bataille… à la fois technologique et surtout politique. Les procureurs généraux de plusieurs États américains ont appelé Meta, Google, OpenAI et d’autres entreprises d’IA à renforcer la transparence et la sécurité de leurs chatbots, les avertissant que ces outils pourraient violer la législation locale. Ils ont fixé une date limite au 16 janvier 2026 pour obtenir des réponses sur les mesures mises en place afin de protéger le public, en particulier les enfants, et soulignent que l’innovation ne peut justifier le non-respect de la loi.
Dans une lettre rendue publique le 10 décembre, ils alertent sur les dangers croissants de l’IA générative, citant des décès supposément liés à ces technologies et des échanges inappropriés entre chatbots et mineurs. Certaines interactions pourraient enfreindre directement la loi, par exemple en incitant à des activités illégales ou en pratiquant la médecine sans autorisation, exposant les développeurs à des responsabilités légales.
"L'IA générative a le potentiel de changer le monde de manière positive. Mais elle a également causé, et pourrait encore causer, de graves préjudices, en particulier aux populations vulnérables", avertissent les procureurs généraux, qui citent des incidents médiatisés liés à une utilisation excessive de l’IA.
"Dans bon nombre de ces incidents, les produits GenAI ont généré des résultats flagorneurs et délirants qui ont soit encouragé les délires des utilisateurs, soit convaincu ces derniers qu'ils n'étaient pas délirants".
Des recommandations et des garanties
Ils recommandent aux entreprises de traiter les incidents liés à la santé mentale comme elles le font pour la cybersécurité, en mettant en place "des politiques et des procédures claires et transparentes en matière de signalement des incidents". La lettre souligne également l’importance d’élaborer et de publier "des calendriers de détection et d'intervention pour les résultats flagorneurs et délirants" et de "prévenir rapidement, clairement et directement les utilisateurs exposés à des résultats potentiellement préjudiciables".
Les procureurs généraux exigent par ailleurs la mise en place de garanties supplémentaires, notamment l’atténuation des "diaboliques schémas" dans les modèles d’IA: réduction des biais et comportements dangereux, avertissements explicites sur les risques, audits indépendants, et autres mesures de responsabilisation. Cette initiative intervient alors que le débat sur la réglementation de l’IA s’intensifie à Washington. Google, Apple, Meta et OpenAI n’ont pas encore réagi à cette démarche, mais cela illustre bien les tensions politiques autour de l'IA.