BFM Tech

Course à l’IA générale: comment OpenAI a prétendu, à tort, avoir réalisé des avancées mathématiques majeures

BFM Business Kesso Diallo
GPT-5, le modèle d'IA d'OpenAI.

GPT-5, le modèle d'IA d'OpenAI. - Photo par NIKOLAS KOKOVLIS / NURPHOTO / NURPHOTO VIA AFP

Des employés d'OpenAI se sont réjouis que GPT-5 soit parvenu à résoudre des problèmes mathématiques d'Erdős, s'attirant les critiques de plusieurs chercheurs lui reprochant entre autres une mauvaise formulation.

Une erreur de communication majeure pour OpenAI. Tout a commencé le 17 octobre, avec un message publié par le directeur produit de la start-up, Kevin Weil, sur X. "GPT-5 vient de trouver des solutions à 10 (!) des problèmes d'Erdős jusqu'alors non résolus, et a fait des progrès sur 11 autres. Tous ces problèmes étaient ouverts depuis des décennies", a-t-il affirmé dans ce message rapidement supprimé, comme le rapporte The Decoder.

Les problèmes d'Erdős sont un ensemble de célèbres conjectures posées par le mathématicien Paul Erdős, disparu en 1996, soit des assertions pour lesquelles aucune démonstration n'est connue, mais que l'on croit fortement être vraie. Ils sont tous regroupés sur un site, erdosproblems.com, géré par le mathématicien Thomas Bloom. 412 de ces problèmes ont été résolus sur 1.103.

Des prouesses en recherche, mais pas en maths

Avec son message, Kevin Weil laissait entendre que GPT-5 était parvenu à produire des preuves mathématiques pour des problèmes complexes. En plus d'être une avancée scientifique potentielle, cela serait aussi un signe que l'intelligence artificielle générative pourrait découvrir des solutions inconnues.

Mais ce message a suscité des critiques de la part de plusieurs chercheurs, d'autant plus que Kevin Weil n'est pas le seul employé d'OpenAI à s'être réjoui de l'exploit réalisé par GPT-5.

"En tant que propriétaire/mainteneur de erdosproblems.com, il s'agit d'une grave déformation de la réalité. GPT-5 a trouvé des références qui ont résolu ces problèmes, dont j'ignorais personnellement l'existence. Le statut 'ouvert' signifie simplement que je ne connais personnellement aucun article qui résout ce problème", a répondu Thomas Bloom à Kevin Weil.

Comme l'a expliqué le mathématicien, le dernier modèle d'IA d'OpenAI doit plutôt être félicité pour ses prouesses en matière de recherche, car il a su trouver les articles universitaires pertinents. "GPT-5 a été un outil très utile dans la recherche de littérature et a constitué un ajout précieux au site web. Sa capacité de recherche documentaire est déjà suffisamment utile et impressionnante, pas besoin de la décrire comme quelque chose qu'elle n'est pas!", a-t-il souligné.

Une véritable course autour des progrès mathématiques

OpenAI a également été critiqué par la concurrence pour ses affirmations. Le PDG de Google Deepmind a par exemple qualifié cet épisode d'"embarrassant". Yann Le Cun, directeur scientifique pour l'IA chez Meta, estime, lui, que la start-up a été victime de son propre battage médiatique.

Il réagissait à un message de Sebastien Bubeck, qui travaille chez OpenAI et qui, comme d'autres, a reconnu son erreur. "J'ai supprimé le message, je ne voulais évidemment pas induire qui que ce soit en erreur. Je pensais que la formulation était claire, désolé. Seules des solutions ont été trouvées dans la littérature, et je trouve cela très motivant, car je sais combien il est difficile de faire des recherches dans la littérature", a-t-il admis.

Au-delà de cet incident, les affirmations d'OpenAI s'inscrivent dans un contexte de véritable course autour des progrès mathématiques des grands modèles de langage (LLM) . En juillet dernier, son patron, Sam Altman, s'est réjoui d'avoir réalisé "une performance de niveau médaille d'or" aux Olympiades internationales de mathématiques "avec un système de raisonnement à usage général".

"Pour souligner, il s'agit d'un LLM faisant des mathématiques et non d'un système mathématique formel spécifique, cela fait partie de notre principal effort vers l'intelligence générale", a précisé le milliardaire.

Car, oui, derrière cette course autour des problèmes mathématiques se cache un enjeu bien plus grand: celui de parvenir à ce qu'on appelle l'intelligence artificielle générale, soit une IA aussi intelligente que les humains et capable de penser comme eux. Un objectif que vise OpenAI, mais aussi Google, Meta et d'autres entreprises.

Un obstacle à l'intelligence artificielle générale

Mais pour y parvenir, les LLM ont encore des progrès à faire en mathématiques. C'est d'ailleurs ce qu'a rappelé Yann Le Cun lors d'une conférence concernant "les obstacles mathématiques sur la voie vers une IA de niveau humain" en janvier dernier.

"L'état actuel de l'apprentissage automatique est désastreux", a-t-il déclaré lors de cet évenement, rapportait le New York Times en janvier dernier, déplorant que les entreprises qui cherchent à développer l'IA générale, n'arrivent même pas à reproduire ce qu'un chat peut faire. Pour rappel, l'apprentissage automatique est un champ d'étude de l'IA visant à donner aux machines la capacité d'apprendre à l'aide de données.

Selon lui, il ne faut pas miser sur les LLM, mais sur un "modèle mondial à grande échelle" pour améliorer l'IA. Un tel système "peut raisonner et planifier car il possède un modèle mental du monde qui prédit les conséquences de ses actions", a-t-il déclaré lors d'une interview après la conférence. Mais des obstacles se dressent sur cette route, dont certains sont des problèmes mathématiques avec des solutions loin d'être en vue.