-
Les Etats-Unis accusent les géants des réseaux sociaux de "surveillance de masse"
-
Pêcher "moins et mieux": L'appel de scientifiques pour une pêche vraiment durable
-
Une collection de pièces de monnaie rapporte 14,8 millions d'euros aux enchères
-
En Tunisie, des femmes pêcheuses combattent les inégalités et le changement climatique
-
Le Danemark a un champion de pâté en croûte
Les modèles AlphaProof et AlphaGeometry 2 ont résolu quatre des six problèmes présentés cette année à ce concours international destiné aux élèves du secondaire, atteignant le niveau d'un médaillé d'argent, une "première" selon Google.
Dans le détail, AlphaProof a résolu deux problèmes d'algèbre et un problème d'arithmétique, tandis qu'AlphaGeometry 2 a résolu un problème de géométrie.
La 65e édition des Olympiades internationales de mathématiques (OIM) s'est tenue au Royaume-Uni du 11 au 22 juillet.
Cette compétition, qui existe depuis 1959, réunit des lycéens (et parfois quelques collégiens d'exception) sélectionnés dans une centaine de pays.
La première version d'AlphaGeometry était déjà parvenue à résoudre 25 problèmes de géométrie des Olympiades sur un total de 30 exercices proposés, avait rapporté en janvier la revue scientifique Nature.
"Ces résultats ouvrent de nouvelles perspectives dans le domaine du raisonnement mathématique et laissent entrevoir un avenir où mathématiciens et IA collaboreront pour résoudre des problèmes complexes", a avancé Google dans un communiqué.
Les grands modèles de langage, produits phares de l'IA, ont beaucoup de mal à raisonner face à des tests de logique, selon une étude parue en juin dans la revue Open Science de la Royal Society britannique.
Celle-ci a constaté que ChatGPT 3.5 et 4 d'OpenAI, Bard de Google, Claude 2 d'Anthropic et trois versions du Llama de Meta répondaient de façon inconstante et en s'appuyant sur des raisonnements souvent absurdes.