AL HAYAT - Comprendre comment l'IA raisonne avant qu'elle ne devienne surpuissante, une urgence

Riyadh -

DANS LES NOUVELLES

Comprendre comment l'IA raisonne avant qu'elle ne devienne surpuissante, une urgence
Comprendre comment l'IA raisonne avant qu'elle ne devienne surpuissante, une urgence / Photo: Kirill KUDRYAVTSEV - AFP/Archives

Comprendre comment l'IA raisonne avant qu'elle ne devienne surpuissante, une urgence

Des humains l'ont programmée mais ne la comprennent pas complètement. L'intelligence artificielle (IA) générative reste un mystère, que des ingénieurs s'efforcent de percer avant que ses capacités n'explosent, pour éviter des dérapages.

Taille du texte:

"Les gens étrangers à ce milieu sont souvent surpris et alarmés d'apprendre que nous ne comprenons pas comment fonctionnent nos propres créations IA", a écrit, dans un long essai fin avril, Dario Amodei, le co-fondateur d'Anthropic, fleuron du secteur.

"Ils ont raison d'être préoccupés", a-t-il poursuivi. "Ce défaut de compréhension est sans précédent dans l'histoire de la technologie."

A la différence des programmes traditionnels, effectuant uniquement les tâches demandées, les modèles d'IA générative ne sont, en effet, qu'une rampe de lancement.

C'est "un échafaudage", selon l'expression de Chris Olah, ancien d'OpenAI aujourd'hui passé chez Anthropic et considéré comme l'un des inventeurs de la "mechanistic interpretability", qui déconstruit l'intelligence artificielle.

Cette jeune science, née au milieu des années 2010, s'attache à décrypter le cheminement qui mène d'une requête à une réponse, à travers une forêt de probabilités.

"Appréhender la totalité d'un grand modèle de langage", qui sert de base aux ChatGPT ou Gemini, "est une tâche incroyablement ambitieuse", explique à l'AFP Neel Nanda, chercheur chez DeepMind, le laboratoire d'IA de Google.

"C'est un peu comme essayer de décoder complètement le cerveau humain", selon lui, "ce que les neuroscientifiques essayent de faire depuis des décennies, sans y parvenir."

Confidentiel il y a encore quelques années, la discipline prend aujourd'hui une dimension nouvelle.

"Elle attire beaucoup nos étudiants", observe Mark Crovella, professeur d'informatique à l'université de Boston, "du fait de son potentiel à améliorer la sécurité des modèles, mais aussi parce que c'est un champ très stimulant intellectuellement."

- Tromper les humains -

Pour étudier ces phénomènes au plus près, retrace l'universitaire, la "mech interp", de son nom de code, ne se contente pas d'observer le résultat qu'offre un assistant IA à une demande.

"On observe les calculs à mesure qu'ils sont réalisés" par le programme d'IA, décrit-il.

La start-up Goodfire, en pointe sur le sujet, utilise des modèles d'interprétation, algorithmes IA à même de représenter des données sous forme d'étapes de raisonnement.

L'objectif est de saisir suffisamment bien la mécanique de l'IA générative pour la guider et corriger ses possibles errements.

Il s'agit d'empêcher les erreurs, mais aussi l'utilisation à des fins nocives ou de voir un modèle suffisamment autonome tromper les humains sur la nature de ses actions.

"Cela ressemble à une course contre la montre", situe Eric Ho, le patron de Goodfire, "avant que nous ne lancions des modèles d'IA extrêmement intelligents sans comprendre comme ils marchent."

Fin avril, Dario Amodei a fait état de "progrès récents", qui lui laissent penser que "nous sommes sur le point de trouver la clef de l'interprétabilité", au point de fixer une échéance, en 2027.

"Vu les avancées actuelles, il me semble plausible que d'ici 2027, nous disposions des outils à même de détecter, de façon fiable, les biais d'un modèle et ses intentions nocives" éventuelles, abonde Anh Nguyen, professeur à l'université d'Auburn.

Mark Crovella relève qu'à la différence du cerveau humain, "nous avons une représentation de chaque neurone dans ces modèles". "Nous pouvons voir tout ce qu'il se passe. La question, c'est comment l'interpréter."

Entrer dans le secret de l'IA générative rendrait possible, selon Dario Amodei, l'adoption de cette technologie dans des domaines où "un petit nombre d'erreurs pourrait être très préjudiciable", notamment pour ceux qui présentent des enjeux de sécurité importants.

Pour Neel Nanda, l'interprétabilité ouvrirait aussi la voie à des découvertes pour les humains, à l'instar du modèle AlphaZero de DeepMind, qui a dévoilé de nouvelles combinaisons au jeu d'échecs.

Par ailleurs, les premiers à maîtriser le raisonnement de l'IA générative pourront délivrer un label de fiabilité aux grands modèles qu'ils testeront, les rendant ainsi plus attractifs aux yeux de leurs clients potentiels.

"Il est clair pour nous, et pour Anthropic", qui a investi dans Goodfire, "que nous serons les premiers à le commercialiser", affirme Eric Ho.

Une percée américaine repositionnerait aussi les Etats-Unis en tête de la pyramide IA, position aujourd'hui contestée par la Chine.

"L'IA surpuissante va définir le destin de l'humanité", prévient Dario Amodei, "et nous devons comprendre nos propres créatures avant qu'elles ne transforment notre économie, nos vies et notre avenir."

G.Mishaal--al-Hayat