French

Publiée dans IA, Technologie

Crédit d'image par Argo

Sophie

Les 8 principes fondamentaux pour l'avenir de l'intelligence artificielle

Dans une série d'entretiens réalisés par Marcus Weldon pour Newsweek, trois experts en intelligence artificielle (le roboticien Rodney Brooks, le neuroscientifique David Eagleman et l'innovateur Yann LeCun) ont exposé huit principes fondamentaux pour l'avenir de l'IA. Ces principes traitent de notre tendance à anthropomorphiser l'IA, de la nature multidimensionnelle de l'intelligence, des limites des modèles actuels qui manquent de raisonnement approfondi, de l'insuffisance du langage comme seule base d'apprentissage, de la vision d'une société composée de plusieurs systèmes d'IA spécialisés plutôt que d'une IA omnisciente, de la hiérarchie future où les machines resteront au service des humains malgré leur puissance, de la surestimation du pouvoir de la pure intelligence et de la nécessité de développer des systèmes prévisibles alignés sur nos valeurs humaines diverses. Ces principes fournissent une feuille de route pragmatique pour le développement responsable de l'IA, en priorisant l'amélioration des capacités humaines plutôt que leur remplacement.

Vous vous souvenez des trois lois de la robotique d'Asimov ? Ces règles qui stipulent qu'un robot ne peut pas nuire à un humain, doit obéir aux ordres et doit protéger sa propre existence (tant que cela ne contredit pas les deux premières lois) ? Eh bien, il semble que nous sommes en train d'écrire l'équivalent moderne pour l'intelligence artificielle !

Dans une série de discussions super intéressantes publiées par Newsweek, Marcus Weldon (l'ancien directeur de Bell Labs) a discuté avec trois figures de proue dans le domaine : Rodney Brooks (expert en robotique), David Eagleman (neuroscientifique) et Yann LeCun (l'un des pères de l'IA moderne). Et devinez quoi ? Malgré leurs parcours différents, ils ont convenu de huit principes qui façonneront probablement l'avenir de l'IA. Voyons ce qu'ils sont !

Principe 1 : Nous pensons que c'est magique (mais ce n'est pas le cas)

Avouons-le : dès que ChatGPT nous donne une réponse intelligente, nous sommes tentés de penser "Wow, cette machine comprend vraiment ce que je dis !" C'est ce que les experts appellent "la pensée magique" - cette habitude que nous avons d'attribuer des capacités humaines à nos gadgets dès qu'ils font quelque chose d'un peu intelligent.

Comme le dit Rodney Brooks sans détour : "Si cela semble magique, alors vous ne comprenez pas... et vous ne devriez pas acheter quelque chose que vous ne comprenez pas." Boom !

Fondamentalement, nous sommes comme des enfants devant un tour de magie - impressionnés mais complètement déconcertés par ce qui se passe vraiment. Cette tendance à voir l'IA comme notre nouvel ami super intelligent nous empêche de voir ses véritables limites. Pour avancer, nous devons cesser d'être naïvement émerveillés et comprendre ce que ces systèmes peuvent réellement faire (et surtout ce qu'ils ne peuvent pas faire).

Principe 2 : L'intelligence est bien plus qu'un score

Soyons honnêtes : l'intelligence humaine est un vrai désordre ! Ce n'est pas juste une question de pouvoir résoudre des équations ou de mémoriser des choses. C'est aussi être créatif, comprendre les émotions des autres, avoir une conscience morale et même savoir utiliser son corps de manière coordonnée.

David Eagleman lance une vérité qui fait réfléchir : "Nous n'avons pas de définition unique de l'intelligence. Quand nous demandons si l'IA est vraiment intelligente, nous n'avons même pas de critère clair pour mesurer cela !"

Ainsi, comparer un humain et une IA, c'est comme comparer des pommes et des oranges. L'IA peut être super forte pour jouer aux échecs ou générer des images mais inutile pour comprendre pourquoi une blague est drôle ou pour ouvrir une porte qui grince. C'est pourquoi nous devons arrêter avec les comparaisons simplistes et accepter que l'intelligence est compliquée !

Principe 3 : L'IA doit apprendre à penser avant de parler

Vous savez ce moment quand vous répondez instantanément sans réfléchir, puis ce moment où vous prenez vraiment le temps de méditer sur un problème ? Le psychologue Daniel Kahneman (qui a reçu un prix Nobel, il faut le souligner) appelle cela le Système 1 (rapide et instinctif) et le Système 2 (lent et réfléchi).

Le problème avec nos IA actuelles comme ChatGPT ? Elles sont bloquées en mode Système 1 ! Comme le dit Yann LeCun : "Un LLM produit un mot après l'autre, c'est réactif... il n'y a pas de véritable raisonnement." C'est comme discuter avec quelqu'un qui répond toujours immédiatement sans jamais prendre le temps de penser profondément.

Pour que l'IA devienne vraiment utile, elle doit développer son Système 2 - cette capacité à réfléchir vraiment, à modéliser le monde, à raisonner étape par étape. C'est un peu comme passer d'un adolescent impulsif à un adulte réfléchi. Ce n'est pas simple, mais c'est nécessaire !

Principe 4 : Les mots ne suffisent pas

Imaginez essayer de décrire le goût exact d'une fraise, ou la sensation précise de plonger dans de l'eau froide. Difficile, non ? C'est parce que le langage est super limité !

David Eagleman l'explique parfaitement : "La connexion que nous avons à travers le langage est ridiculement faible. Quand je dis 'justice' ou 'liberté', j'y mets ma propre signification. Vous y mettez probablement une signification complètement différente. Nous nous en sortons, mais ce n'est honnêtement pas idéal."

Le fait est que nos IA actuelles sont remplies de textes, de mots, de phrases... mais pas d'expériences directes. C'est comme si vous deviez comprendre ce qu'est nager simplement en lisant des livres sur la natation, sans jamais tremper un doigt de pied dans l'eau !

Pour que l'IA progresse vraiment, elle doit aller au-delà des mots. Elle doit comprendre le monde de manière plus complète, moins dépendante du langage. Un peu comme nous, qui apprenons beaucoup plus en vivant des expériences qu'en lisant des descriptions.

Principe 5 : Une société d'IA plutôt qu'une super-IA

Oubliez l'idée d'une IA omnisciente qui peut tout faire (vous savez, ce truc effrayant dans les films de science-fiction). L'avenir concerne plutôt un ensemble d'IA différentes travaillant ensemble, chacune avec son expertise.

Yann LeCun l'explique avec style : "Ce sera une société interactive de machines. Vous aurez des systèmes d'IA qui sont plus intelligents que d'autres et peuvent les neutraliser. Ce sera ma police IA intelligente contre votre IA hors-la-loi." Ça ressemble à une ville pleine de spécialistes plutôt qu'à un seul génie qui sait tout !

La chose la plus drôle dans cette histoire est le paradoxe de Moravec : les ordinateurs ont été capables de nous battre aux échecs depuis des décennies mais sont inutiles pour faire ce qu'un enfant d'un an peut faire sans effort - comme attraper une balle ou comprendre qu'un objet existe toujours même quand vous ne pouvez plus le voir. La technologie est parfois étrange, n'est-ce pas ?

Principe 6 : Les humains seront les patrons, pas les machines

Soyez rassuré : dans le futur, ce n'est pas Terminator qui nous attend (eh bien, normalement). Les experts pensent que la relation entre l'humain et l'IA sera claire : nous au-dessus, les machines en dessous. Pourquoi ? Parce que les IA n'auront pas de "volonté libre" et seront conçues avec des limites intégrées.

Yann LeCun le dit clairement : "Tout le monde deviendra une sorte de PDG, ou au moins un manager. L'humanité montera dans la hiérarchie. Nous aurons un niveau en dessous de nous, celui des systèmes d'IA. Ils peuvent être plus intelligents que nous à certains égards mais feront ce que nous leur disons."

Imaginez : vous donnez des ordres à votre IA qui pourrait être super douée en maths ou en langues, mais vous gardez le contrôle. Un peu comme avoir un super assistant qui pourrait être meilleur que vous dans certains domaines, mais qui ne prend jamais la décision finale. Cela changerait complètement notre façon de travailler, n'est-ce pas ?

Principe 7 : Être intelligent n'est pas tout dans la vie

Nous nous inquiétons souvent que des IA super intelligentes prennent le contrôle du monde, mais peut-être surestimons-nous le pouvoir de l'intelligence. Regardez autour de vous : les plus brillants sont-ils vraiment ceux qui dirigent tout ?

Yann LeCun nous réveille : "Les gens accordent trop de crédit à l'intelligence pure. Ce n'est pas la seule force qui compte - il y a aussi des forces physiques, biologiques, etc. Regardez la politique actuelle, ce ne sont pas vraiment les plus brillants qui sont au pouvoir !"

Honnêtement, il a un point. L'intelligence est cool, mais elle ne fait pas tout. Une IA peut être super intelligente mais elle ne peut rien faire contre un tsunami, une panne de courant, ou même contre un humain qui débranche simplement le cordon ! Sans parler du charisme, de la manipulation émotionnelle ou de la force brute qui ont souvent plus d'impact que le raisonnement intelligent. Peut-être que cela devrait nous rassurer (ou nous inquiéter, selon comment vous le voyez).

Principe 8 : Nous voulons des IA prévisibles et qui respectent nos valeurs

Personne n'aime les surprises désagréables. Avec les IA, c'est pareil : nous voulons qu'elles soient prévisibles et qu'elles respectent nos valeurs. Pas seulement des valeurs occidentales ou celles d'une élite technologique, mais les valeurs de chacun d'entre nous, dans toute leur diversité.

Yann LeCun est clair à ce sujet : "Il faut un effort collaboratif pour concevoir ces systèmes alignés avec les valeurs humaines... et la meilleure façon est de le faire ouvertement et collaborativement... afin que chacun puisse s'en servir et conserver sa propre souveraineté."

En gros, c'est comme dire : "Hé, ne laissons pas seulement quelques grandes entreprises décider comment l'IA fonctionnera !" Plus les gens ordinaires ont leur mot à dire, plus l'IA respectera la diversité des valeurs humaines. Tout le monde n'a pas la même définition de ce qui est important, juste ou moral - et nos IA devraient le refléter !

Pour conclure tout cela

Alors, que faisons-nous avec ces huit principes ? En fait, ils nous offrent une façon plus réaliste de voir l'IA, loin des films de science-fiction qui nous font croire que nous finirons tous comme dans Matrix !

Marcus Weldon (qui a bien résumé tout cela) explique que nous pouvons juger l'IA de deux manières : en regardant ce qu'elle produit (le "quoi") et comment elle y parvient (le "comment"). C'est un peu comme si, pour évaluer un chef, vous regardiez non seulement si son plat est bon mais aussi comment il l'a cuisiné.

En fin de compte, ce que nous voulons, ce ne sont pas des robots qui font tout comme nous ou qui nous remplacent (honnêtement, qui a besoin d'un jumeau numérique ?). Nous voulons des systèmes qui nous rendent plus efficaces, qui nous libèrent des tâches ennuyeuses, tout en respectant nos valeurs et en restant sous notre contrôle.

L'IA est comme tout outil : elle vaut ce que nous en faisons. Ces principes nous rappellent qu'il nous appartient de décider ce que nous voulons en faire, et non l'inverse. Alors, êtes-vous prêt pour un avenir où l'IA est notre assistante et non notre remplaçante ?