Intelligence artificielle en jeu

Azkune Galparsoro, Gorka

Ikertzailea eta irakaslea

Euskal Herriko Unibertsitateko Informatika Fakultatea

Helena Matute Greño

Psikologia Esperimentaleko katedraduna

Deustuko Unibertsitatea

L'intelligence artificielle est un grand défi technologique pour l'être humain : créer des machines avec nos capacités. Machines qui peuvent communiquer avec nous et, en traitant d'énormes quantités de données, apprendre et prendre des décisions par eux-mêmes. Même si quelqu’un peut encore se sentir loin, l’intelligence artificielle est déjà intégrée dans notre vie et fera tout dans les prochaines décennies : transport, éducation, culture, finance, agriculture…

Dans quelques années, nous ferons des achats à travers les assistants informatiques personnels, qui nous suggéreront comment améliorer notre processus d'apprentissage ou nous feront un diagnostic médical demandant nos symptômes. Nous serons beaucoup plus efficaces grâce à l'intelligence artificielle, mais, d'autre part, il y a ceux qui ont le souci que la robotisation nous enlève du travail et de l'espace aux êtres humains.

Certains disent que cette technologie se développe trop vite, qu'elle voit beaucoup de questions à répondre avant. En fait, l'intelligence artificielle est une expression de la vision mondiale de notre société. Il est donc important que la société dispose de cette technologie, avec une opinion élaborée et claire avant que les lois ne soient fixées, afin qu'elle ne devienne pas une technologie qui nous contrôle nous-mêmes.

Nous abordons trois questions fondamentales pour comprendre la situation actuelle et celle qui nous vient: Quel est le potentiel réel et les principaux défis de l'intelligence artificielle? Quel manque avez-vous en ce moment? Quels risques ?

A ces questions, nous avons demandé à deux experts qui travaillent autour de l'intelligence artificielle: Gorka Azkune Galparsoro, informaticien et chercheur en intelligence artificielle, et Helena Matute Greño, psychologue expérimentale qui étudie la psychologie de l'intelligence artificielle.

adimen-artifiziala-jokoan
Ed. Sdecoret/Shutterstock.com

« L’homme peut-il créer une machine intelligente qui évite ses erreurs ? »

Gorka Azkune Galparsoro

Chercheur en intelligence artificielle. UPV/EHU

Quel est le potentiel réel et les principaux défis de l'intelligence artificielle?

Le potentiel de l'intelligence artificielle est énorme. Il est essentiel dans le développement de la science, mais nous l'utilisons déjà pour des milliers de travaux courants: de la détection automatique des courriels dangereux à la création automatique d'albums avec nos photographies. Face à l'avenir, l'intelligence artificielle peut dépasser l'intelligence humaine dans tous les domaines, ce qui peut élargir les possibilités de potentiel élevé. Je ne sais pas si nous allons l'obtenir jamais, mais théoriquement il n'y aurait aucune raison pour que cela ne se produise.

Mais les défis scientifiques sont grands. Même avec les progrès accomplis ces dernières années, je dirais que l'intelligence artificielle est encore à ses débuts. Les systèmes actuels apprennent des données, puis, si des données similaires sont fournies, elles fonctionnent correctement. Mais ils ont encore peu de capacité de généralisation. Si de nouvelles données ne fonctionnent pas bien, contrairement aux humains. Il est prévisible que pour atteindre cette compétence il soit nécessaire de développer d'autres défis tels que les algorithmes d'apprentissage, la gestion de la mémoire et le raisonnement symbolique, entre autres.

Quel manque avez-vous en ce moment?

Nos systèmes actuels ont beaucoup de trous. Outre le manque de capacité généralisante, il existe d'autres problèmes. Par exemple, un système qui sait jouer aux échecs a la capacité de s'imposer aux meilleurs joueurs d'échecs, mais ne le sait, il ne peut pas conduire une voiture ou résoudre un sudoku. Les êtres humains sont capables de faire beaucoup de choses et très bien (je reconnais que cette affirmation est très discutable). Mais nos systèmes sont encore très spécialisés. Comment obtenir des systèmes multi-tâches?

Un autre vide clair est l'utilisation des données. Les meilleurs systèmes actuels utilisent de gigantesques ensembles de données étiquetés. Malgré les progrès accomplis ces deux dernières années, nous ne savons toujours pas comment utiliser correctement des données non étiquetées (apprentissage non supervisé). Ce n'est pas la même chose de voir quelques photos que quelqu'un dit ce qu'il ya dans chaque photo, que de voir la photo sans aucune explication. Dans le second cas, les êtres humains sont capables d'apprendre beaucoup d'informations utiles. Machines pas encore.

Quels risques voyez-vous ?

Comme toute technologie, l'intelligence artificielle peut être utilisée bien ou mal. Ce n'est pas un problème technologique, mais un problème humain: À quoi voulons-nous utiliser des technologies basées sur l'intelligence artificielle ? Nous pouvons les utiliser pour lutter contre le changement climatique, mais aussi pour manipuler les opinions politiques des gens. Je pense que la loi devrait réglementer l'objectif de l'utilisation de la technologie et non la technologie elle-même. Je ne me soucie pas de la technologie qu'une personne utilise pour manipuler mes opinions politiques, ce qui m'importe c'est qu'elle veut manipuler mes opinions politiques, et c'est pourquoi nous devrions les pénaliser. Par conséquent, je ne pense pas que l'intelligence artificielle soit différente des autres technologies.

Quelqu'un peut dire: Mais si ce système décide par lui-même de mener des actions nuisibles? Cette option est très éloignée technologiquement, mais si l'on pense qu'elle peut se produire, si la machine est propriétaire de ses actions, elle devrait être responsable, comme les humains, des conséquences de ses actions.

D'un point de vue scientifique, je suis plus préoccupé par d'autres choses. Par exemple, comme les systèmes apprennent des données et de l'expérience, et que les données et les expériences les obtiennent de nos mains, n'allons-nous pas reproduire et diffuser nos tendances ? Nous avons déjà vu que les systèmes qui ont été formés avec des textes écrits par l'être humain ont des tendances machistes. Ce n'est pas une erreur système, mais des données. Plus philosophiquement dit, l'homme peut-il créer une machine intelligente qui évite ses erreurs?

 

“Nous devons assigner des responsabilités en intelligence artificielle”

Helena Matute Greño

Directeur du Laboratoire de Psychologie Expérimentale. Université de Deusto

Quel est le potentiel réel et les principaux défis de l'intelligence artificielle?

Les intelligences artificielles ont actuellement de nombreuses capacités qui, jusqu'à récemment, étaient seulement considérées comme humaines. Dans les jeux très intuitifs et créatifs sont capables de gagner les êtres humains (par exemple, dans le jeu Go), conduisent des voitures et pilotent des avions, réalisent des diagnostics médicaux (à certains égards mieux que les humains), des compositions symphoniques, dessinent des tableaux et sont parfois capables de gagner des concours, détectent qui sera le bon travailleur, qui sera délinquant, quoi acheter et quelles nouvelles il faut lire dans la vidéo fausse. C'est une technologie très puissante et, comme toutes les technologies puissantes, il faut l'utiliser avec beaucoup de soin. Elle peut renforcer le progrès de l'humanité, mais elle peut aussi causer de grands risques.

Quel manque avez-vous en ce moment?

Aujourd'hui, les intelligences artificielles continuent à commettre de nombreuses erreurs, ce qui constitue un risque important à prendre en compte. Nous avons l'habitude de faire trop confiance à ses recommandations, par exemple, quand on nous dit qui nous n'avons pas à engager ou qui nous ne devons pas nous permettre de sortir de prison. Mais parfois ils échouent. Nous ne devons pas leur faire confiance aveuglément.

Un autre problème est qu'ils n'ont parfois pas d'objectifs transparents et souvent ne correspondent pas aux nôtres. Cela peut être dangereux. Certes, il manque encore beaucoup à obtenir les machines conscientes qui apparaissent dans la science-fiction. Mais cela est souvent utilisé comme excuse pour dire qu'il n'y a pas à s'inquiéter. Mais dans quelle mesure est-il important de réaliser que l'intelligence artificielle elle-même nous fait du mal ? Imaginez si une machine avait la capacité de nuire en quelque sorte, par exemple, en augmentant les différences; en niant des hypothèques aux plus faibles, sans en avertir les causes; en niant une assurance médicale; en faisant un usage démesuré des tendances cognitives des adultes et des enfants, en cliquant sur une publicité concrète et en voyant toutes ces vidéos de plus en plus extrêmes qui nous montrent… Si j'avais la capacité de nuire réellement, ou non? Évidemment, il n'en est pas conscient.

Actuellement, les machines peuvent déjà nous nuire, car elles doivent maximiser l'objectif marqué (par exemple, maximiser les bénéfices d'une entreprise), objectif qui ne correspond pas au nôtre. Aujourd'hui, la conscience est ce qui devrait nous importer le moins. Ce qui nous importe quand nous créons les lois est les dommages qu'ils peuvent causer.

Quels risques voyez-vous ?

Il y a beaucoup de questions à traiter d'urgence. Nous devons nous assurer que les intelligences artificielles font ce que nous voulons et respectent les valeurs que nous voulons promouvoir en tant que société et les personnes (par exemple, la démocratie). La protection des enfants est également fondamentale. Et avant d'aller de l'avant dans certains domaines qui peuvent générer des risques accrus, nous devons nous assurer que nous développons des systèmes appropriés pour le contrôle de l'intelligence artificielle, la cybersécurité, les mécanismes d'extinction appropriés, etc. Nous devons également avancer dans l'attribution des responsabilités. À qui devons-nous imputer les responsabilités pour les dommages causés par les intelligences artificielles? Enfin, certaines utilisations de l'intelligence artificielle, comme la surveillance constante, la connaissance faciale dans la rue et dans les écoles, l'utilisation d'armes autonomes, l'exploitation des tendances et faiblesses humaines, etc. Pouvons-nous accepter comme société les usages malveillants effectués avec l'intelligence artificielle? Nous devons immédiatement penser à quel avenir nous voulons construire et commencer à agir en conséquence.

Babesleak
Eusko Jaurlaritzako Industria, Merkataritza eta Turismo Saila