Dans le numéro précédent nous parlons des dernières lois de réglementation du site. Car à cette occasion, en continuant, nous nous fixerons sur les mouvements normatifs qui ont été ou sont en cours tant aux États-Unis qu'à l'Union européenne dans le domaine de l'intelligence artificielle. En fait, l'intelligence artificielle est un sujet très important, elle acquiert un grand rôle ces dernières années, et elle a une grande influence sur l'économie, l'éducation, la vie des gens... Il est donc nécessaire d'établir des cadres juridiques et il sera essentiel d'y parvenir.
Au cours de l'année écoulée, la question de la réglementation de l'intelligence artificielle (IC) a été un sujet récurrent. En mars, plus d'un millier d'experts en AA et technologie (y compris Steve Wozniak et Elon Mike) ont demandé un moratoire de 6 mois sur le développement de technologies plus avancées que la GPT-4 pour réglementer le secteur et développer des mécanismes anti-risques.
Le chef d'OpenAI lui-même, fondateur d'outils ChatGPT et DALL-E, Sam Altman, a insisté pour attirer l'attention, réglementer et limiter les risques des AA dans les médias, a fait une tournée mondiale et, en mai dernier, il a également demandé au Congrès américain (et en septembre, il a publié une autre phrase de Bill Zuckerberg. « L’atténuation du risque de destruction de l’humanité par l’intelligence artificielle doit être prioritaire dans le monde entier, au niveau des pandémies et des guerres nucléaires. »
Mais quelle est la crédibilité de ces demandes, de la main des principaux acteurs du secteur? Quand les entrepreneurs d'un secteur ont-ils été vus demandant la réglementation et la délimitation de leur secteur? Si c'est vraiment dangereux, ils n'ont qu'à s'arrêter, non?
Le risque de destruction, à ce jour, n'est pas réel, mais en faisant peur, ils cherchent à obtenir une réglementation spécifique pour l'AA. Ce risque présumé et la complexité de la matière font que cette réglementation est élaborée par des experts (ils, bien sûr). De cette façon, d'autres lois générales ne s'appliqueront pas et les conséquences qui peuvent découler des dommages réels qu'elles produisent actuellement (dommages environnementaux, violations du copyright, non-respect de la vie privée, biais, prolifération d'informations erronées et fausses, inpersonnalisations et tromperies...) seront évitées.
En outre, si le secteur est réglementé et ne peut intervenir que par certaines entreprises et des experts agréés en matière de sécurité, ils évitent la création de nouveaux concurrents ou systèmes open source. Une partie ronde.
Dans l'Union européenne, cependant, le soi-disant AI Act, la loi sur l'intelligence artificielle, est lancé depuis longtemps. En avril 2021, la Commission européenne, approuvée par le Conseil de l’Europe en décembre 2022, a approuvé en juin 2023 que le Parlement européen entame ses négociations et a été approuvée en décembre 2023 par les trois entités. Au cours de cette période, il a subi plusieurs modifications jusqu'à ce qu'il atteigne ses principes presque définitifs, mais dans les négociations avec les États qui sont en cours à partir de ce moment, il va encore subir quelques modifications jusqu'à la rédaction finale en 2024 et que toutes les entités auront définitivement approuvé pour son entrée en vigueur en 2025 ou 2026. Les entreprises disposeront de six mois pour l'application de ce qui est indiqué dans la même ou un an pour les systèmes d'IA à usage général.
Dans un premier temps, cette loi classait les systèmes d'intelligence artificielle en trois groupes en fonction de leurs risques, et les systèmes de chacun d'eux avaient des obligations en fonction de ces risques :
L'UE créera un bureau chargé de faire respecter la loi et des amendes sévères sont prévues en cas de non-respect. Les infractions les plus graves seront sanctionnées par une amende de 35 millions d'euros ou 7% du chiffre d'affaires global (le plus élevé des deux).
Mais à ce but initial, des changements lui ont déjà été apportés et non pas justement ceux qui sont sur la bonne voie. En particulier, des changements ont été apportés aux questions concernant les grands acteurs de l’intelligence artificielle aux États-Unis. Logiquement, les systèmes d’intelligence artificielle créative mentionnés ci-dessus (ChatGPT et autres) devraient faire partie des systèmes à haut risque, car ils sont utilisés dans de nombreux secteurs mentionnés ici. Et ils auraient du mal à assurer le respect de certains des principes, tels que la transparence, la traçabilité et la non-discrimination, mais surtout l'environnement, car la consommation énergétique de ces gigantesques modèles neuronaux est énorme. Mais les entreprises qui demandaient la réglementation dans leur pays ont fait pression sur l'UE (OpenAI menace de cesser d'opérer dans l'UE), et la classification qu'elles ont obtenue dans la version approuvée en juin par le Parlement européen comprenait un quatrième groupe d'intelligence artificielle créatrice, destiné spécifiquement à elle:
Il y a une contradiction totale entre ce qui a été dit par Altman, OpenAI et d'autres dans l'un et l'autre lieu: Dans EE.UU. La technologie qu'ils développent est qualifiée de très dangereuse et exige une réglementation, alors qu'au sein de l'UE, ils ont combattu et réussi à ne pas entrer dans la catégorie à haut risque, ce qui a permis de réduire le niveau d'exigence. Comme je vous le disais, ils et lui veulent une réglementation sur mesure, pas faite par d'autres.
Et il est presque certain qu'il subira également des changements dans la phase de négociations avec les États. La France, par exemple, a déjà signalé qu'elle n'aime pas la loi, parce qu'elle pense qu'elle sera un frein à l'innovation.
Par conséquent, bien qu'il manque encore de temps pour la mise en œuvre, et il y aura certainement des changements, les intentions, les principes et les objectifs de la loi européenne sur l'intelligence artificielle sont bons, et il est assez avancé par rapport à ce qu'ils prétendent faire aux États-Unis. Il est nécessaire de réglementer le cadre de l’intelligence artificielle pour protéger et faire respecter les droits des personnes, éviter des risques réels et limiter les abus des entreprises. Certains disent qu'il y a un risque de réduire l'innovation, je ne pense pas qu'il en soit ainsi, mais il est en tout cas important de faire en sorte que la technologie soit socialement responsable et sûre, et de ne pas permettre quoi que ce soit au nom de l'innovation.
D'aucuns prétendent qu'il portera préjudice à l'industrie européenne au profit des États-Unis, mais c'est le contraire: la loi concerne toutes les entreprises qui veulent commercialiser AA dans l'UE, y compris les entreprises extérieures. Par conséquent, la loi va limiter davantage les géants technologiques avec des ressources énormes, avec des avantages du point de vue et des scrupules faibles, et les entreprises locales auront de meilleures chances et égalité. Et comme la loi est pionnière, il est possible qu'une voie soit tracée dans de nombreux autres pays, comme c'est le cas avec le Règlement général sur la protection des données, et que la qualité de l'intelligence artificielle du futur pour tout le monde soit conditionnée et améliorée.
Au cours des prochains mois et des années, nous verrons comment le sujet évolue des deux côtés de l'Atlantique et du monde entier.