En el número anterior parlem de les últimes lleis de regulació de la web. Perquè en aquesta ocasió, donant continuïtat a ella, ens fixarem en els moviments normatius que s'han realitzat o estan duent a terme tant als Estats Units com a la Unió Europea en l'àmbit de la intel·ligència artificial. De fet, la intel·ligència artificial és un tema molt important, està adquirint un gran protagonisme en els últims anys, i està tenint una gran influència en l'economia, l'educació, les vides de les persones... Per això, és necessari establir marcs legals i serà fonamental encertar en això.
En l'últim any ha estat un tema recurrent el de la qüestió de la regulació de la intel·ligència artificial (IC). Al març, més d'un miler d'experts en AA i tecnologia (inclosos Steve Wozniak i Elon Mike) van sol·licitar una moratòria de 6 mesos en el desenvolupament de tecnologies més avançades que la GPT-4 per a regular el sector i desenvolupar mecanismes anti-riscos.
El propi líder d'OpenAI, fundador d'eines ChatGPT i DALL-E, Sam Altman, ha insistit a cridar l'atenció, regular i limitar els riscos de les AAs en els mitjans de comunicació, ha realitzat una gira mundial i el mes de maig passat també va sol·licitar en el Congrés dels EUA (i al setembre ho va fer al costat de Mark Zuckerberg i Mr. A la fi de maig, un altre ampli grup d'experts en la matèria, entre ells Sam Altman i Bill Gates, van publicar una nota amb una frase: “La mitigació del risc de destrucció de la humanitat per la intel·ligència artificial ha de ser prioritària a tot el món, a nivell de les pandèmies i les guerres nuclears”.
Però quina credibilitat tenen aquestes demandes, de la mà dels principals agents del sector? Quan s'han vist els empresaris d'un sector sol·licitant la regulació i delimitació de la seva àrea? Si realment és tan perillós, no tenen més que detenir-se, no?
El risc de destrucció, avui dia, no és real, però ficant el seu temor pretenen aconseguir una normativa específica per a l'AA. Aquest suposat risc i la complexitat de la matèria fan que aquesta normativa sigui elaborada per experts (ells, per descomptat). D'aquesta manera, no s'aplicaran altres lleis generals i s'evitaran les conseqüències que puguin derivar-se dels danys reals que ja produeixen en l'actualitat (danys mediambientals, trencaments del copyright, no respectar la privacitat, biaixos, proliferació d'informacions errònies i falses, inpersonalizaciones i enganys...).
A més, si l'àrea està regulada i només poden intervenir determinades empreses i experts acreditats en matèria de seguretat, eviten la creació de nous competidors o sistemes de codi obert. Una jugada rodona.
A la Unió Europea, no obstant això, fa temps que s'inicia l'anomenada AI Act, la llei d'intel·ligència artificial. A l'abril de 2021 la Comissió Europea, aprovada pel Consell d'Europa al desembre de 2022, va aprovar al juny de 2023 que el Parlament Europeu iniciï la seva negociació i va ser aprovada al desembre de 2023 per les tres entitats. Durant aquest període ha sofert diverses modificacions fins a arribar als seus principis gairebé definitius, però en les negociacions amb els Estats que estan en marxa a partir d'aquest moment encara experimentarà algunes modificacions fins a arribar a la redacció final en 2024 i que totes les entitats hagin aprovat definitivament per a la seva entrada en vigor en 2025 o 2026. Les empreses disposaran de 6 mesos per a l'aplicació de l'indicat en el mateix o un any per als sistemes d'intel·ligència artificial de propòsit general.
Al principi, aquesta Llei classificava els sistemes d'intel·ligència artificial en tres grups atenent el seu risc, i els sistemes de cadascun d'ells tenien obligacions en funció d'aquests riscos:
La UE crearà una oficina per a fer complir la llei i es preveuen fortes multes en cas d'incompliment. Les infraccions més greus seran sancionades amb una multa de 35 milions d'euros o del 7% de la facturació global (la més alta de les dues).
Però a aquell propòsit inicial ja li han fet canvis i no justament els que van per bon camí. En concret, s'han produït canvis en qüestions que afecten els grans actors de la intel·ligència artificial als EUA. Lògicament, els sistemes d'intel·ligència artificial creativa esmentats anteriorment (ChatGPT i altres) haurien d'anar en el grup dels d'alt risc, ja que s'utilitzen en molts dels sectors aquí esmentats. I tindrien dificultats per a garantir el compliment d'alguns dels principis, com són la transparència, la traçabilitat i la no discriminació, però sobretot el medi ambient, perquè el consum energètic d'aquests gegantescos models neuronals és enorme. Però les pròpies empreses que demanaven regulació al seu país han estat fent de lobby a la UE (OpenAI amenaça amb deixar d'operar a la UE), i en la classificació que van obtenir en la versió aprovada al juny pel Parlament Europeu s'incloïa un quart grup d'intel·ligència artificial creadora, destinat específicament a ella:
Existeix una contradicció total entre el que s'ha dit per Altman, OpenAI i altres en un i un altre lloc: Als EUA la tecnologia que desenvolupen és qualificada com molt perillosa i exigeix regulació, mentre que a la UE han lluitat i aconseguit que no entrin en la categoria d'alt risc, aconseguint així reduir el nivell d'exigència. Com els deia, ells i per a ell volen una regulació a mesura, no feta per uns altres.
I és gairebé segur que també sofrirà canvis en la fase de negociacions amb els estats. França, per exemple, ja ha assenyalat que no li agrada la llei, perquè creï que serà un fre per a la innovació.
Per tant, si bé encara falta temps perquè es posi en marxa, i segurament hi haurà canvis, les intencions, principis i objectius de la Llei d'Intel·ligència Artificial de la UE són bons, i està bastant avançat respecte al que diuen que volen fer als EUA. És necessari regular el marc de la intel·ligència artificial per a protegir i fer complir els drets de les persones, evitar riscos reals i limitar els abusos de les companyies. Alguns diuen que hi ha risc de reduir la innovació, no crec que sigui així, però, en tot cas, és important fer el necessari perquè la tecnologia sigui socialment responsable i segura, i no permetre qualsevol cosa en nom de la innovació.
Hi ha qui diu que perjudicarà la indústria europea en benefici dels EUA, però és just el contrari: la llei afecta a totes les empreses que volen comercialitzar AA a la UE, incloses les externes. Per tant, la llei limitarà més els gegants tecnològics amb recursos enormes, amb avantatges des del punt de vista i amb escrúpols escrúpols baixos, i les empreses locals tindran millors oportunitats i igualtat. I com la llei és pionera, és possible que es marqui un camí en molts altres països, com va ocórrer amb el Reglament General de Protecció de Dades, i que es condicioni i millori la qualitat de la intel·ligència artificial del futur per a tothom.
Durant els pròxims mesos i anys anirem veient com evoluciona el tema a banda i banda de l'Atlàntic i a tot el món.