No número anterior falamos das últimas leis de regulación da web. Pois nesta ocasión, dando continuidade a ela, fixarémonos nos movementos normativos que se realizaron ou están a levar a cabo tanto en Estados Unidos como na Unión Europea no ámbito da intelixencia artificial. De feito, a intelixencia artificial é un tema moi importante, está a adquirir un gran protagonismo nos últimos anos, e está a ter unha gran influencia na economía, a educación, as vidas das persoas... Por iso, é necesario establecer marcos legais e será fundamental acertar niso.
No último ano foi un tema recorrente o da cuestión da regulación da intelixencia artificial (IC). En marzo, máis dun milleiro de expertos en AA e tecnoloxía (incluídos Steve Wozniak e Elon Mike) solicitaron unha moratoria de 6 meses no desenvolvemento de tecnoloxías máis avanzadas que a GPT-4 para regular o sector e desenvolver mecanismos anti-riscos.
O propio líder de OpenAI, fundador de ferramentas ChatGPT e DALL-E, Sam Altman, insistiu en chamar a atención, regular e limitar os riscos das AAs nos medios de comunicación, realizou unha xira mundial e o pasado mes de maio tamén solicitou no Congreso da EE UU (e en setembro fíxoo xunto a Mark Zuckerberg e Mr. A finais de maio, outro amplo grupo de expertos na materia, entre eles Sam Altman e Bill Gates, publicaron unha nota cunha frase: “A mitigación do risco de destrución da humanidade pola intelixencia artificial debe ser prioritaria en todo o mundo, a nivel das pandemias e as guerras nucleares”.
Pero que credibilidade teñen estas demandas, da man dos principais axentes do sector? Cando se viron os empresarios dun sector solicitando a regulación e delimitación da súa área? Se realmente é tan perigoso, non teñen máis que deterse, non?
O risco de destrución, a día de hoxe, non é real, pero metendo o seu temor pretenden conseguir unha normativa específica para a AA. Este suposto risco e a complexidade da materia fan que esta normativa sexa elaborada por expertos (eles, por suposto). Desta maneira, non se aplicarán outras leis xerais e evitaranse as consecuencias que poidan derivarse dos danos reais que xa producen na actualidade (danos medioambientais, quebrantamentos do copyright, non respectar a privacidade, rumbos, proliferación de informacións erróneas e falsas, inpersonalizaciones e enganos...).
Ademais, se a área está regulada e só poden intervir determinadas empresas e expertos acreditados en materia de seguridade, evitan a creación de novos competidores ou sistemas de código aberto. Unha xogada redonda.
Na Unión Europea, con todo, hai tempo que se inicia a chamada AI Act, a lei de intelixencia artificial. En abril de 2021 a Comisión Europea, aprobada polo Consello de Europa en decembro de 2022, aprobou en xuño de 2023 que o Parlamento Europeo inicie a súa negociación e foi aprobada en decembro de 2023 polas tres entidades. Durante este período sufriu diversas modificacións até chegar aos seus principios case definitivos, pero nas negociacións cos Estados que están en marcha a partir dese momento aínda vai experimentar algunhas modificacións até chegar á redacción final en 2024 e que todas as entidades aproben definitivamente para a súa entrada en vigor en 2025 ou 2026. As empresas disporán de 6 meses para a aplicación do indicado no mesmo ou un ano para os sistemas de intelixencia artificial de propósito xeral.
Nun principio, esta Lei clasificaba os sistemas de intelixencia artificial en tres grupos atendendo ao seu risco, e os sistemas de cada un deles tiñan obrigacións en función deses riscos:
A UE creará unha oficina para facer cumprir a lei e prevense fortes multas en caso de incumprimento. As infraccións máis graves serán sancionadas cunha multa de 35 millóns de euros ou do 7% da facturación global (a máis alta das dúas).
Pero a aquel propósito inicial xa lle fixeron cambios e non xustamente os que van por bo camiño. En concreto, producíronse cambios en cuestións que afectan aos grandes actores da intelixencia artificial en EEUU. Loxicamente, os sistemas de intelixencia artificial creativa mencionados anteriormente (ChatGPT e outros) deberían ir no grupo dos de alto risco, xa que se utilizan en moitos dos sectores aquí mencionados. E terían dificultades para garantir o cumprimento dalgúns dos principios, como son a transparencia, a trazabilidad e a non discriminación, pero sobre todo o medio ambiente, porque o consumo enerxético destes xigantescos modelos neuronais é enorme. Pero as propias empresas que pedían regulación no seu país estiveron facendo de lobby na UE (OpenAI ameaza con deixar de operar na UE), e na clasificación que obtiveron na versión aprobada en xuño polo Parlamento Europeo incluíase un cuarto grupo de intelixencia artificial creadora, destinado especificamente a ela:
Existe unha contradición total entre o devandito por Altman, OpenAI e outros nun e outro lugar: En EE.UU. a tecnoloxía que desenvolven é cualificada como moi perigosa e esixe regulación, mentres que na UE loitaron e conseguido que non entren na categoría de alto risco, logrando así reducir o nivel de esixencia. Como lles dicía, eles e para el queren unha regulación a medida, non feita por outros.
E é case seguro que tamén vai sufrir cambios na fase de negociacións cos estados. Francia, por exemplo, xa sinalou que non lle gusta a lei, porque cree que será un freo para a innovación.
Por tanto, aínda que aínda falta tempo para que se poña en marcha, e seguramente haberá cambios, as intencións, principios e obxectivos da Lei de Intelixencia Artificial da UE son bos, e está bastante avanzado respecto do que din que queren facer en EEUU. É necesario regular o marco da intelixencia artificial para protexer e facer cumprir os dereitos das persoas, evitar riscos reais e limitar os abusos das compañías. Algúns din que hai risco de reducir a innovación, non creo que sexa así, pero, en todo caso, é importante facer o necesario para que a tecnoloxía sexa socialmente responsable e segura, e non permitir calquera cousa en nome da innovación.
Hai quen di que prexudicará á industria europea en beneficio dos EEUU, pero é xusto o contrario: a lei afecto a todas as empresas que queren comercializar AA na UE, incluídas as externas. Por tanto, a lei vai limitar máis os xigantes tecnolóxicos con recursos enormes, con vantaxes desde o punto de vista e con escrúpulos escrúpulos baixos, e as empresas locais terán mellores oportunidades e igualdade. E como a lei é pioneira, é posible que se marque un camiño noutros moitos países, como ocorreu co Regulamento Xeral de Protección de Datos, e que se condicione e mellore a calidade da intelixencia artificial do futuro para todo o mundo.
Durante os próximos meses e anos iremos vendo como evoluciona o tema a ambos os dous lados do Atlántico e en todo o mundo.