La intel·ligència artificial (IC) està lluny de ser perfecta. És clar que una societat plena de problemes produirà productes amb problemes, per això, encara que a vegades s'embeni com un ser celestial que ens donarà totes les respostes, no podem oblidar que AA també l'hem creat nosaltres i que, per tant, té defectes. En aquest article reflexionem sobre aquests problemes, errors o nusos.
Des que l'empresa OpenAI[1], el 30 de novembre de 2022, publiqués ChatGPT, una eina que ens permet mantenir una conversa amb un sistema d'AA, hem vist moltes reflexions sobre la intel·ligència artificial i la seva utilitat.
Però ChatGPT és només un model d'AA, és a dir, podem trobar molts més (encara que la majoria no siguin públics) que poden ser útils en molts processos. Per exemple, un AA capaç de reconèixer semàfors, vianants, etc., exerceix una funció molt important en els cotxes automàtics; o qui és capaç de detectar un tumor amb major precisió i rapidesa que un metge, pot suposar un gran avanç mèdic.
A la vista d'això, és clar que l'AA té molt a veure en molts àmbits i que probablement suposarà un "avanç" o, almenys, un canvi important. Però la intel·ligència artificial també té problemes, genera problemes i reprodueix problemes. En aquest article s'abordaran alguns d'aquests problemes, relacionats principalment amb l'àmbit soci-polític, però també, en menor mesura, amb la veracitat i l'essència humana (encara que, per descomptat, tots dos àmbits tenen relació). Per a això, treballarem alguns problemes o nusos que podem trobar en cadascun d'aquests àmbits, tenint en compte el treball de diferents experts i el que ens han dit a nosaltres.
El primer àmbit que treballarem és, per tant, l'àmbit soci-polític. En concret, dels biaixos que podem trobar en la societat. És clar que la nostra societat segueix molt lluny de ser idíl·lica, sobretot per a homes blancs i no cis-heterosexuals. La desigualtat continua sent un dels principals problemes socials i, a pesar que cada vegada s'escolten més veus, segueix visqui l'hegemonia d'aquest home blanc cis-heterosexual. Això afecta a tots els àmbits, no sols al social, sinó també al productiu. De la mateixa manera que tot el que produïm afecta a la nostra societat, la nostra societat també es veu afectada per aquests productes, reforçant i reproduint, entre altres, els prejudicis problemàtics que transmetem a ells. La intel·ligència artificial no és una excepció.
Dos exemples d'això els podem trobar en els filtres que ofereixen les xarxes socials Tik Tok i Instagram (eines per a jugar o transformar el teu rostre). Un d'ells, el filtre AnimeAI que es va fer molt popular al desembre de 2022, després de rebre una fotografia seva dibuixava com un animi japonès. Però, com molts usuaris van denunciar, la intel·ligència artificial que hi havia darrere d'aquest filtre no era capaç de detectar a les persones negres i, en lloc de dibuixar-les com animis, les excloïa; les dibuixava com a objectes negres o, en el pitjor dels casos, com a micos. A més, s'han vist casos en els quals els posseïdors de trets «asiàtics», com els ulls ametllats, no poden utilitzar aquests filtres, ja que la intel·ligència artificial que hi ha darrere no és capaç de reconèixer els seus ulls. Aquests dos exemples posen de manifest el racisme o eurocentrisme de l'AA.
Però la qüestió no queda aquí, en els sistemes d'AA també podem trobar sexisme. Molts traductors automàtics, per exemple, en traduir professions tradicionalment femenines o masculines, com el ferrer o la infermera, segueixen aquesta tradició. En conseqüència, rebrem frases com la meva mare és ferrer o el meu pare és infermera en sol·licitar la traducció de la versió en basca (perquè són paraules neutres en basca). El problema no és només donar una traducció equivocada, sinó que deixa clar que aquestes AA tenen totalment interioritzats els rols de gènere i per això els reprodueixen. Això pot reforçar els biaixos tan perjudicials, per la qual cosa és molt important afrontar-los, sobretot si els sistemes d'AA adquireixen cada vegada major importància en les nostres vides.
Ander Corral Naves, investigador d'Orai, està treballant en això. Hem parlat amb ell i diu que els sistemes d'AA reprodueixen aquests biaixos a conseqüència de la base de dades que nosaltres els proporcionem[2]. Les dades són racistes i sexistes, no AA. Això és degut al canvi en la manera d'entrenar AA en 2018. Llavors van començar a passar enormes quantitats de dades (l'anomenat Big Data) sense haver analitzat prèviament totes aquestes dades. Per això, l'AA ha recollit moltes dades plenes de biaixos. Però ara el paradigma està canviant[3]. Ja hi ha moltes dades en la base de dades d'AA, per la qual cosa ha arribat el moment d'analitzar-los i corregir-los. En això estan els investigadors de Corral i Orai entrenant de nou AA amb dades apariades[4].
Però, de manera intencionada o involuntària, en gran manera tots reproduïm prejudicis racistes i masclistes de la nostra societat, per la qual cosa és molt fàcil no adonar-se de molts d'aquests biaixos presents en aquestes dades, o abandonar moltes realitats. Per exemple, en el model de traductor automàtic, què ocorre amb les persones no binàries? Com li ensenyem a AA a parlar d'ells? [5]
La intel·ligència artificial, com tot el que es produeix en el nostre sistema, depèn dels nostres prejudicis, per la qual cosa sense obviar-los, sense construir una societat realment igualitària, serà molt difícil que la intel·ligència artificial eviti aquests biaixos, encara que posi un pegat als més visibles [6].
A més, perquè, com s'ha comentat últimament, la intel·ligència artificial exerceixi un paper important en l'aprenentatge en els pròxims anys, és molt important que sigui el més inclusiva possible i que s'eviti la desigualtat, perquè les generacions futures no interioritzin encara més aquests biaixos. Per això em sembla molt important que els desenvolupadors i investigadors estiguin educats en igualtat i entenguin que tenen una gran responsabilitat en això. I el reconeixement per part de la comissió ètica o altres institucions similars de la intel·ligència artificial, o dels programes o aplicacions que la utilitzen, abans de la seva publicació, perquè, almenys mentre formem una societat basada en la igualtat, una AA inclusiva pot ser útil en aquest camí.
La nostra societat es basa en gran manera en imatges. Ens relacionem entre nosaltres mitjançant imatges, a través de les quals obtenim la major part de la informació. Per això, la capacitat de transformació i creació d'imatges de l'AA pot generar molts problemes.
Per a començar, ja és molt habitual veure fotos "falses". Si l'AA facilités la creació d'imatges i el seu aspecte real, la xarxa s'ompliria ràpidament. Llavors, com diferenciaríem les fotos "reals" de les "falses"? Això provocaria que les imatges perdin la seva fiabilitat, per la qual cosa tendiríem a mentir directament el que no veiem directament i el que ens sembla "rar".
D'altra banda, alguns sistemes d'AA són capaços de crear un vídeo (anomenat deepfake) en el qual vostè apareix amb unes poques fotos i un model de la seva veu. Per tant, és molt fàcil perjudicar a algú creant un vídeo que el deixi en mal lloc, per exemple (comentaris racistes, per exemple), o creant un que ho faci en una situació vulnerable[7]. Això pot posar en perill la dignitat i la privacitat.
Finalment, com ens ha comentat el professor Beñat Erezuma[8] en una entrevista, l'AA també pot portar problemes relacionats amb el bullying. Internet ja va provocar que les víctimes del bullying patissin persecució a casa. L'AA pot portar aquest problema a l'extrem. Qualsevol pot fer un vídeo d'una víctima de bullying per a humiliar-la d'una forma hiperrealista.
Els exemples esmentats mostren que la capacitat creativa de l'AA pot ser molt perillosa, sobretot per a grups ja vulnerables (dones, víctimes del bullying, etc.). ). Però aquests problemes no els ha produït l'AA, que ja estaven en la nostra societat, l'AA els reforça, facilita la seva aparició i els porta a l'extrem. La majoria dels problemes esmentats tenen el seu origen en la nostra manera de relacionar-nos. Per això, em sembla més apropiat buscar maneres de construir les relacions amb els altres d'una manera més sana que lluitar contra fenòmens que no són sinó reflex d'aquestes relacions.
No obstant això, no són els únics problemes en relació amb les AA. El tema de la intel·ligència artificial també ha qüestionat l'humà en si mateix. La intel·ligència i la capacitat creativa, per exemple, s'han considerat moltes vegades com a trets que fan "especial" a l'home. Però, si bé encara no es pot comparar la intel·ligència de l'AA amb la nostra, ja estem veient que no està tan lluny. A més, hem vist que l'AA també té capacitat creativa, i, encara que a això se li respon que fa mera repetició i còpia, no fem el mateix nosaltres, els humans? La nostra creació, com la de la intel·ligència artificial, no és conseqüència de l'impacte del que consumim? Què ens diferencia?
D'altra banda, quant a la preponderància que tenim en la Terra, molts pensadors ja han assenyalat que l'AA també pot modificar-la. Com s'especula, en algun moment la intel·ligència artificial superarà la intel·ligència humana, la qual cosa canviarà radicalment la situació actual, moment que es denomina singularitat tecnològica. El científic Raymond Kurweil, per exemple, en el seu llibre The singularity is near (2005), situa aquest moment en 2045 i afirma que les seves conseqüències són impredictibles. En qualsevol cas, la qual cosa sí és clar és que la nostra superioritat està en perill; d'altra banda, a la vista del vist, potser no és tan dolenta.
Per tot el que s'ha dit, és evident que hem de fer alguna cosa abans que tots aquests problemes siguin inexpugnables. Afortunadament, ja hi ha moviments que denuncien els riscos de les intel·ligències artificials i plantegen propostes davant ells. Un grup de pensadors i experts de diferents races, gèneres, edats i nacionalitats, per exemple, ha escrit un manifest en el qual critica el caràcter eurocèntric de l'AA. Així mateix, s'està ampliant una sol·licitud ja subscrita per prop de 2000 persones que demanen a les empreses que es detinguin sis mesos en l'entrenament d'AA més potents que el GPT-4 per a preparar una regulació sobre ells. Encara que poden tenir problemes, són dos exemples que requereixen pensar en la direcció del desenvolupament de les intel·ligències artificials.
És impossible parlar d'un món que es mou tan ràpid sense deixar les coses fora, però tenint en compte els pocs problemes que hem vist, ja queda clar que la intel·ligència artificial no és tan perfecta i que, en lloc de posar totes les forces en l'intent de millorar constantment, pot ser més important pensar com podem millorar la nostra societat i quin paper pot exercir l'AA en això. Potser un treball més dur.
[1] Empresa dedicada a la recerca sobre AA, que pretén contribuir al desenvolupament d'una AA que pot ajudar a la societat sense obtenir beneficis.
[2] L'AA ha rebut molt més la paraula ferrer fent referència a un home, per la qual cosa sempre el farà en concepte de pagament de ferrer (i no de ferrera). Això és el que cal canviar.
[3] Aquesta idea de canvi de paradigma té molt a veure amb el treball del físic i filòsof científic Thomas Kuhn. Diu que la ciència avança en el canvi de paradigma, desenvolupant noves premisses i maneres de fer ciència, creant nous enfocaments per a afrontar problemes que la forma anterior no podia resoldre (Kuhn, 2004).
[4] Per a saber com ho fan veure Corral i Saralegi, 2022.
[5] Sobre les intel·ligències artificials i les persones LGBTQ, veure Leufer, 2023.
[6] El tema dels prejudicis és complex i molt treballat. Vegeu per exemple: Allport, G.W. (1955). Nature of Prejudicis. ADDISON-WESLEY PUBLISHING COMPANY, Inc.
[7] Per exemple , un streamer conegut com “QTCinderella” va sofrir un cas deepfake. Algú va inserir el seu rostre en un vídeo de pornografia, la qual cosa li va portar a sofrir una persecució que, segons un ocell, li va causar sensació de violació i dismorfofobia.
[8] Beñat Erezuma és un apassionat usuari d'AA que ha fet un poemari i un podcast utilitzant ell.
Abdilla, A., Adamson, C., Affonso Souza, C., “A Jung Moon”, Buse Çetin, R., Xiscla, R., Doten, R., Fjeld, J., Ghazal, F., Havens, JC, Jayaram, M., Jordan, S., Krishnan, A., Lach, E.M., Mhlambi, S., Morrow, M., Ricaurte Quijano, P., Rizk, N., Rosenstock, S., Taylor, J. (2022). "Intel·ligència Artificial: Un Manifest Decolonial". Manifesto VI. https://manyfesto .ai/index.HTML (30/03/2023).
Allport, G.W. (1955). "The Nature of Prejudicis dius". Addison-Wesley Publishing Company, Inc.
Corral, A. i Saralegi, X. (2022). "Gender Bias Mitigation for NMT Involving Genderless Languages". Proceedings of the Seventh Conference on Machine Translation (WMT), pàg. 165–176, Abu Dhabi, United Sestra Emirates (Hybrid). Association for Computational Linguistics.
Galarraga, A. (2022). "Han creat una nova tècnica per a corregir el biaix de gènere en la traducció automàtica". Elhuyar. https://aldizkaria .elhuyar.eus/notícies/itzul-automatica-sexe-sessió-gènere/ (2023/03/04).
Kuhn, T. (2004). "L'estructura de les revolucions científiques. Fons de Cultura Econòmica.
Kurzweil, R. (2005). "The Singularity Is Near: When Humans Transie Biology". United States: Viking.
Leufer, D. (2023). "Computers llauri binary, people llauri not: how AI systems undermine LGBTQ identity". AccesNow. https://www.accessnow.org/how-ai-systems -undermine-lgbtq-identity/ (08/04/2023).
"Pause Giant AI Experiments: An Open Letter (2023)". Future of Life Institute. https://futureoflife.org/open-letter/pause-giant-ai-experiments/ (30/03/2023).