Intel·ligència artificial en joc

Azkune Galparsoro, Gorka

Ikertzailea eta irakaslea

Euskal Herriko Unibertsitateko Informatika Fakultatea

Helena Matute Greño

Psikologia Esperimentaleko katedraduna

Deustuko Unibertsitatea

La intel·ligència artificial és un gran repte tecnològic per a l'ésser humà: crear màquines amb les nostres capacitats. Màquines que poden comunicar-se amb nosaltres i, processant ingents quantitats de dades, aprendre i prendre decisions per si mateixes. Encara que encara algú pot sentir-se lluny, la intel·ligència artificial ja està integrada en la nostra vida i ho farà tot en les pròximes dècades: transport, educació, cultura, finances, agricultura…

Dins d'uns pocs anys realitzarem les compres a través dels assistents informàtics personals, que ens suggeriran com millorar el nostre procés d'aprenentatge o ens faran un diagnòstic mèdic preguntant pels nostres símptomes. Serem molt més eficients gràcies a la intel·ligència artificial, però, d'altra banda, hi ha qui té la preocupació que la robotización ens llevi treball i espai als éssers humans.

Hi ha qui diu que aquesta tecnologia s'està desenvolupant massa ràpid, que veu moltes preguntes que cal respondre abans. De fet, la intel·ligència artificial és una expressió de la visió mundial de la nostra societat. És important, per tant, que la societat compti amb aquesta tecnologia, amb una opinió elaborada i clara abans que es fixin les lleis, perquè no es converteixi en una tecnologia que ens controli nosaltres mateixos.

Abordem tres preguntes bàsiques per a comprendre la situació actual i la que ens ve: Quin és el potencial real i els principals reptes de la intel·ligència artificial? Quines manques té en aquest moment? Quins riscos?

A aquestes preguntes hem demanat a dos experts que treballen entorn de la intel·ligència artificial: Gorka Azkune Galparsoro, informàtic i investigador d'intel·ligència artificial, i Helena Matute Greño, psicòloga experimental que investiga la psicologia de la intel·ligència artificial.

adimen-artifiziala-jokoan
Ed. Sdecoret/Shutterstock.com

“Pot l'home crear una màquina intel·ligent que eviti els seus errors?”

Gorka Azkune Galparsoro

Investigador en intel·ligència artificial. UPV/EHU

Quin és el potencial real i els principals reptes de la intel·ligència artificial?

El potencial de la intel·ligència artificial és enorme. És fonamental en el desenvolupament de la ciència, però ja l'usem per a milers de treballs corrents: des de la detecció automàtica de correus electrònics perillosos fins a la creació automàtica d'àlbums amb les nostres fotografies. De cara al futur, la intel·ligència artificial pot superar la intel·ligència humana en tots els àmbits, la qual cosa pot ampliar les possibilitats d'alt potencial. No sé si ho aconseguirem mai, però teòricament no hi hauria raó perquè això no ocorri.

Però els reptes científics són grans. Fins i tot amb els avanços aconseguits en els últims anys, diria que la intel·ligència artificial encara està en els seus inicis. Els sistemes actuals aprenen d'unes dades i després, si s'aporten dades similars, funcionen correctament. Però encara tenen poca capacitat de generalització. Si es donen noves dades no funcionen bé, a diferència dels humans. És previsible que per a aconseguir aquesta competència sigui necessari desenvolupar altres reptes com són els algorismes d'aprenentatge, la gestió de la memòria i el raonament simbòlic, entre altres.

Quines manques té en aquest moment?

Els nostres sistemes actuals tenen un munt de buits. A més de la falta de capacitat generalitzadora, existeixen altres problemes. Per exemple, un sistema que sap jugar als escacs té la capacitat d'imposar-se als millors jugadors d'escacs, però només ho sap, no pot conduir un cotxe o resoldre un sudoku. Els éssers humans som capaços de fer moltes coses i molt bé (reconec que aquesta afirmació és molt discutible). Però els nostres sistemes són encara molt especialitzats. Com obtenir sistemes multi-tasques?

Un altre buit clar és l'ús de les dades. Els millors sistemes actuals utilitzen gegantescos conjunts de dades etiquetades. Malgrat els avanços reeixits en els dos últims anys, encara no sabem com utilitzar correctament dades no etiquetades (aprenentatge no supervisat). No és el mateix veure algunes fotos que algú digui el que hi ha en cada foto, que veure la foto sense cap explicació. En el segon cas, els éssers humans som capaços d'aprendre un munt d'informacions útils. Màquines encara no.

Quins riscos veus?

Com tota tecnologia, la intel·ligència artificial pot utilitzar-se bé o malament. Això no és un problema tecnològic, sinó un problema humà: per a què volem utilitzar tecnologies basades en la intel·ligència artificial? Podem utilitzar-los per a lluitar contra el canvi climàtic, però també per a manipular les opinions polítiques de la gent. Crec que la llei hauria de regular l'objectiu de l'ús de la tecnologia i no la pròpia tecnologia. A mi no m'importa la tecnologia que una persona utilitza per a manipular les meves opinions polítiques, el que m'importa és que vol manipular les meves opinions polítiques, i per això hauríem de penalitzar-les. Per tant, no crec que la intel·ligència artificial sigui diferent a altres tecnologies.

Algú pot dir: però si aquest sistema decideix per si mateix dur a terme accions perjudicials? Aquesta opció està molt allunyada tecnològicament, però si es pensa que pot ocórrer, si la màquina és propietària de les seves accions, hauria de ser responsable, com els humans, de les conseqüències de les seves accions.

Des d'un punt de vista científic, em preocupen més altres coses. Per exemple, com els sistemes aprenen de les dades i de l'experiència, i tant les dades com les experiències les obtenen de les nostres mans, no reproduirem i difondre les nostres tendències? Ja hem vist que els sistemes que s'han entrenat amb textos escrits per l'ésser humà tenen tendències masclistes. No és un error del sistema, sinó de dades. Dit de forma més filosòfica, pot l'home crear una màquina intel·ligent que eviti els seus errors?

 

“Hem d'assignar responsabilitats en intel·ligència artificial”

Helena Matute Greño

Director del Laboratori de Psicologia Experimental. Universitat de Deusto

Quin és el potencial real i els principals reptes de la intel·ligència artificial?

Les intel·ligències artificials tenen en l'actualitat moltes capacitats que fins fa poc només es consideraven humanes. En els jocs molt intuïtius i creatius són capaços de guanyar als éssers humans (per exemple, en el joc Go), condueixen cotxes i piloten avions, realitzen diagnòstics mèdics (en alguns aspectes millor que els humans), composicions simfòniques, dibuixen quadres i a vegades són capaços de guanyar concursos, detecten qui serà el bon treballador, qui serà delinqüent, què comprar i quines notícies cal llegir en el vídeo fals. És una tecnologia molt poderosa i, com totes les tecnologies potents, cal usar-la amb molta cura. Pot reforçar el progrés de la humanitat, però també pot provocar grans riscos.

Quines manques té en aquest moment?

Avui dia, les intel·ligències artificials continuen cometent nombrosos errors, la qual cosa constitueix un important risc a tenir en compte. Acostumem a confiar massa en les seves recomanacions, per exemple, quan ens diuen qui no hem de contractar o a qui no hem de permetre'ns sortir de la presó. Però a vegades fallen. No hem de confiar cegament en ells.

Un altre problema és que a vegades no tenen objectius transparents i moltes vegades no coincideixen amb els nostres. Això pot ser perillós. És cert que encara falta molt per aconseguir les màquines conscients que apareixen en ciència-ficció. Però això sol utilitzar-se com a excusa per a dir que no hi ha per què preocupar-se. Però fins a quin punt és important adonar-se que la pròpia intel·ligència artificial ens està fent mal? Imagina't si una màquina tingués la capacitat de fer mal d'alguna manera, per exemple, augmentant les diferències; negant hipoteques als més febles, sense avisar de les seves causes; negant una assegurança mèdica; fent un ús desmesurat de les tendències cognitives dels adults i dels nens, fent clic en una publicitat concreta i veient tots aquests vídeos cada vegada més extremes que ens mostren… Si tingués la capacitat de perjudicar, ens hauria d'importar o no ser conscient del que aquesta màquina realment està fent? Òbviament, no és conscient d'això.

En l'actualitat, les màquines ja ens poden fer mal, ja que han de maximitzar l'objectiu marcat (per exemple, maximitzar els beneficis d'una empresa), objectiu que no es correspon amb el nostre. Ara com ara, la consciència és el que menys ens hauria d'importar. El que ens importa a l'hora de crear les lleis és el mal que poden causar.

Quins riscos veus?

Són moltes les qüestions que cal atendre amb urgència. Hem de garantir que les intel·ligències artificials fan el que volem i respecten tant els valors que volem impulsar com societat com les persones (per exemple, la democràcia). La protecció dels nens és també fonamental. I abans d'avançar en algunes àrees que poden generar major risc, hem de garantir que desenvolupem sistemes adequats per al control de la intel·ligència artificial, la ciberseguretat, els mecanismes d'extinció adequats, etc. També hem d'avançar en l'assignació de responsabilitats. A qui hem d'imputar les responsabilitats pels danys causats per les intel·ligències artificials? Finalment, determinats usos de la intel·ligència artificial, com la vigilància constant, el coneixement facial al carrer i a les escoles, l'ús d'armes autònomes, l'explotació de les tendències i febleses humanes, etc. Podem acceptar com a societat els usos maliciosos que es realitzen amb intel·ligència artificial? Hem de pensar de seguida quin futur volem construir i començar a actuar en conseqüència.

Gehitu iruzkin bat

Saioa hasi iruzkinak uzteko.

Babesleak
Eusko Jaurlaritzako Industria, Merkataritza eta Turismo Saila
MAIER Koop. Elk.
KIDE Koop. Elk.
ULMA Koop. Elk.
EIKA Koop. Elk.
LAGUN ARO Koop. Elk.
FAGOR ELECTRÓNICA Koop. Elk.