Cara a unha sociedade humana e robótica

Etxebeste Aduriz, Egoitz

Elhuyar Zientzia

Cos avances en robótica e intelixencia artificial que se están producindo nos últimos anos, a autonomía e intelixencia das máquinas é cada vez maior. A necesidade de garantir a ética destas máquinas está a crecer. Paira iso, diversos gobernos e institucións están a traballar e propondo normativas.
gizakien-eta-roboten-gizarte-baterantz 400

 

Fai 65 anos, o escritor Isaac Asimov presentou no conto Runaround tres leis paira a robótica: 1) O robot non prexudicará ao ser humano e evitará que o home sexa danado; 2) o robot cumprirá as ordes dadas polo home, salvo que se opoña á primeira lei; e 3) o robot se autoprotegerá si non vai en contra da primeira e segunda lei.

Asimov plasmou na convivencia a persoas e robots nos seus relatos de ciencia ficción, e paira esa convivencia viu necesario programar os robots de acordo con estas leis. Pero este mundo xa non é tan ficticio: os vehículos autónomos, os drones, os robots paira axudar aos maiores e aos discapacitados, todos os que entran na industria e as máquinas capaces de aprender.

“É innegable que se está producindo una revolución”, explica Elena Lazkano Ortega, investigadora do departamento de Ciencia da Computación e Intelixencia Artificial da UPV. Con todo, non ten tan claro a velocidade que alcanzará esta revolución: “Ás veces paréceme que está aí, que nos vén encima, e outras veces os avances son enormemente lentos”. Gorka Azkune Galparsoro, investigador en intelixencia artificial en Deustotech-Deusto: “Desde o punto de vista da intelixencia artificial ha ocorrido un gran salto que non se viu durante moitos anos. É moi difícil predicir até que punto as cousas van cambiar, pero eu creo que de aquí a non demasiados anos, vai ter una gran influencia na nosa vida”.

Elena Lazkano Ortega, investigadora do Grupo de Investigación en Robótica e Sistemas Autónomos da UPV/EHU.

Ante esta situación necesitarase algo máis que as leis de Asimov, e países como EEUU, China, Xapón ou a Unión Europea xa empezaron a tratar o tema. Azkune considera que nalgúns casos xa son necesarias as lexislacións. “Por exemplo, en EEUU hai varios Estados que están a desenvolver lexislacións sobre vehículos autónomos. Esta tecnoloxía xa é moi madura”. Pero tamén ve o perigo de avanzar demasiado nas lexislacións: “Dáme medo limitar os posibles desenvolvementos lexislativos. Hai que ir preparándose, iso está claro, pero non sei até que punto pódese avanzar”. Pois ben, paira facer as cousas ben, Lazkano ve necesario un debate profundo: “É un debate no que todos temos que participar, industria, universidades e mesmo sociedade. Non podemos deixar en mans dos gobernos só facer una lexislación”.

O pasado mes de febreiro o Parlamento Europeo solicitou á Comisión Europea que propuxese leis paira a robótica e a intelixencia artificial. Esta petición baseábase no estudo das leis civís da robótica extraídas pola Comisión de Asuntos Europeos de Dereito. En Gran Bretaña, a Organización Británica BSI Estándar tamén lanzou o ano pasado as normas paira o deseño ético dos robots. Como una actualización das leis de Asimov, tamén destacaron tres puntos xerais: 1) Os robots non deben deseñarse só ou principalmente paira matar os seres humanos; 2) Os responsables das accións dos robots son humanos, non robots; e 3) Debe ser posible saber quen é o responsable de cada robot e das súas accións.

Gorka Azkune Galparsoro, Investigador en Intelixencia Artificial na Universidade de Deustotech-Deusto.

Ademais da seguridade das persoas, puxeron o foco nas preocupacións. Lazkano coincide niso: “Os robots deseñámolos nós e polo momento as accións dos robots. E na medida en que isto sexa así, somos responsables. Por exemplo, os vehículos autónomos necesitan polo momento un supervisor. O comprador do coche comprarao cunhas condicións e, en caso de accidente, se respectou ditas condicións, o responsable será o deseñador, e si non respectou as condicións, o usuario. Non podemos achacarlle o erro. Iso sería xustificarnos”.

Capacidade de aprendizaxe

Pero, segundo Azkun, poida que non sempre estea tan limpo. “A miúdo pénsase que os robots se programan paira facer una cousa. Pero hoxe en día os robots son capaces de aprender e probablemente máis no futuro. E a capacidade de aprendizaxe pode xerar autonomía de decisión. Entón, a medida que estes robots van aprendendo pola súa conta, quen é o responsable do que aprenden? En definitiva, se aprenden de nós, nós seremos responsables, pero esa responsabilidade pode quedar moi diluída na sociedade”.

Compara o que ocorre coas persoas: “Un neno ao principio non sabe nada. Se logo convértese nun asasino, a quen corresponde? Seguro que a sociedade cometeu algúns erros, ou os demais... Neste caso cúlpase a esa persoa. Entón haberá que velo... Desde un punto de vista determinista ou programático pode ser máis fácil, pero a intelixencia artificial é gratuíta, e coa forza que está a adquirir a aprendizaxe, estas cousas probablemente non se poden resolver tan facilmente”.

Con todo, a capacidade de aprendizaxe da intelixencia artificial segue sendo limitada. “De momento inxeren datos, aprenden o que hai neles e só teñen una certa capacidade de generalización”, explica Lazkano. “Así, se os datos que se lles faciliten son éticos, as saídas tamén serán éticas”. Pero, por suposto, tampouco sempre será fácil que os datos que se lles faciliten sexan éticos, por exemplo, ao utilizar datos de Internet. Proba diso é o que ocorreu co chat Tay de Microsoft: Puxéronse en Twitter e tiveron que retirar os comentarios racistas, sexistas, nazis, etc. en 24 horas. Por suposto, aprendeu das entrevistas en twitter.

“A isto chámaselle o problema do mundo aberto”, afirma Azkun. “Se abrimos o mundo ás intelixencias artificiais e deixamos que se tomen todos os datos poderían xurdir problemas. Iso pódese controlar, pero até cando queremos que estas intelixencias sexan cada vez máis potentes?”. A medida que aumenta a capacidade de aprender, as cousas poderían cambiar. “O Deep Mind de Google xa fala de intelixencia xeral artificial”, afirma Azkune. Una intelixencia xeral artificial sería capaz de tomar decisións por si mesma. “Hoxe en día, a intelixencia artificial está bastante controlada en función dos datos e da técnica de aprendizaxe que utilices, pero a medida que imos avanzando e teñan máis liberdade paira decidir estas intelixencias, non será tan fácil controlar o que poden aprender”.

Pero Azkun aclara que iso está lonxe de ocorrer: “Nos últimos anos producíronse grandes avances, e se os proxectamos ao futuro podería aparecer un mundo bastante diferente, pero aínda non estamos tan avanzados neste sentido. Aínda estamos a nivel de especialización: temos pequenas intelixencias que son moi boas facendo cousas concretas, pero esa xeneralidade que ten o ser humano non se ve próxima. É certo que precisamente este ano se realizaron pequenos avances en intelixencia xeral. Pero aínda estamos nunha investigación moi básica, que pode chegar, pero non sabemos”.

Ed. Fraunhofer ipa, Jens Kilian

Mans humanas

Lazkano ten claro que os robots son éticos en mans dos seres humanos. “Se nós non lles ensinamos comportamentos éticos, os robots que fabricamos non terán un comportamento ético”. E non debemos esquecer que son. “Sen dúbida debemos pensar en que uso queremos darlle. Pero son só ferramentas. Ferramentas paira facer mil cousas, tamén paira falar, pero son ferramentas”.

Tamén Azkun destacou esta perspectiva. “Temos que ter en conta que, como calquera tecnoloxía, pode ter contras, e hai que tentar previlas, pero non ter medo. Esta tecnoloxía aínda está por desenvolver, pois pensemos como a utilizamos paira solucionar problemas reais. Por exemplo, a intelixencia artificial xa se utilizou paira detectar o cancro de pel e faio mellor que o home. Poderían existir outros mil casos. A terapia contra o cancro ou o novo medicamento pode xerar intelixencia artificial ou predicir o seu efecto. Deberiamos pensar nesas cousas. Como podemos utilizar estes novos poderes paira facer fronte aos problemas que temos. Pero, claro, sempre hai que pensar que isto non se debe converter nun problema".

Por exemplo, está a discutirse se crear vínculos emocionais cos robots pode converterse nun problema, por exemplo. Lazkano considera que isto é inevitable: “O fetichismo é propio. Tendemos a crear vínculos emocionais cos obxectos e cos robots igual”. E a miúdo pode ser paira ben: “Diversas investigacións demostraron que os lazos emocionais que teñen os nenos autistas, as persoas maiores e outros cos robots son beneficiosos paira eles. Por exemplo, os maiores que viven sós aprecian moito ter un robot en casa e, aínda que hoxe en día son moi limitados, hase visto que se crea un vínculo emocional con estes robots, que é bo paira eles. senten máis seguros en casa, están mellor emocionalmente, etc. Noutros casos pode ser un problema, pero tamén ten beneficios”.

E outro dos problemas que preocupa, e que pode estar máis cerca, é o da eliminación de postos de traballo por parte dos robots. “Hai postos de traballo que se van a perder, pero poida que estes traballadores poidan realizar outros traballos e que os robots xeren novas profesións”, prevé Lazkano. “Non sei até que punto será violento. Ese medo meteunos noutras revolucións industriais”.

Azkune coincide: “Isto ocorreu moitas veces na nosa historia e eu creo que aos poucos imos atopar o noso lugar. Sempre haberá una fase de transición na que a xente pase mal. Pero non pensemos que esa xente, como sempre se di, sexa a xente menos formada. Eu non descarto en absoluto que a intelixencia artificial sexa capaz de crear teorías, de expor probas e experimentos, etc., e nese caso quitarlle moito traballo aos científicos. Non sabemos en que sentido van vir os cambios e a todos tócanos adaptarse a eles”.

“E si chega una sociedade na que todo está automatizado e o home non ten que traballar, non me parece algo negativo”, engadiu Azkune. “Teremos que evolucionar a outro tipo de sociedade”.

Ed. Phoenix Design (2015)

Una sociedade de persoas e robots

Esta posible sociedade sería una sociedade de persoas e robots. Lazkano considera que dentro duns dez anos os robots poden estar nas casas, pero de aí a que os robots sexan parte da sociedade hai una sangría. “Quizá veña. Una das claves máis importantes sería conseguir a nosa capacidade de diálogo. E hai máquinas capaces de manter una conversación coherente durante un par de minutos, pero enseguida te dás conta de que estás a traballar cunha máquina. Até conseguilo terás una máquina en casa, non un amigo ou o que sexa”.

Haberá que ver a que nivel chegan os robots ou as intelixencias artificiais. “Eu teño claro que si chegan ao nivel dos seres humanos, ou o superan, terán que ser tratados como iguais en canto a responsabilidades legais e éticas. Se un robot comete un asasinato, deberá xulgarse como una persoa ou con mecanismos similares. Se recoñecemos que teñen liberdade de decisión e capacidade de aprendizaxe, etc., deberemos consideralos iguais nese sentido. A clave é o nivel de intelixencia que se consegue. Deberán ser tratados en consecuencia. Na actualidade, os animais non teñen o mesmo tratamento que os humanos, nin un neno nin un adulto. Xurdirán moitas preguntas e haberá que traballar moito, se ocorre”.

Babesleak
Eusko Jaurlaritzako Industria, Merkataritza eta Turismo Saila