Hacia una sociedad humana y robótica

Etxebeste Aduriz, Egoitz

Elhuyar Zientzia

Con los avances en robótica e inteligencia artificial que se están produciendo en los últimos años, la autonomía e inteligencia de las máquinas es cada vez mayor. La necesidad de garantizar la ética de estas máquinas está creciendo. Para ello, diversos gobiernos e instituciones están trabajando y proponiendo normativas.
gizakien-eta-roboten-gizarte-baterantz 400

 

Hace 65 años, el escritor Isaac Asimov presentó en el cuento Runaround tres leyes para la robótica: 1) El robot no perjudicará al ser humano y evitará que el hombre sea dañado; 2) el robot cumplirá las órdenes dadas por el hombre, salvo que se oponga a la primera ley; y 3) el robot se autoprotegerá si no va en contra de la primera y segunda ley.

Asimov plasmó en la convivencia a personas y robots en sus relatos de ciencia ficción, y para esa convivencia vio necesario programar los robots de acuerdo con estas leyes. Pero este mundo ya no es tan ficticio: los vehículos autónomos, los drones, los robots para ayudar a los mayores y a los discapacitados, todos los que entran en la industria y las máquinas capaces de aprender.

“Es innegable que se está produciendo una revolución”, explica Elena Lazkano Ortega, investigadora del departamento de Ciencia de la Computación e Inteligencia Artificial de la UPV. Sin embargo, no tiene tan claro la velocidad que alcanzará esta revolución: “A veces me parece que está ahí, que nos viene encima, y otras veces los avances son enormemente lentos”. Gorka Azkune Galparsoro, investigador en inteligencia artificial en Deustotech-Deusto: “Desde el punto de vista de la inteligencia artificial ha ocurrido un gran salto que no se ha visto durante muchos años. Es muy difícil predecir hasta qué punto las cosas van a cambiar, pero yo creo que de aquí a no demasiados años, va a tener una gran influencia en nuestra vida”.

Elena Lazkano Ortega, investigadora del Grupo de Investigación en Robótica y Sistemas Autónomos de la UPV/EHU.

Ante esta situación se necesitará algo más que las leyes de Asimov, y países como EEUU, China, Japón o la Unión Europea ya han empezado a tratar el tema. Azkune considera que en algunos casos ya son necesarias las legislaciones. “Por ejemplo, en EEUU hay varios Estados que están desarrollando legislaciones sobre vehículos autónomos. Esta tecnología ya es muy madura”. Pero también ve el peligro de avanzar demasiado en las legislaciones: “Me da miedo limitar los posibles desarrollos legislativos. Hay que ir preparándose, eso está claro, pero no sé hasta qué punto se puede avanzar”. Pues bien, para hacer las cosas bien, Lazkano ve necesario un debate profundo: “Es un debate en el que todos tenemos que participar, industria, universidades e incluso sociedad. No podemos dejar en manos de los gobiernos solo hacer una legislación”.

El pasado mes de febrero el Parlamento Europeo solicitó a la Comisión Europea que propusiera leyes para la robótica y la inteligencia artificial. Esta petición se basaba en el estudio de las leyes civiles de la robótica extraídas por la Comisión de Asuntos Europeos de Derecho. En Gran Bretaña, la Organización Británica BSI Estándar también lanzó el año pasado las normas para el diseño ético de los robots. Como una actualización de las leyes de Asimov, también han destacado tres puntos generales: 1) Los robots no deben diseñarse solo o principalmente para matar a los seres humanos; 2) Los responsables de las acciones de los robots son humanos, no robots; y 3) Debe ser posible saber quién es el responsable de cada robot y de sus acciones.

Gorka Azkune Galparsoro, Investigador en Inteligencia Artificial en la Universidad de Deustotech-Deusto.

Además de la seguridad de las personas, han puesto el foco en las preocupaciones. Lazkano coincide en ello: “Los robots los diseñamos nosotros y por el momento las acciones de los robots. Y en la medida en que esto sea así, somos responsables. Por ejemplo, los vehículos autónomos necesitan por el momento un supervisor. El comprador del coche lo comprará con unas condiciones y, en caso de accidente, si ha respetado dichas condiciones, el responsable será el diseñador, y si no ha respetado las condiciones, el usuario. No podemos achacarle el error. Eso sería justificarnos”.

Capacidad de aprendizaje

Pero, según Azkun, puede que no siempre esté tan limpio. “A menudo se piensa que los robots se programan para hacer una cosa. Pero hoy en día los robots son capaces de aprender y probablemente más en el futuro. Y la capacidad de aprendizaje puede generar autonomía de decisión. Entonces, a medida que estos robots van aprendiendo por su cuenta, ¿quién es el responsable de lo que aprenden? En definitiva, si aprenden de nosotros, nosotros seremos responsables, pero esa responsabilidad puede quedar muy diluida en la sociedad”.

Compara lo que ocurre con las personas: “Un niño al principio no sabe nada. Si luego se convierte en un asesino, ¿a quién corresponde? Seguro que la sociedad ha cometido algunos errores, o los demás... En este caso se culpa a esa persona. Entonces habrá que verlo... Desde un punto de vista determinista o programático puede ser más fácil, pero la inteligencia artificial es gratuita, y con la fuerza que está adquiriendo el aprendizaje, estas cosas probablemente no se pueden resolver tan fácilmente”.

Sin embargo, la capacidad de aprendizaje de la inteligencia artificial sigue siendo limitada. “De momento ingieren datos, aprenden lo que hay en ellos y sólo tienen una cierta capacidad de generalización”, explica Lazkano. “Así, si los datos que se les faciliten son éticos, las salidas también serán éticas”. Pero, por supuesto, tampoco siempre será fácil que los datos que se les faciliten sean éticos, por ejemplo, al utilizar datos de Internet. Prueba de ello es lo que ocurrió con el chat Tay de Microsoft: Se pusieron en Twitter y tuvieron que retirar los comentarios racistas, sexistas, nazis, etc. en 24 horas. Por supuesto, aprendió de las entrevistas en twitter.

“A esto se le llama el problema del mundo abierto”, afirma Azkun. “Si abrimos el mundo a las inteligencias artificiales y dejamos que se tomen todos los datos podrían surgir problemas. Eso se puede controlar, pero ¿hasta cuándo queremos que estas inteligencias sean cada vez más potentes?”. A medida que aumenta la capacidad de aprender, las cosas podrían cambiar. “El Deep Mind de Google ya habla de inteligencia general artificial”, afirma Azkune. Una inteligencia general artificial sería capaz de tomar decisiones por sí misma. “Hoy en día, la inteligencia artificial está bastante controlada en función de los datos y de la técnica de aprendizaje que utilices, pero a medida que vamos avanzando y tengan más libertad para decidir estas inteligencias, no será tan fácil controlar lo que pueden aprender”.

Pero Azkun aclara que eso está lejos de ocurrir: “En los últimos años se han producido grandes avances, y si los proyectamos al futuro podría aparecer un mundo bastante diferente, pero todavía no estamos tan avanzados en este sentido. Todavía estamos a nivel de especialización: tenemos pequeñas inteligencias que son muy buenas haciendo cosas concretas, pero esa generalidad que tiene el ser humano no se ve cercana. Es cierto que precisamente este año se han realizado pequeños avances en inteligencia general. Pero todavía estamos en una investigación muy básica, que puede llegar, pero no sabemos”.

Ed. Fraunhofer ipa, Jens Kilian

Manos humanas

Lazkano tiene claro que los robots son éticos en manos de los seres humanos. “Si nosotros no les enseñamos comportamientos éticos, los robots que fabricamos no tendrán un comportamiento ético”. Y no debemos olvidar qué son. “Sin duda debemos pensar en qué uso queremos darle. Pero son solo herramientas. Herramientas para hacer mil cosas, también para hablar, pero son herramientas”.

También Azkun ha destacado esta perspectiva. “Tenemos que tener en cuenta que, como cualquier tecnología, puede tener contras, y hay que intentar prevenirlas, pero no tener miedo. Esta tecnología todavía está por desarrollar, pues pensemos cómo la hemos utilizado para solucionar problemas reales. Por ejemplo, la inteligencia artificial ya se ha utilizado para detectar el cáncer de piel y lo hace mejor que el hombre. Podrían existir otros mil casos. La terapia contra el cáncer o el nuevo medicamento puede generar inteligencia artificial o predecir su efecto. Deberíamos pensar en esas cosas. Cómo podemos utilizar estos nuevos poderes para hacer frente a los problemas que tenemos. Pero, claro, siempre hay que pensar que esto no se debe convertir en un problema".

Por ejemplo, se está discutiendo si crear vínculos emocionales con los robots puede convertirse en un problema, por ejemplo. Lazkano considera que esto es inevitable: “El fetichismo es propio. Tendemos a crear vínculos emocionales con los objetos y con los robots igual”. Y a menudo puede ser para bien: “Diversas investigaciones han demostrado que los lazos emocionales que tienen los niños autistas, las personas mayores y otros con los robots son beneficiosos para ellos. Por ejemplo, los mayores que viven solos aprecian mucho tener un robot en casa y, aunque hoy en día son muy limitados, se ha visto que se crea un vínculo emocional con estos robots, que es bueno para ellos. Se sienten más seguros en casa, están mejor emocionalmente, etc. En otros casos puede ser un problema, pero también tiene beneficios”.

Y otro de los problemas que preocupa, y que puede estar más cerca, es el de la eliminación de puestos de trabajo por parte de los robots. “Hay puestos de trabajo que se van a perder, pero puede que estos trabajadores puedan realizar otros trabajos y que los robots generen nuevas profesiones”, prevé Lazkano. “No sé hasta qué punto será violento. Ese miedo nos ha metido en otras revoluciones industriales”.

Azkune coincide: “Esto ha ocurrido muchas veces en nuestra historia y yo creo que poco a poco vamos a encontrar nuestro lugar. Siempre habrá una fase de transición en la que la gente pase mal. Pero no pensemos que esa gente, como siempre se dice, sea la gente menos formada. Yo no descarto en absoluto que la inteligencia artificial sea capaz de crear teorías, de plantear pruebas y experimentos, etc., y en ese caso quitarle mucho trabajo a los científicos. No sabemos en qué sentido van a venir los cambios y a todos nos toca adaptarse a ellos”.

“Y si llega una sociedad en la que todo está automatizado y el hombre no tiene que trabajar, no me parece algo negativo”, ha añadido Azkune. “Tendremos que evolucionar a otro tipo de sociedad”.

Ed. Phoenix Design (2015)

Una sociedad de personas y robots

Esta posible sociedad sería una sociedad de personas y robots. Lazkano considera que dentro de unos diez años los robots pueden estar en las casas, pero de ahí a que los robots sean parte de la sociedad hay una sangría. “Quizá venga. Una de las claves más importantes sería conseguir nuestra capacidad de diálogo. Y hay máquinas capaces de mantener una conversación coherente durante un par de minutos, pero enseguida te das cuenta de que estás trabajando con una máquina. Hasta conseguirlo tendrás una máquina en casa, no un amigo o lo que sea”.

Habrá que ver a qué nivel llegan los robots o las inteligencias artificiales. “Yo tengo claro que si llegan al nivel de los seres humanos, o lo superan, tendrán que ser tratados como iguales en cuanto a responsabilidades legales y éticas. Si un robot comete un asesinato, deberá juzgarse como una persona o con mecanismos similares. Si reconocemos que tienen libertad de decisión y capacidad de aprendizaje, etc., deberemos considerarlos iguales en ese sentido. La clave es el nivel de inteligencia que se consigue. Deberán ser tratados en consecuencia. En la actualidad, los animales no tienen el mismo tratamiento que los humanos, ni un niño ni un adulto. Surgirán muchas preguntas y habrá que trabajar mucho, si ocurre”.

Babesleak
Eusko Jaurlaritzako Industria, Merkataritza eta Turismo Saila