Inteligencia artificial en juego

Azkune Galparsoro, Gorka

Ikertzailea eta irakaslea

Euskal Herriko Unibertsitateko Informatika Fakultatea

Helena Matute Greño

Psikologia Esperimentaleko katedraduna

Deustuko Unibertsitatea

La inteligencia artificial es un gran reto tecnológico para el ser humano: crear máquinas con nuestras capacidades. Máquinas que pueden comunicarse con nosotros y, procesando ingentes cantidades de datos, aprender y tomar decisiones por sí mismas. Aunque todavía alguien puede sentirse lejos, la inteligencia artificial ya está integrada en nuestra vida y lo hará todo en las próximas décadas: transporte, educación, cultura, finanzas, agricultura…

Dentro de unos pocos años realizaremos las compras a través de los asistentes informáticos personales, que nos sugerirán cómo mejorar nuestro proceso de aprendizaje o nos harán un diagnóstico médico preguntando por nuestros síntomas. Vamos a ser mucho más eficientes gracias a la inteligencia artificial, pero, por otro lado, hay quien tiene la preocupación de que la robotización nos quite trabajo y espacio a los seres humanos.

Hay quien dice que esta tecnología se está desarrollando demasiado rápido, que ve muchas preguntas que hay que responder antes. De hecho, la inteligencia artificial es una expresión de la visión mundial de nuestra sociedad. Es importante, por tanto, que la sociedad cuente con esa tecnología, con una opinión elaborada y clara antes de que se fijen las leyes, para que no se convierta en una tecnología que nos controle nosotros mismos.

Abordamos tres preguntas básicas para comprender la situación actual y la que nos viene: ¿Cuál es el potencial real y los principales retos de la inteligencia artificial? ¿Qué carencias tiene en este momento? ¿Qué riesgos?

A estas preguntas hemos pedido a dos expertos que trabajan en torno a la inteligencia artificial: Gorka Azkune Galparsoro, informático e investigador de inteligencia artificial, y Helena Matute Greño, psicóloga experimental que investiga la psicología de la inteligencia artificial.

adimen-artifiziala-jokoan
Ed. Sdecoret/Shutterstock.com

“¿Puede el hombre crear una máquina inteligente que evite sus errores?”

Gorka Azkune Galparsoro

Investigador en inteligencia artificial. UPV/EHU

¿Cuál es el potencial real y los principales retos de la inteligencia artificial?

El potencial de la inteligencia artificial es enorme. Es fundamental en el desarrollo de la ciencia, pero ya lo usamos para miles de trabajos corrientes: desde la detección automática de correos electrónicos peligrosos hasta la creación automática de álbumes con nuestras fotografías. De cara al futuro, la inteligencia artificial puede superar la inteligencia humana en todos los ámbitos, lo que puede ampliar las posibilidades de alto potencial. No sé si vamos a conseguirlo nunca, pero teóricamente no habría razón para que eso no ocurra.

Pero los retos científicos son grandes. Incluso con los avances conseguidos en los últimos años, diría que la inteligencia artificial todavía está en sus inicios. Los sistemas actuales aprenden de unos datos y después, si se aportan datos similares, funcionan correctamente. Pero todavía tienen poca capacidad de generalización. Si se dan nuevos datos no funcionan bien, a diferencia de los humanos. Es previsible que para lograr esta competencia sea necesario desarrollar otros retos como son los algoritmos de aprendizaje, la gestión de la memoria y el razonamiento simbólico, entre otros.

¿Qué carencias tiene en este momento?

Nuestros sistemas actuales tienen un montón de huecos. Además de la falta de capacidad generalizadora, existen otros problemas. Por ejemplo, un sistema que sabe jugar al ajedrez tiene la capacidad de imponerse a los mejores jugadores de ajedrez, pero sólo lo sabe, no puede conducir un coche o resolver un sudoku. Los seres humanos somos capaces de hacer muchas cosas y muy bien (reconozco que esta afirmación es muy discutible). Pero nuestros sistemas son todavía muy especializados. ¿Cómo obtener sistemas multi-tareas?

Otro vacío claro es el uso de los datos. Los mejores sistemas actuales utilizan gigantescos conjuntos de datos etiquetados. A pesar de los avances logrados en los dos últimos años, todavía no sabemos cómo utilizar correctamente datos no etiquetados (aprendizaje no supervisado). No es lo mismo ver algunas fotos que alguien diga lo que hay en cada foto, que ver la foto sin ninguna explicación. En el segundo caso, los seres humanos somos capaces de aprender un montón de informaciones útiles. Máquinas todavía no.

¿Qué riesgos ves?

Como toda tecnología, la inteligencia artificial puede utilizarse bien o mal. Esto no es un problema tecnológico, sino un problema humano: ¿para qué queremos utilizar tecnologías basadas en la inteligencia artificial? Podemos utilizarlos para luchar contra el cambio climático, pero también para manipular las opiniones políticas de la gente. Creo que la ley debería regular el objetivo del uso de la tecnología y no la propia tecnología. A mí no me importa la tecnología que una persona utiliza para manipular mis opiniones políticas, lo que me importa es que quiere manipular mis opiniones políticas, y por eso deberíamos penalizarlas. Por lo tanto, no creo que la inteligencia artificial sea diferente a otras tecnologías.

Alguien puede decir: ¿pero si ese sistema decide por sí mismo llevar a cabo acciones perjudiciales? Esta opción está muy alejada tecnológicamente, pero si se piensa que puede ocurrir, si la máquina es propietaria de sus acciones, debería ser responsable, como los humanos, de las consecuencias de sus acciones.

Desde un punto de vista científico, me preocupan más otras cosas. Por ejemplo, como los sistemas aprenden de los datos y de la experiencia, y tanto los datos como las experiencias las obtienen de nuestras manos, ¿no vamos a reproducir y difundir nuestras tendencias? Ya hemos visto que los sistemas que se han entrenado con textos escritos por el ser humano tienen tendencias machistas. No es un error del sistema, sino de datos. Dicho de forma más filosófica, ¿puede el hombre crear una máquina inteligente que evite sus errores?

 

“Tenemos que asignar responsabilidades en inteligencia artificial”

Helena Matute Greño

Director del Laboratorio de Psicología Experimental. Universidad de Deusto

¿Cuál es el potencial real y los principales retos de la inteligencia artificial?

Las inteligencias artificiales tienen en la actualidad muchas capacidades que hasta hace poco sólo se consideraban humanas. En los juegos muy intuitivos y creativos son capaces de ganar a los seres humanos (por ejemplo, en el juego Go), conducen coches y pilotan aviones, realizan diagnósticos médicos (en algunos aspectos mejor que los humanos), composiciones sinfónicas, dibujan cuadros y a veces son capaces de ganar concursos, detectan quién será el buen trabajador, quién será delincuente, qué comprar y qué noticias hay que leer en el vídeo falso. Es una tecnología muy poderosa y, como todas las tecnologías potentes, hay que usarla con mucho cuidado. Puede reforzar el progreso de la humanidad, pero también puede provocar grandes riesgos.

¿Qué carencias tiene en este momento?

Hoy en día, las inteligencias artificiales siguen cometiendo numerosos errores, lo que constituye un importante riesgo a tener en cuenta. Acostumbramos a confiar demasiado en sus recomendaciones, por ejemplo, cuando nos dicen quién no tenemos que contratar o a quién no debemos permitirnos salir de la cárcel. Pero a veces fallan. No debemos confiar ciegamente en ellos.

Otro problema es que a veces no tienen objetivos transparentes y muchas veces no coinciden con los nuestros. Esto puede ser peligroso. Es cierto que todavía falta mucho por conseguir las máquinas conscientes que aparecen en ciencia ficción. Pero esto suele utilizarse como excusa para decir que no hay por qué preocuparse. ¿Pero hasta qué punto es importante darse cuenta de que la propia inteligencia artificial nos está haciendo daño? Imagínate si una máquina tuviese la capacidad de hacer daño de alguna manera, por ejemplo, aumentando las diferencias; negando hipotecas a los más débiles, sin avisar de sus causas; negando un seguro médico; haciendo un uso desmesurado de las tendencias cognitivas de los adultos y de los niños, haciendo clic en una publicidad concreta y viendo todos esos vídeos cada vez más extremas que nos muestran… Si tuviera la capacidad de perjudicar, ¿nos debería importar o no ser consciente de lo que esa máquina realmente está haciendo? Obviamente, no es consciente de ello.

En la actualidad, las máquinas ya nos pueden hacer daño, ya que tienen que maximizar el objetivo marcado (por ejemplo, maximizar los beneficios de una empresa), objetivo que no se corresponde con el nuestro. Hoy por hoy, la conciencia es lo que menos nos debería importar. Lo que nos importa a la hora de crear las leyes es el daño que pueden causar.

¿Qué riesgos ves?

Son muchas las cuestiones que hay que atender con urgencia. Debemos garantizar que las inteligencias artificiales hacen lo que queremos y respetan tanto los valores que queremos impulsar como sociedad como las personas (por ejemplo, la democracia). La protección de los niños es también fundamental. Y antes de avanzar en algunas áreas que pueden generar mayor riesgo, debemos garantizar que desarrollamos sistemas adecuados para el control de la inteligencia artificial, la ciberseguridad, los mecanismos de extinción adecuados, etc. También tenemos que avanzar en la asignación de responsabilidades. ¿A quién debemos imputar las responsabilidades por los daños causados por las inteligencias artificiales? Por último, determinados usos de la inteligencia artificial, como la vigilancia constante, el conocimiento facial en la calle y en las escuelas, el uso de armas autónomas, la explotación de las tendencias y debilidades humanas, etc. ¿Podemos aceptar como sociedad los usos maliciosos que se realizan con inteligencia artificial? Tenemos que pensar enseguida qué futuro queremos construir y empezar a actuar en consecuencia.

Babesleak
Eusko Jaurlaritzako Industria, Merkataritza eta Turismo Saila