Las cajas negras de la Inteligencia Artificial

La “poca cristalinidad” de los algoritmos empleados en la Inteligencia Artificial desvela a los humanos, que confían en sus soluciones sin saber cómo llegan a ellas.

Actualizado: 16 de diciembre de 2017 —  Por: Redacción 180

Las cajas negras de la Inteligencia Artificial

AFP (Todos los derechos reservados)

En la jerga de los ingenieros que trabajan con Inteligencia Artificial, es conocido como el fenómeno de las cajas negras. “Uno tiene una caja negra en donde hay un montón de datos a la entrada y le dice al sistema ‘yo quiero que cuando veas esto, la predicción sea esta’, entonces él aprende. Lo que pasa que no conocemos cómo se interconectan esas neuronas dentro de la caja, solo vemos lo que entra y lo que sale”, dijo a No toquen nada el ingeniero Álvaro Pardo, decano de la Facultad de Ingeniería y Tecnologías de la Universidad Católica.

“Este tipo de técnicas tienen muy poca cristalinidad. Es muy difícil determinar por qué tomaron una decisión y eso es un problema enorme. A partir del verano de 2018, la Unión Europea podría obligar a las empresas a que ofrezcan una respuesta a sus usuarios sobre las decisiones a las que llegan los sistemas automatizado”, advirtió a No toquen nada el ingeniero Sebastián García Parra, director y cofundador de Idatha.

En algunos casos, ese desconocimiento se cruza con situaciones sensibles y provoca dudas. Por ejemplo, en Estados Unidos se utilizan algoritmos para conceder o rechazar la libertad anticipada de algunos prisioneros. Sin embargo, aunque “ingresan los datos del perfil de un preso que podría salir en libertad, le cargan los datos de todos los casos anteriores y el algoritmo dice si puede salir o no, todavía no pueden explicar el motivo por el que sugiere cada decisión”, explicó García Parra.

A pesar de los peligros, el ingeniero y doctor en Ciencias de la Computación, Gustavo Betarte, indicó a No toquen nada que “los robots no piensan, aprenden y toman decisiones a partir de fuentes de información, pero siempre hay un ser humano por detrás. Tienen una gran capacidad de procesar información y ejecutar sistemas de instrucción”.

Además, García Parra detalló que “no alcanza con un buen volumen de datos, también tienen que ser de buena calidad. Si entrenamos un robot con miles de casos en los que la respuesta siempre fue positiva, en ningún escenario arrojará una negativa”.

Por último, García Parra comentó que los prejuicios humanos se transmiten a los programas informáticos y los nuevos desarrollos empiezan a cuestionar asuntos importantes: “Por ejemplo, con el auto autónomo surge el dilema del daño menor: ¿el auto tiene que salvar a las cinco personas que caminan o tiene que salvar a las dos que van adentro del auto, en caso de que las opciones sean irse por la banquina o seguir de largo. Esos entrenamientos están intoxicados por aspectos culturales. La decisión de atropellar un hombre o una mujer puede ser diferente en distintas partes del mundo y esa interrogante todavía se discute”.