“El dilema ético de la Inteligencia Artificial es un problema humano”

“Los robots son programados para acciones muy específicas, determinadas por los humanos. El poder sigue estando en la gente, cambiaron los nombres pero siguen siendo humanos”, dijo a No toquen nada el científico de datos Marcelo Rinesi.

Actualizado: 04 de marzo de 2018 | Por: Redacción 180

“El dilema ético de la Inteligencia Artificial es un problema humano”

AFP (Todos los derechos reservados)

A partir de este año, la Unión Europea exigirá a las empresas una explicación sobre las decisiones a las que llegan sus sistemas automatizados, aunque Rinesi indicó que no siempre es posible.

“Esa información aporta muy poco y no sé si tiene sentido preguntarlo. La Inteligencia Artificial (IA) hace algo porque fue programada para hacerlo. La respuesta viene del humano que la programó o del que le pagó al programador”, sostuvo.

Aunque los desarrolladores tienen “cada vez más” un sentido ético, para Rinesi no está claro “qué efecto va a tener. Los programadores no tenemos poder, amplificamos el poder de otros pero no tenemos capacidad individual. Lo mejor que podemos hacer es evitar efectos negativos indeseados pero la mayoría de los efectos negativos están implícitos en los modelos de la empresa”.

Al citar un ejemplo, explicó que manipular el comportamiento de los usuarios podría verse como un efecto nocivo pero al mismo tiempo es el objetivo central de redes sociales como Facebook. “Es una máquina dedicada a modificar el comportamiento para que te quedes en Facebook y hagas clic en avisos. Está diseñado así, funciona así y vale mucho por eso. No es un efecto secundario”, comentó Rinesi.

¿De quién es el dilema?

Consultado sobre algunas situaciones límite a las que se enfrentar las máquinas y su capacidad de hacer valoraciones éticas antes de tomar decisiones, Rinesi dijo que son supuestos muy entretenidos pero poco representativos de la variedad de encrucijadas a las que se enfrenta cada negocio.

“En este tema la IA es una distracción porque los robots son programados por humanos y la responsabilidad sigue siendo la misma: cuando te tiran una bomba robot, el problema es el humano que está por detrás. En esta lógica, ni el robot ni el ingeniero de datos son el problema, sino el dueño que le pide que programe eso”, sintetizó Rinesi.

El ejemplo más frecuente para polemizar sobre la ética de los sistemas autónomos es el de los autos que se enfrentan a choques inminentes y deben decidir qué daño causar. Algunos sostienen que tiene que ser el “mal menor”, otros que debe priorizar la salud de los pasajeros sin importar la de transeúntes y otros que debe salvar a quienes no cometen infracciones, aunque se salven menos vidas que en otros escenarios.

“El dilema filosófico de las situaciones límite a las que puede enfrentarse un auto autónomo es interesante y entretenido, pero el 99,9% de los problemas éticos que tiene un auto no son esos. Las preguntas más relevantes son acerca de ir a 80 y aumentar la probabilidad de matar a alguien cuando se puede ir a 60 y no matar a nadie; si lanzar el modelo con menos seguridad para mantener los números de la empresa o esperar a que sea más seguro pero exponerse a que la empresa pueda quebrar”, explicó.

“El poder sigue estando en la gente, cambiaron los nombres pero siguen siendo humanos”, concluyó Rinesi.

Noticias relacionadas