Aprendizaje en Inteligencia Artificial: ¿es suficientemente impredecible?
Si los algoritmos de Inteligencia Artificial (IA) han de responder de manera efectiva en situaciones de la vida real, es necesario que los desarrolladores consideren los impulsos más oscuros de la humanidad.
En numerosas ocasiones nos llegan noticias que involucran máquinas e Inteligencia Artificial. En las Vegas, por ejemplo, ocurrió que un trasbordador autónomo estuvo involucrado en una colisión menor. ¿Se trata de una “victoria” para los humanos frente a las máquinas? Por entonces, muchos medios jugaron la carta de “la máquina tiene la culpa”, pero si analizamos lo que paso, el vehículo eléctrico autónomo reconoció al camión contra el que iba a colisionar y se detuvo para evitar el accidente, mientras que la persona que conducía el camión no. “Victoria” a favor de la Inteligencia Artificial, entonces.
Este es uno de muchos ejemplos que ilustran el desafío que se plantea en la interacción entre IA y humano. Los sistemas suelen configurar en contextos sin “actores malvados”, dónde los jugadores tienen todos buenas intenciones y siguen las reglas.
Lo que este ejemplo deja claro es que pensar en actores bien intencionados no es suficiente. De esta manera, la primera ley de la robótica no puede quedarse en «un robot no puede dañar a un ser humano«, sino que debe incluir «o, a través de la inacción, permite que un ser humano sufra daños«.
El núcleo del problema está en la transparencia: información perfecta versus información imperfecta. Al pensar en la interacción entre humanos y máquinas desde la perspectiva de la teoría de juegos, la información cambia radicalmente los juegos. El dilema del prisionero es interesante si ambos presos no saben lo que el otro hará, es decir, ambos tienen información imperfecta. Si un prisionero tiene información perfecta, es decir, sabe lo que hará el otro prisionero (con información imperfecta), entonces el dilema ya no existe (al menos para el que tiene información perfecta). Del mismo modo, si los seres humanos saben lo que hará la Inteligencia Artificial, pero los sistemas de Inteligencia Artificial tienen información imperfecta, entonces estamos creando un escenario que juega con las debilidades de Inteligencia Artificial.
No debemos dejar que la preocupación por la conducción autónoma y las semejanzas humanoides nos distraiga de los efectos más mundanos, pero potencialmente más transformadores, de la inteligencia artificial en los negocios. Si bien no hay nada malo con las fascinantes aplicaciones de la Inteligencia Artificial, los gerentes deben aprender de ellas, no solo quedarse boquiabiertos. El ejemplo del transbordador ilustra cómo los actores inmorales en un juego pueden hacer que el otro lado siempre pierda.
La Inteligencia Artificial podría ser excelente para derrotar a los campeones de juegos humanos. Pero fuera de estos juegos, en situaciones de la vida real, se la pueden jugar. Los diseñadores de estos sistemas de IA deben pensar en la manera en que los actores inconscientes pueden jugar con estas máquinas. Esta ronda de enfrentamientos entre IA y humanos durará mucho más que el tiempo que lleva realizar una reparación simple a un guardabarros.
Si estás interesado en la temática de Inteligencia Artificial y automatización te recomendamos estos tres posts:
– La Inteligencia Artificial, en 2030 superará la mente humana
– La Inteligencia Artificial y Machine Learning de la mano con el Big Data
Comentarios recientes