Humanos, inteligencia artificial y el “machine learning”

La colaboración con los humanos es esencial cuando se trata de implementar aprendizaje automático.

Empresas de todo tipo están adoptando sistemas de inteligencia artificial (IA) y de aprendizaje automático a un ritmo acelerado. La IA se está aplicando a una variedad de tareas como calificar aplicaciones de hipotecas, detectar indicios de problemas en las líneas eléctricas o ayudar a los conductores a navegar utilizando datos de ubicación de los teléfonos inteligentes.

Pero las empresas están aprendiendo de la peor manera que desarrollar e implementar sistemas de IA y de aprendizaje automático no es como implementar un programa de software estándar. Lo que hace que estos programas sean tan poderosos, su capacidad de “aprender” por sí mismos, también los hace impredecibles e inminentemente capaces de cometer errores que pueden dañar el negocio.

El reto de la Inteligencia Artificial: es susceptible a sesgos aprendidos

Con frecuencia escuchamos historias de casos de Inteligencia Artificial que salieron mal, situaciones que pueden tener serias consecuencias comerciales. Cuando se usaba la inteligencia artificial en las aplicaciones de oficina, la posibilidad de sesgo que se arrastraba era limitada, y también lo era el daño potencial. Ahora, la Inteligencia Artificial se usa tanto en soporte de decisiones de gestión como en aplicaciones orientadas a los clientes. Las empresas corren el riesgo de dañar la reputación y la vida de las personas, realizar giros estratégicos equivocados, ofender a los clientes y perder ventas. Con ello, el costo de los errores de IA está aumentando.

La lección aquí es que los sistemas de IA, a pesar de sus asombrosos poderes, aún necesitan de una intervención humana continua para evitar problemas y hacer mejor su trabajo. De hecho, las empresas están descubriendo que obtienen el máximo provecho de las inversiones en inteligencia artificial y otras herramientas de automatización cuando piensan en términos de que los seres humanos y las máquinas trabajen conjuntamente, en vez de dividir el trabajo entre humanos y máquinas y dejar que las máquinas funcionen independientemente.

Cuando se instala un software convencional, los desarrolladores humanos establecen los procedimientos y las reglas. Por el contrario, un sistema de IA desarrolla sus propias reglas a partir de patrones en los datos que está procesando. Y, como algunas empresas han aprendido, los sistemas de IA pueden equivocarse.

Tres principios para adoptar la IA exitosamente

Antes de introducirse en los sistemas de IA, las compañías deberían considerar tres principios que pueden mejorar las oportunidades de éxito:

    1. Humanos y máquinas están en esto juntos. La asistencia humana es necesaria para enseñar y monitorear los sistemas de IA de manera adecuada y evitar que lleguen a “terrenos peligrosos” con el paso del tiempo. Pero este no es un trabajo único para los departamentos de IT, sino que requiere de ambas partes, tanto técnica como empresarial.
    1. Enseña con (muchos) datos. Los sistemas de IA aprenden encontrando patrones en datos de entrenamiento gracias a diversos algoritmos. Por lo general, esto se hace con datos históricos e implica experimentar con diferentes modelos. Los modelos entrenados se evalúan estadísticamente y el modelo de mejor rendimiento se selecciona para implementarse en producción. Esto significa que la IA tiene mucho que aprender. La capacitación puede ser laboriosa desde el principio, pero con una metodología bien estructurada para desarrollar datos de capacitación imparciales, el tiempo de capacitación del sistema de inteligencia artificial puede reducirse en un 50%.
  1. Pon a prueba los resultados continuamente. Con los programas de IA, las pruebas no solo son críticas antes del lanzamiento, sino que también se convierten en una rutina constante. Los gerentes deben estar seguros de que el sistema entregará información precisa de una variedad de datos. Las pruebas de softwares tradicionales están determinadas: solo necesitan probar un número finito de escenarios; una vez que el programa ha sido probado para todos los escenarios posibles se garantiza que funcionará. Pero con la Inteligencia Artificial y el aprendizaje automático, no pueden predecirse todos los escenarios. Debe supervisarse y probarse continuamente el sistema para detectar los sesgos de datos, así como los sesgos que se desarrollan en los algoritmos que utilizan los programas para emitir juicios.

La nueva norma: enseñar, probar y trabajar con usuarios finales

Implementar IA eficazmente requiere una nueva concepción de cómo se desarrolla, instala y mantiene el software. Enseñar, probar y trabajar con usuarios finales de salidas de IA debe convertirse en una forma de vida, permitiendo que los sistemas de IA operen continuamente de manera más responsable, precisa y transparente, y permitiendo a las empresas crear nuevos trabajadores colaborativos y poderosos.

Transformación Digital

Si te interesa la temática te recomenadmos que visites los siguientes posts:

– Aprendizaje en Inteligencia Artificial: ¿es suficientemente impredecible?

– Inteligencia Artificial, en 2030 superará a la mente humana

– La Inteligencia Artifial y el Machine Learning de la mano con el Big Data

Share This
×

¡Hola, Bienvenid@ a Valuexperience!

Selecciona una de nuestras representantes disponibles para atenderte o envíanos un email a info@valuexperience.com

× ¿Cómo puedo ayudarte?