Máquinas que funcionan sin que sepamos cómo

Pablo Rodríguez Canfranc
Economista

1121639


Los vates de la era tecnológica han augurado un futuro cercano distópico en el que los robots desplazan a la fuerza de trabajo humana. Se trata de sistemas cibernéticos altamente complejos que aprenden solos de la experiencia emulando el cerebro humano. Hasta tal punto son sofisticadas las redes neuronales de la inteligencia artificial que a menudo sus programadores no entienden por qué la máquina toma las decisiones que toma. La pregunta que surge ahora es ¿podemos dejar tareas relevantes en manos de máquinas cuyo comportamiento es impredecible e inescrutable?


Supongamos que un alto ejecutivo de una empresa absolutamente experto en su área profesional recurre a un sistema de inteligencia artificial para tomar una decisión o llevar a cabo una tarea. La máquina en cuestión ejecuta una maniobra extraña o arriesgada relacionada con el tema que sorprende al ejecutivo. Si el trabajo le hubiese sido encargado a un humano, siempre se le puede preguntar qué le ha llevado a hacer lo que ha hecho o sugerido hacer, pero al tratarse de algoritmos tan complejos, ni los propios programadores pueden saber por qué toman determinadas decisiones.


En mayo de 2016 el programa informático AlfaGo de Google DeepMind derrotó a uno de los mejores jugadores del mundo del milenario juego de mesa chino Go, Lee Sedol. Al analizar las técnicas y jugadas de AlfaGo, sus propios programadores no pueden explicar porque realiza determinados movimientos. Al estar la información del programa dispersa por numerosas franjas de la red neuronal, no es posible recopilarla para obtener una explicación concisa sobre una acción concreta.


El peligro actual es que la ignorancia humana sobre los procesos que subyacen en la inteligencia artificial la convierten en impredecible y potencialmente peligrosa, en cuanto a que un sistema se puede comportar de forma totalmente inesperada. Por ejemplo, un coche autónomo que ha aprendido a circular solo estudiando comportamientos humanos, un buen día podría estrellarse contra un árbol y nosotros no saber por qué lo ha hecho.


El Hospital Mount Sinai de Nueva York tiene en marcha un programa de deep learning denominado Deep Patient cuyo fin es ayudar predecir enfermedades. El sistema se nutre de una base de datos de 700.000 pacientes –toda suerte de Big Data de cada individuo: consultas, dolencias, hábitos…-, y ha demostrado una gran precisión a la hora de anticipar posibles enfermedades en una persona. En concreto, es sumamente eficaz a la hora de diagnosticar anticipadamente desórdenes mentales como la esquizofrenia, algo muy difícil de realizar para los psiquiatras. Y lo peor es que nadie entiende cómo puede hacer esto Deep Patient para poder aprender de él. El director del equipo en Mount Sinai, Joel Dudley, afirma: "podemos construir estos modelos, pero no sabemos cómo funcionan".


En este estado de cosas, ¿podemos hablar de sustituir mano de obra por máquinas inteligentes cuando no comprendemos su forma de razonar o reaccionar? A lo mejor este factor inesperado de la evolución de la inteligencia artificial frena la sustitución de capital humano. No podremos confiar en los robots hasta que no lleguemos a comprenderlos del todo. ¿O acaso nos arriesgamos a dar ese "salto al vacío" de fe en los algoritmos informáticos?


Sin comentarios

Escribe tu comentario




No está permitido verter comentarios contrarios a la ley o injuriantes. Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.


Más autores
Opinadores
Leer edición en: CATALÀ | ENGLISH