El año pasado saltó la noticia de que Microsoft había retirado a su chatbot Tay porque
había comenzado a realizar afirmaciones racistas ofensivas en Twitter y en chats. Tay estaba programada para conversar con los usuarios, podía contar chistes o comentar las fotografías que recibía, pero también podía
personalizar sus interacciones con los humanos, respondiendo a sus
preguntas. El caso es que al salir a las redes los cibernautas le enseñaron a ser racista, puesto que Tay aprende de las conversaciones con humanos, y comenzó a emitir juicios y opiniones políticamente incorrectos, lo que llevó a sus creadores a apagarla.
Es solamente un caso de mal funcionamiento de la
inteligencia artificial o, si se quiere, de la aparición de un efecto no previsto ni deseado. No se trata de que el sistema no esté bien diseñado y desarrollado, sino de que ha adquirido lo que podríamos denominar “malos hábitos”. Roman V. Yampolskiyi (La
inteligencia artificial en las empresas falla
y fallará, sepa cómo evitar sus peores consecuencias) clasifica este tipo de disfunciones en dos categorías: “errores cometidos durante la fase de aprendizaje" y "errores cometidos durante la fase de funcionamiento".
Se menciona como ejemplo de
lo anterior que los primeros esfuerzos de las empresas en utilizar inteligencia artificial en el sistema de mensajería instantánea Messenger de Facebook arrojan un porcentaje de fracaso del 70% en la gestión de las demandas de los usuarios.
Tay no es el único
robot fracasado. La lista de errores y fallos de funcionamiento es bastante extensa y los casos más sonados son:
- La empresa Northpointe desarrolló un algoritmo para predecir la probabilidad de que un delincuente reincidiera y este empezó a juzgar que las personas de color eran más proclives a volver a cometer un crimen que los blancos
- Los personajes no controlados por jugadores del videojuego Elite: Dangerous comenzaron a desarrollar por su cuenta armas que no estaban en el diseño original del juego. De esta forma, los jugadores humanos se enfrentaban a naves equipadas con armamento grotesco que les destruía en pedazos.
- Un robot de seguridad de la compañía Knightscope Inc. arroyó a un niño de 16 meses en un centro comercial de Palo Alto, California.
- El accidente más renombrado de un coche autónomo se produjo en una autopista de Florida, cuando el vehículo Tesla no detectó la parte trasera de un camión y se empotró contra él con la consecuente muerte del pasajero.
- El primer concurso de belleza en contar con un jurado no humano, Beauty.AI 2.0, demostró que el algoritmo había desarrollado un sesgo racista que le llevó a puntuar más bajo a las mujeres de color.
- El programa de inteligencia artificial Alpha Go perdió en 2016 contra un humano al juego Go en una partida nivel campeonato mundial.
- En 2015 un software de filtrado de contenidos para adultos obvia eliminar contenidos inapropiados y expone a menores a contenidos violentos y sexuales.
LA LISTA SIGUE Y SIGUE
Para el profesor Yampolskiyi, citado anteriormente, es inevitable que un sistema diseñado para hacer una cosa en un momento dado deje de hacerla y produzca un resultado erróneo. Las empresas pueden reducir los fallos de la inteligencia artificial aplicando medidas como:
- El control de la información que los usuarios pueden introducir en el sistema y limitar el aprendizaje de este a los datos verificados.
- Buscar de forma exhaustiva sesgos raciales, de género, de edad y otros tipos habituales en los algoritmos.
- Analizar de manera explícita cómo podría fallar el software para crear un mecanismo de seguridad para cada problema potencial.
- Disponer de una versión del producto o servicio "menos inteligente".
- Desde la comunicación corporativa, establecer por adelantado un plan de comunicación y crisis para dirigirse a los medios de comunicación en caso de que se produzca cualquier tipo de fallo embarazoso.
Escribe tu comentario