Cómo convivir con un robot

Pablo Rodríguez Canfranc
Economista

Robot


“Lo siento Dave, pero de acuerdo con la subrutina C1532/4, cito, «cuando la tripulación esté muerta o incapacitada, el ordenador debe asumir el control», fin de la cita. Debo, por tanto, asumir tu autoridad ahora dado que no estás en condiciones para ejercerla con inteligencia”. 2001: Una Odisea del Espacio (Stanley Kubrick, 1968). 


Lo que a finales de los años sesenta, cuando fue rodada la película 2001: Una Odisea del Espacio, no era más que una ficción cinematográfica, -la existencia de ordenadores que realizan tareas antes exclusivas de los humanos-, comenzó a cobrar visos científicos dos décadas más tarde, cuando Christopher Langton acuñó el término “inteligencia artificial”. Cincuenta años más tarde nos hallamos en plena revolución tecnológica, asistiendo a la incorporación de máquinas inteligentes en innumerables campos, desde los automóviles a las fábricas, desde la construcción al trabajo administrativo de oficina. Aparentemente, no hay límite para los robots, que cada vez en mayor grado asumen tareas de carácter complejo y creativo.


La creciente convivencia entre hombres y máquinas en entornos laborales, de ocio y domésticos, plantea el establecimiento de un marco de relaciones entre ambos, algo que tradicionalmente quedaba en el terreno de la ciencia ficción. De esta forma, el escritor Isaac Asimov ya en 1942 postuló las tres leyes de la robótica, que básicamente establecen que un robot no debe dañar a las personas ni permitir que estas se dañen, que debe obedecer a los humanos excepto si quebranta la primera ley, y finalmente, que tiene que proteger su propia existencia sin romper las dos leyes anteriores.


No obstante, nos damos cuenta de que ya no hablamos de ficción sino de una auténtica revolución de la robótica cuando vemos que empresas tecnológicas como Google y Microsoft han desarrollado sus propias propuestas de leyes en este campo, e incluso cuando la propia Unión Europea ha iniciado un debate, a través de un informe publicado el junio pasado, para el desarrollo de un marco regulador ético para el diseño, la producción y el uso de robots. La polémica ha surgido cuando la Comisión Europea habla de que, por lo menos los robots más sofisticados, podrían recibir el estatus de “personas electrónicas”, con derechos específicos y obligaciones.


Los conflictos entre el hombre y la máquina pueden aflorar al tener que compartir el desempeño de tareas. La inteligencia artificial es más precisa que el ser humano y tiene más rápida capacidad de reacción, lo que hace, por ejemplo, que en aviación sea obligatorio el uso del piloto automático en algunas fases del vuelo. Una persona puede no entender y malinterpretar como mal funcionamiento la programación de una máquina, y sentirse obligada a intervenir. Por ejemplo, un conductor puede creer que el ordenador de un automóvil está llevando a cabo una maniobra arriesgada, cuando todo está bajo perfecto el control de la máquina, tomar el control manual y provocar un accidente.


¿Llegará el momento en que los ordenadores le quiten el mando de la misión a un humano al juzgarle incompetente para ejercerlo, como hace HAL9000 en 2001 Odisea del espacio? El tiempo lo dirá. 

Sin comentarios

Escribe tu comentario




No está permitido verter comentarios contrarios a la ley o injuriantes. Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.


Más autores

Opinadores
Leer edición en: CATALÀ | ENGLISH