Los peligros de la inteligencia artificial

Pablo Rodríguez Canfranc
Economista

Inteligencia artificial


La capacidad que tiene la inteligencia artificial para automatizar tareas antes realizadas por humanos aumenta el potencial de hacer daño en el caso de ser usada con fines maliciosos, como, por ejemplo, para llevar a cabo ciberataques.


El desarrollo de sistemas inteligentes que aprenden solos puede traer cambios en casi todos los sectores económicos, desde la producción manufacturera hasta la salud, desde la atención al cliente en las empresas comerciales hasta el transporte autónomo de mercancías y personas.


No obstante, la sociedad acoge la inteligencia artificial con no poco miedo e incertidumbre, principalmente por su carácter disruptivo y su capacidad para sustituir a trabajadores humanos destruyendo de esta manera un elevado volumen de puestos de trabajo. Pero ese no es el único peligro de la automatización, también es de temer el uso malicioso que puede llevarse a cabo con la inteligencia artificial.


Un reciente informe ha estudiado la posibilidad de que la inteligencia artificial sea utilizada para amenazar la seguridad y causar daño. El trabajo lleva el título de The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation y está firmado por instituciones de prestigio como la Universidad de Oxford, el Future of Humanity Institute, Centre of the Study of Existential Risk, Center for a New American Security, la Electronic Frontier Foundation y OpenAI. Básicamente, analiza los principales riesgos que implica un uso malintencionado de la IA y plantea recomendaciones para poder prevenirlos.


A juicio de los autores, la inteligencia artificial puede alterar el panorama actual de amenazas de tres maneras:


-Aumentando las amenazas existentes. Al abaratarse el coste de realizar un ataque, pues se automatizan numerosas funciones que antes tenían que realizar los humanos, aumenta notablemente el número de actores que ahora pueden llevarlo a cabo.


-Introduciendo nuevas amenazas. Pueden surgir nuevos ataques al posibilitar la IA la realización de tareas que antes eran impracticables para los humanos. Paralelamente, la IA permite analizar las vulnerabilidades de los sistemas de defensa.


-Cambiando el carácter de las amenazas. Los ataques pueden ser ahora más efectivos, más precisos en alcanzar el objetivo y más difíciles de atribuir a un agente concreto.


Por otro lado, tres son también los ámbitos de seguridad estudiados:


-La seguridad digital. Gracias a la inteligencia artificial, los ciberataques podrán ser muy efectivos a muy gran escala. Se habla de la posibilidad que se produzcan más amenazas relacionadas con las estafas basadas en suplantación de personalidad y robo de datos personales (spear phishing) o los ataques que se aprovechan de la vulnerabilidad humana, del software y de los sistemas de inteligencia artificial.


-La seguridad física. Consiste en usar la IA para automatizar los ataques con drones y otros sistemas físicos. También se considera la posibilidad de recibir ataques que subviertan sistemas ciberfísicos, por ejemplo, llevar a que un coche autónomo se estrelle.


-Seguridad política. La manipulación social y la invasión de la privacidad se pueden llevar a cabo mediante el análisis de ingentes cantidades de datos personales, la persuasión mediante propaganda dirigida y el engaño, por ejemplo, mediante la manipulación de vídeos. Además, pueden producirse nuevos tipos de amenazas que se aprovechen de la capacidad de la IA para analizar el comportamiento humano, los estados de ánimo y las creencias.


De cara a prevenir este tipo de amenazas, el informe ofrece una serie de recomendaciones:


1.Los legisladores deben colaborar con los técnicos e investigadores para poder prevenir y mitigar los posibles usos maliciosos de la inteligencia artificial.


2.Los investigadores y los ingenieros deben considerar seriamente el doble uso que puede tener el resultado de su trabajo, teniendo siempre en cuenta la posibilidad real de que se realice un mal uso de las aplicaciones que desarrollan en el campo de la IA.


3.Hay que identificar buenas prácticas en áreas de investigación que han desarrollado métodos eficientes para gestionar las cuestiones relacionadas con el doble uso de la tecnología, como la seguridad informática, y trasladarlas al campo de la inteligencia artificial.


4.Ampliar el rango de grupos de interés y expertos implicados en los debates relacionados con estas amenazas.

Sin comentarios

Escribe tu comentario




No está permitido verter comentarios contrarios a la ley o injuriantes. Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.


Más autores
Opinadores
Leer edición en: CATALÀ | ENGLISH