La eterna popularidad de la ciencia ficción apocalíptica o distópica, esas oscuras fantasías que imaginan un horrible futuro para la humanidad, demuestran la fuerza que tienen estas historias para canalizar los temores e inquietudes de una determinada época.
¿Black Mirror tenía razón? Expertos advierten sobre los graves peligros tecnológicos emergentes

Nos fascinan las historias futuristas pesimistas y desesperanzadas, tal vez porque de un modo retorcido nos dejan la satisfacción de saber que todavía no hemos llegado tan lejos.
En nuestros tiempos, la ficción que parece haber condensado esta paranoia social colectiva es Black Mirror, la serie en la que un pequeño salto evolutivo tecnológico, o la simple voluntad de explotar de un modo diferente una tecnología ya existente, origina un giro dramático y potencialmente trágico.
Más allá de lo inventivo e ingenioso de sus historias, el mensaje de la serie, el hilo conductor conceptual, es claro y repetitivo hasta el cansancio, casi redundante a lo largo de todos los episodios: la sobreabundancia tecnológica en nuestras vidas cotidianas nos puede conducir a escenarios perturbadores o aterradores.

Curiosamente, la tesis de Black Mirror es muy similar a la conclusión a la que han arribado 26 autores de diferentes campos —miembros de la academia, la sociedad civil y de la industria tecnológica—, en un nuevo reporte acerca de la inteligencia artificial, un concepto omnipresente en la serie.
La expansión y disponibilidad de la inteligencia artificial
«El uso malicioso de la inteligencia artificial: pronóstico, prevención y mitigación» se titula el informe, realizado en conjunto entre diferentes instituciones, entre ellas, la Universidad de Oxford, la de Cambridge, la fundación Electronic Frontier, el Instituto para el futuro humano y la compañía de investigación OpenAI (fundada por Elon Musk).
El reporte sostiene que, mientras que las ventajas de la inteligencia artificial y el aprendizaje de máquinas han sido ampliamente discutidas y comentadas, no se le ha prestado tanta atención a los potenciales usos maliciosos que pueden dársele.

Se enfoca, entonces, en los diferentes ataques y amenazas que presenta esta tecnología y que, según los expertos, si no se toman precauciones, van a ocurrir pronto.
El reporte indica tres consecuencias que veremos a medida que la inteligencia artificial (IA) sigue expandiéndose y volviéndose accesible para más gente:
- Una expansión de amenazas ya existentes, simplemente al haber más personas que pueden acceder a sistemas IA, lo que también aumenta la posibilidad de que ocurra un ataque y ensancha el grupo de potenciales objetivos.
- La introducción de nuevas amenazas, a través del uso de sistemas IA que podrían llevar a cabo tareas que serían impracticables por los humanos.
- Un cambio en las características típicas de las amenazas, con ataques más efectivos, mejor definidos, difíciles de atribuir y que pueden explotar nuevas vulnerabilidades en sistemas IA.
¿Qué amenazas presenta la inteligencia artificial?

Los investigadores definen tres áreas vulnerables:
Seguridad digital
Aquí se presentan los casos más evidentes y ya conocidos, ciberataques como el spear phishing que podrían resultar más sofisticados y efectivos con nuevos desarrollos de IA.
Pero también se esperan nuevos tipos de ataques que se aprovechen de vulnerabilidades humanas, utilizando por ejemplo un sintetizador de voz para hacerse pasar por otra persona.
La seguridad digital también se ve amenazada por vulnerabilidades de software (hacking automatizado) o de los propios sistemas IA (manipulación de datos).
Seguridad física
El uso de IA para tareas automatizadas hace posible ataques a través de sistemas físicos, que van desde la manipulación de drones y vehículos autónomos, hasta el desarrollo de nuevos tipos de armas igualmente autónomas.
Seguridad política
Finalmente, ataques mediante IA pueden afectar sistemas de vigilancia, y pueden orientarse a la persuasión política (creando propaganda segmentada) y al engaño (manipulación de videos). También a la invasión de la privacidad y la manipulación social.
Los expertos presagian ataques que se aprovechan de la mejora en las capacidades para analizar el comportamiento humano, los estados de ánimo y las creencias basadas en la información a la que se accede.
Este tipo de preocupaciones son más significativas en estados autoritarios, pero según el reporte, también amenazan la capacidad de los países democráticos de mantener un debate público veraz y honesto.
Hace pocos días se informó de la popularidad que estaba cobrando entre los usuarios de Reddit una app que a través de un sistema IA permite cambiar el rostro de una persona en un video por el de otra persona cualquiera (subiendo al sistema fotos de esa otra persona) con un resultado extremadamente convincente, y mediante un procedimiento sencillo que cualquiera puede realizar sin necesidad de tener amplios conocimientos de computación o software.
Actualmente se estaba utilizando la app para hacer falsos videos pornográficos de celebridades, pero si su uso se extiende más allá, una herramienta como ésta podría ser muy peligrosa en ámbitos políticos y sociales, o expandir las posibilidades del fenómeno de «fake news», noticias inventadas que se vuelven virales en la red.
Prevención de los peligros

Para prevenir o mitigar estos peligros, el reporte propone cuatro recomendaciones:
1. Políticos y legisladores deben trabajar en estrecha colaboración con investigadores y técnicos del área de IA.
2. Los investigadores y desarrolladores de IA deben tener en cuenta seriamente la doble naturaleza de su trabajo, permitiendo que las consideraciones relativas a su uso maligno sea una influencia prioritaria en la investigación y la creación de normas, y apuntando activamente a actores responsables cuando se prevén aplicaciones dañinas de la tecnologías.
3. Mejorar las prácticas en áreas de investigación y los métodos para ocuparse de las inquietudes sobre un posible uso maligno.
4. Intentar expandir el rango de interesados y el dominio de expertos involucrados en la discusión de estos desafíos.









