La Inteligencia Artificial esconde un enorme potencial a la hora de implementar operaciones de desinformación. Esto es cierto tanto para las agencias gubernamentales como, cada vez más, para organizaciones criminales, grupos insurgentes e incluso ciudadanos de a pie. Una problemática que se ha multiplicado desde que la Inteligencia Artificial generativa (IA generativa), capaz de crear imágenes y vídeos a partir de un contenido textual, permite compartir contenidos que son muy difíciles de discriminar por quienes los visualizan. Todo lo cual obligará a desarrollar nuevas herramientas de control, incluyendo el que habrá de establecerse sobre las empresas del sector.
El siglo XXI ha estado cargado desde su inicio por un fuerte componente de desarrollo tecnológico. Especialmente, la reciente evolución experimentada por la Inteligencia Artificial generativa (IA generativa) muestra claramente un cambio de ciclo en cuanto al perfeccionamiento de las capacidades informáticas se refiere.
El salto sin precedentes en la automatización del conocimiento tecnológico ha supuesto numerosos avances en tratamientos rutinarios de procesamientos de grandes volúmenes de datos e información, mejorando con ello la eficiencia. Sin embargo, la facilidad con la que el común de la ciudadanía puede acceder en estos momentos a herramientas informáticas avanzadas conlleva abrir la puerta a numerosas problemáticas de seguridad.
En particular, el avance de las inteligencias artificiales capaces de crear imágenes y vídeos a partir de un contenido textual obligará a los estados y a sus ciudadanos a tomar conciencia de las posibilidades que pueden llegar a tener las “deep fake” en la producción y difusión de contenido de carácter desinformador.
La desinformación, entendida como la difusión deliberada de información falsa, manipulada o sesgada con propósitos hostiles (De Pedro, 2019), tiene su máxima expresión gracias al poder de la Inteligencia Artificial (IA) en las “deep fake” o falsificaciones profundas –también conocidas como ultrafakes–, un tipo de engaño realizado a través de softwares capaces de crear vídeos o imágenes aparentemente reales para el público generalista pero eminentemente falsos.
La tecnología empleada por estas IA permite a su algoritmo aprender a identificar los patrones existentes en las imágenes de la persona que se quiere “falsificar” y a reproducirlos posteriormente en la creación de un producto completamente simulado, capaz de hacer creer a los visualizadores que alguien ha dicho o hecho algo que nunca dijo ni hizo.
Su utilidad resulta abrumadora frente a sociedades democráticas donde la información falsa puede llegar a tener un gran coste reputacional, electoral o económico. Pese al aspecto precoz de esta tecnología existen ya múltiples ejemplos de una instrumentalización para realizar actividades delictivas.
Solamente en los procesos electorales del último lustro ya podemos encontrar numerosos indicios de la amenaza que suponen los deep fakes para la democracia y la confianza en las Instituciones: en el año 2019 se difundieron imágenes falsas de la candidata presidencial de Filipinas, Leni Robredo, con objeto de falsificar su identidad como víctima de violencia doméstica; en 2020 un audio falso generado a través del clonado de la voz del presidente de Ghana, Nana Akufo-Addo, comentando presuntas corruptelas clientelares generó serias dudas sobre la integridad del presidente; en las elecciones presidenciales estadounidenses de 2020 se utilizaron deep fakes para difundir información falsa sobre ambos candidatos (Joe Biden y Donald Trump); en las elecciones generales españolas de 2023 se detectaron audios y videos fraudulentos de varios líderes políticos; y también en 2023, un deep fake en forma de video del presidente de Brasil, Jair Bolsonaro, realizando unas declaraciones racistas generó un fuerte sentimiento de indignación en la población y protestas en todo el país.
No obstante, la potencialidad lesiva de las deep fake no se limita a su instrumentalización como herramienta para erosionar procesos electorales, sino que también puede llegar a incidir en el plano económico de empresas y estados, siendo un ejemplo ilustrativo de esta práctica el acontecido en 2022, cuando un vídeo falsificado de Elon Musk promoviendo una estafa relacionada con criptomonedas provocó que numerosas personas perdieran su dinero engañados por unas falsas declaraciones que les animaban a invertir en productos de riesgo.
Unas pérdidas económicas a las que habría que sumar las producidas por el daño reputacional que se ocasiona a la empresa, Institución, o al individuo en su prestigio profesional y personal, pues no olvidemos que éstas acciones constituyen en sí mismas un delito de suplantación de identidad –que además generalmente deriva en una instrumentalización y en la comisión de diversos delitos de estafa.
La guerra de Ucrania también ha sido uno de los escenarios donde hemos podido observar la potencialidad de los deep fake en la elaboración de operaciones de desinformación. Si bien, en líneas generales, una importante cantidad de los videos realizados durante el conflicto han sido de naturaleza humorística (como los difundidos del presidente Vladimir Putin protagonizando escenas míticas de películas como El Hundimiento (Der Untergang) o el Gran Dictador de Charlie Chaplin de 1940, también encontramos vídeos más sofisticados en términos de desinformación, como el difundido el 18 de febrero de 2022 en un canal de noticias ucraniano del presidente Zelenski instando a las tropas y ciudadanía ucranianas a rendirse dado que la guerra supuestamente había terminado[1] (Twomey et al, 2023).
De estos ejemplos extraemos una doble conclusión: primero que las deep fake suponen una erosión importante en la confianza que los ciudadanos depositan en sus Instituciones y líderes; y, en segundo lugar –por extensión–, que herramientas como las IA generativas capaces de facilitar el acceso a la creación de deep fakes suponen un importe reto para los estados democráticos y sus ciudadanías.
Al fin y al cabo, la revolución tecnológica que supone la inteligencia artificial no ha hecho más que globalizar e implementar de forma magnificada (tanto en magnitud, como en frecuencia y eficacia, gracias a bajo coste y múltiples beneficios) un fenómeno explotado numerosas veces a lo largo de la historia, el de la desinformación: “es indispensable desmoralizar a la nación enemiga, prepararla para capitular, constreñirla moralmente a la pasividad, incluso antes de planear cualquier acción militar… No vacilaremos en fomentar revoluciones en tierra enemiga” (Joseph Goebbles, ministro para la Ilustración Pública y Propaganda del Tercer Reich alemán, en Rauschining, 1940).
La potencialidad de la IA generativa para vulnerar la seguridad pública a través de la sofisticación de campañas de desinformación supone un hecho evidente, al menos así lo demuestran los esfuerzos realizados por distintos estados en su objetivo de controlar su doble uso (civil/militar).
Estados Unidos resulta quizás el Estado que más esfuerzos viene realizando en el control de este tipo de tecnología, tal y como demuestra el interés de la orden ejecutiva del año 2023 del presidente de Estados Unidos, Joe Biden, sobre la identificación de empresas que desarrollan grandes modelos de IA de doble uso y de sus proveedores de infraestructuras.
O, más recientemente, la propuesta del Departamento de Comercio de EE.UU. respecto a una regulación más restrictiva de los extranjeros que operan servicios de entrenamiento de grandes modelos de IA que puedan ser utilizados en productos de doble uso. Todo ello con vistas a evitar que ciudadanos y empresas extranjeras (en especial China) logren eludir las restricciones impuestas a la exportación de productos tecnológicos (Dobberstein, 2024).
El objetivo de la Casa Blanca es claro: establecer un control político sobre sistemas que podrían representar un grave riesgo para la seguridad nacional, la seguridad económica o la salud pública estadounidense. O, dicho de otra forma, monitorizar a las empresas que poseen o planean poseer clústeres de IA a gran escala, conocer la escala de la potencia informática que éstas serían capaces de desplegar y la ubicación de las instalaciones.
El control más obvio y fácilmente realizable radica en los componentes hardware necesarios para desarrollar y entrenar IA generativas capaces de generar imágenes y vídeos fraudulentos. Por un lado, prácticamente la totalidad de la producción de los chips necesarios para este desarrollo radica en tres empresas (Nvidia, AMD e Intel), por otro lado, las limitaciones impuestas sobre la producción y fabricación de semiconductores también ayuda a los responsables políticos a restringir la venta de estos productos y a controlar el acceso de personas de poca confianza o de estados competidores (Quach, 2023).
Sin duda, la mayor problemática respecto al control del doble uso de las IA radica en la característica intangible de los datos que entrenan los algoritmos de los modelos de inteligencia diseñados y a los umbrales mínimos establecidos.
(Continúa…) Estimado lector, este artículo es exclusivo para usuarios de pago. Si desea acceder al texto completo, puede suscribirse a Revista Ejércitos aprovechando nuestra oferta para nuevos suscriptores a través del siguiente enlace.
Be the first to comment