Chat GPT-4, la inteligencia artificial de OpenAI capaz de generar contenido e interactuar con el usuario, ha experimentado un importante desarrollo en la evolución del lenguaje sintáctico, emulando de forma cada vez más certera la interacción humana. El gran avance que supone el desarrollo de este tipo de herramientas es, además de un riesgo, una oportunidad. En última instancia, es fundamental que seamos conscientes de que las diferentes inteligencias artificiales ya existentes y venideras supondrán importantes retos para la seguridad, a la vez que serán un importante apoyo en la implementación de la defensa.
“Ley Cero: Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.
Primera Ley: Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
Segunda Ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley”.
(Asimov, 2009)
Seguramente, las leyes enunciadas no resultan extrañas para la inmensa mayoría de los lectores de este Focus, pues, no en vano han trascendido con el devenir de los años la literatura y el cine de ciencia ficción, transformándose en un auténtico axioma de la robótica.
Desde el inicio de los tiempos, los seres humanos han intentado comprender el funcionamiento de la vida y las múltiples relaciones que ésta establece con el entorno, empleando para ello las herramientas de las que disponía a su alcance: religión, superstición, filosofía y ciencia son solamente algunas de las disciplinas con las que el ser humano ha tratado de llenar los múltiples vacíos de información con los que se ha encontrado a lo largo de la Historia.
La idea de emular a la naturaleza y crear vida artificial ha sido otra de las constantes de pensamiento en la historia de la humanidad, tal y como demuestran el mito griego de Pigmalión, la idea mitológica del Gólem judío, la infinidad de rituales mágicos que podemos encontrar vinculados a la alquimia y sus intentos de creación de homúnculos, o más reciente en nuestros días, la creación de tejidos biológicos sintéticos mediante la ciencia, o el desarrollo de inteligencia artificial (IA) mediante la robótica y la informática.
Precisamente, el avance de la ciencia y la tecnología, ligado a la capacidad imaginativa y creadora de los seres humanos, es lo que nos permite en la actualidad ser capaces de creer en la posibilidad de crear un ser autómata y artificial capaz de emular los pensamientos humanos.
La realidad a veces supera la ficción con el paso de los años, e inventos inimaginables para nuestros antepasados son hoy herramientas en desarrollo para nosotros. La reciente evolución que están experimentando las inteligencias artificiales generativas demuestran un cambio de paradigma en la utilización de la tecnología.
Chat GPT-4, la inteligencia artificial de OpenAI capaz de generar contenido e interactuar con el usuario, ya ha experimentado un importante desarrollo en la evolución del lenguaje sintáctico, emulando de forma cada vez más certera la interacción humana –al nutrirse de métodos de aprendizaje automáticos a través de su inmensa comunidad de usuarios–, y es capaz de generar contenido propio, no limitándose a ofrecer resultados textuales.
Microsoft, OpenAI y Google son principalmente las empresas responsables del proceso de popularización de una tecnología que pone al servicio del usuario medio los conocimientos necesarios para trascender sus propias capacidades intelectuales y de aprendizaje.
Las ventajas que la inteligencia artificial puede suponer para múltiples disciplinas de estudio son prácticamente inimaginables, ya que, por un lado, permite la automatización y planificación prácticamente completa de las tareas más rutinarias y tediosas; y por otro, facilita en gran medida cualquier procedimiento que precise de un procesamiento de grandes volúmenes de datos e información –siendo de especial relevancia esta última palabra, pues es aquí donde encontramos la principal diferencia respecto a la tecnología contemporánea.
Si bien, los distintos programas informáticos ya existentes permiten un procesamiento y automatización de cantidades ingentes de datos –con todo lo que ello conlleva–, lo cierto es que, la tecnología actual todavía es incapaz de analizar estos datos y convertirlos en información –y mucho menos inteligencia– sin la intervención del operador humano.
Es aquí donde radica la principal diferencia y ventaja competitiva de la inteligencia artificial, ya que, éstas pueden no solamente acceder a ingentes cantidades de datos en fuentes abiertas, sino también, procesarlas de una forma estructurada mediante un ciclo de generación de hipótesis y entrega de un producto discursivo bastante asimilable a la lógica humana.
Por el momento, las inteligencias artificiales existentes no pueden sustituir la creatividad humana ni tampoco discernir la fiabilidad y credibilidad de las fuentes que encuentran a su alcance, por lo que, un análisis de inteligencia realizado por éstas dejaría aún mucho que desear. Sin embargo, la solventación de estas cuestiones parece ser cuestión de tiempo, pues las IA pronto serán capaces de realizar procesamientos de valoración de anomalías en base al bucle constante de aprendizaje y reconocimiento de patrones.
En lo que a la ciberdefensa y la ciberinteligencia se refiere son varias las áreas en las que la inteligencia artificial comienza a ser hoy por hoy imprescindible, como son la identificación de usuarios, la detección y mitigación de vulnerabilidades en sistemas, el desarrollo y detección de malware o la implementación de capacidades ofensivas en el ciberespacio (Cubeiro Cabello, 2020).
No resulta difícil pensar que, la facilitación de acceso al usuario medio de determinados servicios de una forma automática y fácil entraña una serie de riesgos para la seguridad, tal y como sugiere el National Cyber Security Centre (David & Paul, 2023).
Con la popularización de Chat GPT, la comunidad de cibercriminales rápidamente encontró una herramienta capaz de poner a su disposición códigos de malware complejos de una forma rápida y sencilla pese a las barreras impuestas por OpenAI, empoderando de esta forma a unos actores nocivos que, si bien no tienen aparentemente las capacitaciones técnicas necesarias, sí que serían capaces de seguir una receta paso a paso[1] [2].
Tal y como demostraron los investigadores de HYAS Labs, con la creación de BlackMamba, un keylogger polimórfico con capacidad para modificar dinámicamente su código en tiempo de ejecución sin ninguna infraestructura de comando y control gracias a la tecnología de Chat GPT y el lenguaje de gran tamaño (LLM), capaz de escapar de los sistemas de seguridad automatizados actuales orientados hacia soluciones de seguridad predictivas y EDR (detección y respuesta de punto final).
Así, BlackMamba puede recopilar información confidencial de un dispositivo, (nombres de usuario, contraseñas, números de tarjetas de crédito, etc.); enviarlos a través de una plataforma de colaboración común y confiable (Microsoft Teams); para posteriormente explotarlos de la forma más lucrativa posible (vendiéndolos en la Dark Web o usándolos para perpetrar nuevos ataques).
(Continúa…) Estimado lector, este artículo es exclusivo para usuarios de pago. Si desea acceder al texto completo, puede suscribirse a Revista Ejércitos aprovechando nuestra oferta para nuevos suscriptores a través del siguiente enlace.
Be the first to comment