Auftragstaktik, GPT-3 CODEX y human-machine teams

El término germano Auftragstaktit, que podría traducirse por «táctica misión-tipo» hace referencia a la práctica consistente en comandar en base a directivas en lugar de a órdenes. Es decir, que se trata de dar al subordinado una idea general del objetivo a lograr, dejándole una importante libertad de decisión a la hora de establecer la forma en la que dichos objetivos debían alcanzarse, a diferencia de lo que ocurría con el sistema basado en órdenes exactas, en el que todo quedaba marcado hasta el último detalle, anulando la iniciativa de los mandos intermedios. En tiempos en los que la Inteligencia Artificial (IA) está cobrando una importancia cada vez mayor dentro de los campos de batalla, cómo compaginar la Auftragstaktit con el papel de las inteligencias no humanas es un asunto crucial, pues son muchos los obstáculos que se presentan de cara a su «entendimiento» por parte de IAs no biológicas. La solución, a la espera de lo que nos depare el futuro, pasará por el desarrollo de equipos hombre-máquina o human-machine teams en los que la IA permitirá al humano liberarse de buena parte de la carga de trabajo, facilitando aquellas tareas para las que es más apto, como la toma de decisiones.

Auftragstaktik (en inglés, Mission-type tactics o mission command) es una de las joyas de la corona intelectual del modo prusiano-alemán de hacer la guerra. Como todo concepto exitoso y llamativo, ha tentado a sucesivos pensadores a hacer un uso excesivamente libérrimo del mismo. Llevando el concepto a la primera persona, tenemos que

In the German Army we use what we term “mission tactics”; orders are not written out in the minutest detail, a mission is merely given to a commander. How it shall be carried out is his problem. This is done because the commander on the ground is the only one who can correctly judge existing conditions and take proper action if a change occurs in the situation (Von Schell,1933, citado por Vandergrif, 2018)

Expresado en términos más cercanos a nosotros en el tiempo

Auftragstaktik emphasizes commander’s intent, which provides subordinates a framework for making their own decisions in harmony with the overall plan: “The German Army used mission statements…in the form of the commander’s intent…The commander then assigned tasks (Aufträge) to subordinate units to carry out his superior’s intent. The subordinate commander decided upon a specific course of action which became his resolution (Entschluss).” (Nelsen, 1987, citado por Vandergrif, 2018)

Al contrario que vaporosos conceptos contemporáneos, la descentralización del mando alude a toda una realidad: a una cultura que comenzaba a la vez que la formación de los oficiales, continuaba como objetivo y centro de dicha formación y terminaba con la definición y actualización del resto de la doctrina y marcando la pauta en ejercicios y en operaciones. Como nos indica Vandergrif (2018), no se puede importar Auftragstaktik de manera efectiva en unas fuerzas armadas si no se integra al nivel de profundidad mencionado, lo que no es obvio ni tiene garantizado el éxito. Sólo un tipo de oficial, en palabras del autor, puede implementar de forma exitosa la descentralización del mando. Y a ese oficial se le selecciona y se le forma de maneras muy concretas.

Sea como fuere, la historia ha demostrado repetidamente que una doctrina o, en palabras de Citino (2005), un modo de hacer la guerra basado en órdenes detalladas (Befehlstaktik, empleando los términos alemanes de hace un siglo) es tanto menos adaptable a las condiciones cambiantes de operaciones en curso como más lento en el ciclo de decisiones. Con la primera madurez de la introducción de las tecnologías de la información digitales para la gestión del campo de batalla, la cantidad, calidad y cercanía al tiempo real de los distintos feeds de información provocan que la única opción realista sea una iteración moderna de Auftragstaktik como las que se recogen dentro del concepto más amplio de intent dentro de distintas formulaciones doctrinarias en la OTAN.

Auftragstaktik y sus variaciones e iteraciones se crearon en un momento en el que los únicos que las podían emitir y recibir eran seres humanos. Ya entrados en este siglo, hay otros posibles receptores no humanos (los sistemas autónomos, robóticos o no robóticos) para los que su futura autonomía invita a la pregunta de si pueden recibir un equivalente a un Aufträge. Vayamos por partes.

La libertad que el sistema de Auftragstaktik concedía a los mandos intermedios germanos estuvo detrás de los impresionantes éxitos obtenidos por ejemplo en el Frente Oriental.

La orden como un problema de procesamiento de lenguaje natural

Los desarrollos de este siglo en Deep Learning están provocando cambios transformacionales en un enorme abanico de campos. Dentro de la defensa, no paran de crecer las aplicaciones y la evolución de las mismas. Al mismo tiempo, en todos los campos se sigue manteniendo cierto nivel de confusión, cuando no de alarmismo o de activismo, sobre lo que la “Inteligencia Artificial” puede o no puede lograr.

Queda para mejor ocasión profundizar en el entrecomillado que acabo de emplear con IA. El empleo del término “inteligencia” ha provocado ríos de tinta y discusiones de décadas que distan de estar acabadas. A estas alturas, es innegable que es una de las fuentes de confusión y conflicto sobre la naturaleza y posibilidades cercanas y lejanas de estos sistemas de software. Como quiera que “inteligencia” es un término no sólo humano, sino ontológicamente humano, es muy difícil evitar juzgar o extrapolar la “inteligencia” no biológica sin emplear valores, capacidades y posibilidades. De hecho, cada vez son más las voces que se alzan contra el término IA, como Peter Thiel:

Always skeptical of buzzwords, he went on to say he hates the word “AI” (artificial intelligence):

AI is the worst buzzword out there. And one of the reasons it’s such a terrible buzzword is it can mean just about anything. So it can mean something about futuristic computer technology, the next generation of computers, the last generation of computers, and anything in between.

(VV.AA., 2021)

Uno de los problemas principales y más persistente es considerar la capacidad derivada de la inteligencia artificial como un todo coherente. Si un sistema dispone de capacidades de IA, se puede asumir erróneamente que estas capacidades le darán cierto grado de autonomía para operar por sí mismo. Y aquí llega James Cameron con su T800 que tiene datos precisos

image.png

Todavía podría ser el caso si el killer robot al que hay que detener vía campañas internacionales dispusiera de IA de propósito general (o “fuerte”, como se decía en los 90). La puesta en servicio de una IA general puede esperar décadas en el futuro o no acabar de materializarse (Penrose, 1991). Mientras esto no ocurra, el grado de autonomía no será de un sistema completo, sino que deberá concretarse en capacidades específicas. Precisamente, un problema terminológico actual es el empleo creciente del término Robotic Autonomous Systems (RAS), que puede ser interpretado o empleado en la línea de un grado de autonomía conjunta.

El procesamiento de lenguaje natural es un conjunto de problemas que en este siglo se atacan mediante sistemas de Deep Learning de propósito específico. A partir de un input de texto, el modelo generará distintos tipos resultado: named entity recognition (predicción de qué términos en un texto son significativos dentro de ciertas categorías – personas, lugares, marcas, etc.), sentiment analysis, clasificación de texto y generación de texto, entre otros.

Un buen ejemplo de esto es en lo que se ha convertido Google Translate: Hace 5 años Google migró su servicio Google Translate de un modelo estadístico a uno basado en Deep Learning. Es recomendable revisar The Great A.I. Awakening (Lewis-Kraus, 2016) para comprender el alcance de dicha migración y el salto de capacidades que supuso. Hasta el punto, en prensa generalista, de invitar a equívoco: a confundir lo que era un prodigioso salto hacia adelante (Turovsky, 2016), pero que no era otra cosa que texto generado por una red neuronal con un porcentaje de similitud inédito, con una inteligencia artificial de propósito general. Google Neural Machine Translation (Wu et al, 2016) no entiende las frases que traduce, porque no traduce: genera texto mediante un modelo a partir de un input. Nada que ver con lo que hacemos los humanos cuando pensamos en otro lenguaje natural distinto al nuestro y empleamos nuestro conocimiento y experiencia humanos para expresar lo leído o escuchado en nuestro idioma.

Otro caso más cercano al que nos ocupa es OpenAI CODEX, un descendiente del famoso modelo generativo GPT-3 de OpenAI (Brown et al., 2020). CODEX es una interesante aplicación específica del modelo más general: una vez que ha sido entrenado con el gigantesco corpus de código fuente disponible en github, el modelo recibe como input una descripción de lo que se desea que haga un script o rutina de software y CODEX la transforma en código fuente de uno de los lenguajes para los que ha sido entrenado (de momento, fundamentalmente Python, JavaScript, TypeScript, Ruby, Java y Go). Es un paso adelante realmente espectacular; tanto, que de hecho ha provocado el predecible alarmismo aplicado al futuro laboral de los programadores (y las risas de los programadores en COBOL, Perl o arcanos aún más profundos).

CODEX y su plugin copilot para Visual Studio Code es un magnífico ejemplo de la posibilidad real vs. la posibilidad temida: A fecha de hoy, y en un futuro previsible, lo que terminará permitiendo copilot es acelerar ciertas tareas en el desarrollo de software al permitir describir en lenguaje natural lo que se pretende que haga una función de complejidad moderada y acto seguido el plugin lo traduce a código.

Sin embargo, no va a ser cierto en todos los casos: un abanico significativo de operaciones de escritura de código van a llevar el mismo tiempo (o menos) si el desarrollador pica el código directamente en lugar de pensar en una descripción en lenguaje natural que genere lo que necesita. Además, lo más importante de todo es que el software no va a poder generar un producto completo, o siquiera un programa razonablemente complejo, a partir de una descripción sucinta. El desarrollador tendrá que seguir pensando el flujo de tareas que su código tiene que acometer para resolver el problema que se está planteando. Lo que le va a permitir es acelerar algunos momentos en la escritura de código, evitando al programador algunas búsquedas, algunas preguntas en stackexchange y algunos quebraderos de cabeza.

Human-Machine Teaming, en suma. En algunos casos de tecnologías de defensa, también llamado Manned-Unmanned Teaming ó MUM-T, aunque apuesto a que va a ser un término en declive.

Los que aprendieran a programar en los ochenta o antes recordarán que a las instrucciones de un programa se las llegó a denominar órdenes o comandos (este último término propio de aquellos tiempos más sencillos en los que el falso amigo en traducción no ofendía a nadie). Orden en aquellos días aplicaba tanto al listado de instrucciones de un programa como a las instrucciones que recibe un militar en las que se define su misión. Un ejemplo de orden según el formato SMAC:

“On order, 1st Squad will destroy the enemy observation post located near the objective in order to prevent the enemy from interfering with the platoon assault on the objective. We are a supporting effort”

Traducido con Google Translator, queda así: “A la orden, el 1er pelotón destruirá el puesto de observación enemigo situado cerca del objetivo para evitar que el enemigo interfiera en el asalto del pelotón al objetivo. Somos un esfuerzo de apoyo”. Perfectamente comprensible y correcto a los ojos humanos.

Sin embargo, tratemos de traducir ese Aufträge, esas órdenes, para un conjunto de robotic autonomous systems como CODEX hace con una orden (bien, una descripción) descrita en lenguaje natural. ¿Es posible?

La respuesta se encuentra no en la orden, sino en su resultado, en el conjunto de instrucciones generado. En el caso de CODEX tenemos un lenguaje de programación no natural, con un conjunto limitado tanto de instrucciones como de posibilidades y un entorno digital completamente controlado. En el segundo, lo que tenemos es un entorno real incontrolado, incontrolable y repleto de incertidumbre… al que los seres humanos responden tomando decisiones con los recursos que tienen a su cargo, sean los que fueren. Siguiendo nuestro ejemplo, un pequeño enjambre heterogéneo de RAS necesitaría

  • saber detectar qué es un “puesto de observación enemigo”. Tarea complejísima, pero no imposible.

  • “situado cerca del objetivo” puede ser tanto una ayuda como una barrera insalvable para determinar qué es dicho puesto de observación.

  • “para evitar que el enemigo interfiera en el asalto del pelotón al objetivo” es la intención, algo fuera del alcance de un sistema y pieza crítica de información para un humano

Todavía es peor. Recordemos que Auftragstaktik y sus sucesores indican qué se pretende y dejan a criterio del mando responsable la decisión de cómo hacerlo y las decisiones necesarias para adaptarse a las circunstancias que se vayan presentando y cumplir el objetivo marcado. Incluso si el sistema conjunto lograra identificar con éxito qué es el puesto de observación cercano al objetivo, debería establecer un curso de acción para destruirlo. Incluso para un objetivo tan aparentemente meridiano no resulta obvio qué pasos y recursos son los más adecuados para detectar, primero, y para destruir, después. Y además puede acabar dándose la circunstancia de que, iniciada la acción, se pudiera descubrir que el adversario dispone de otro recurso que va a dificultar el asalto del pelotón al objetivo más que el puesto de observación. Un mando podría llegar a darse cuenta y reaccionar. ¿Cómo podría reaccionar un sistema o un conjunto de sistemas?

Parece claro que no va a haber en un futuro cercano, o siquiera previsible, un CODEX para operaciones de Robotic Autonomous Systems (RAS) que genere un plan de acción aceptable a partir de una breve instrucción como se espera con Auftragstaktik. Y es que no tiene sentido: el sistema no tiene capacidades humanas, no se acerca a una IA de propósito general, ni parte de un corpus de datos estructurado o tratable mediante un modelo de IA de propósito específico. Además, lo que es más grave, desaprovecharía tanto las capacidades netamente humanas como, sobre todo, las capacidades sinérgicas que emergen de un equipo hombre-máquina.

(Continúa…) Estimado lector, este artículo es exclusivo para usuarios de pago. Si desea acceder al texto completo, puede suscribirse a Revista Ejércitos aprovechando nuestra oferta para nuevos suscriptores a través del siguiente enlace.

Be the first to comment

Leave a Reply