{"id":1201,"date":"2025-09-17T10:25:00","date_gmt":"2025-09-17T13:25:00","guid":{"rendered":"https:\/\/undef.edu.ar\/fortin\/?p=1201"},"modified":"2026-03-27T17:02:05","modified_gmt":"2026-03-27T20:02:05","slug":"inteligencia-artificial-y-defensa-un-analisis-contemporaneo","status":"publish","type":"post","link":"https:\/\/undef.edu.ar\/fortin\/index.php\/2025\/09\/17\/inteligencia-artificial-y-defensa-un-analisis-contemporaneo\/","title":{"rendered":"Inteligencia artificial y defensa, un an\u00e1lisis contempor\u00e1neo."},"content":{"rendered":"<p><span style=\"font-size: 10pt;\">Por Brian Fonseca, Director del Jack D. Gordon Institute for Public Policy en Florida International University, y Nicole Writt, Coordinadora de Investigaci\u00f3n del Jack D. Gordon Institute, FIU.<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><strong>La inteligencia artificial es la nueva frontera de la guerra. M\u00e1quinas que piensan, deciden y act\u00faan a velocidades <\/strong><strong>inimaginables est\u00e1n cambiando de manera fundamental la forma en que se conciben y se libran los conflictos internacionales. <\/strong><strong>\u00bfC\u00f3mo, y con qu\u00e9 riesgos, transformar\u00e1 la IA el campo de la defensa?<\/strong><\/p>\n<p>&nbsp;<\/p>\n<p data-start=\"323\" data-end=\"630\">La inteligencia artificial es la nueva frontera de la guerra. M\u00e1quinas que piensan, deciden y act\u00faan a velocidades inimaginables est\u00e1n cambiando de manera fundamental la forma en que se conciben y se libran los conflictos internacionales. \u00bfC\u00f3mo, y con qu\u00e9 riesgos, transformar\u00e1 la IA el campo de la defensa?<\/p>\n<p data-start=\"632\" data-end=\"1448\">La inteligencia artificial (IA) tiene sus or\u00edgenes en investigaciones de mediados del siglo XX, pero fue en las \u00faltimas d\u00e9cadas cuando su desarrollo y aplicaci\u00f3n cobraron un ritmo acelerado. Lo que comenz\u00f3 como una disciplina experimental se ha convertido en una infraestructura transversal que impacta todos los sectores de la vida social, incluyendo, por supuesto, la seguridad y la defensa. En este nuevo escenario, toda organizaci\u00f3n debe pensarse como una organizaci\u00f3n tecnol\u00f3gica. El Ej\u00e9rcito, la Armada y la Fuerza A\u00e9rea no operan al margen de la transformaci\u00f3n digital: son y ser\u00e1n organizaciones estructuralmente atravesadas por la r\u00e1pida evoluci\u00f3n tecnol\u00f3gica, especialmente la inteligencia artificial. Esto plantea un desaf\u00edo profundo, no solo t\u00e9cnico, sino tambi\u00e9n institucional, estrat\u00e9gico y cultural.<\/p>\n<p data-start=\"1450\" data-end=\"2315\">La IA no ser\u00e1 un simple complemento: ser\u00e1 un factor disruptivo que alterar\u00e1 las formas tradicionales de planificar, operar y tomar decisiones. El ritmo de evoluci\u00f3n de la inteligencia artificial supera con creces la capacidad de los marcos institucionales y regulatorios para seguir su transformaci\u00f3n. La brecha entre el estado del arte en la investigaci\u00f3n cient\u00edfica y las aplicaciones disponibles en el dominio p\u00fablico no deja de ampliarse. Tecnolog\u00edas como los modelos de lenguaje generativo, que ganaron visibilidad global con la aparici\u00f3n de sistemas como ChatGPT, representan apenas una fracci\u00f3n de lo que se est\u00e1 desarrollando en laboratorios de vanguardia. Desde el punto de vista t\u00e9cnico, se estima que la ciencia vinculada a la IA ha avanzado al menos dos o tres generaciones m\u00e1s all\u00e1 de lo que actualmente est\u00e1 disponible de manera comercial o p\u00fablica.<\/p>\n<p data-start=\"2317\" data-end=\"2924\">Esta brecha es relevante por varias razones. En primer lugar, porque limita la capacidad de los gobiernos y las sociedades para anticipar el impacto de tecnolog\u00edas que a\u00fan no han llegado al mercado pero cuya implementaci\u00f3n podr\u00eda ser inminente. En segundo lugar, porque consolida una asimetr\u00eda de informaci\u00f3n y poder en favor de quienes tienen acceso a los desarrollos m\u00e1s avanzados \u2014generalmente grandes corporaciones y actores estatales con importantes recursos\u2014 en detrimento del resto de la comunidad internacional. Esta din\u00e1mica robustece un modelo de innovaci\u00f3n cerrado, opaco y dif\u00edcil de gobernar.<\/p>\n<p data-start=\"2926\" data-end=\"3888\">Las m\u00faltiples clasificaciones que organizan el campo de la inteligencia artificial \u2014inteligencia estrecha, general o superinteligencia; m\u00e1quinas reactivas, de memoria limitada o autoconscientes\u2014 son \u00fatiles en entornos t\u00e9cnicos o acad\u00e9micos, pero explican poco sobre c\u00f3mo estas tecnolog\u00edas est\u00e1n reconfigurando el equilibrio global de poder y la toma de decisiones. El debate no deber\u00eda centrarse tanto en qu\u00e9 tipo de IA podr\u00eda desarrollarse en el futuro, sino en c\u00f3mo se est\u00e1 utilizando hoy: con qu\u00e9 capacidades, en manos de qui\u00e9n y bajo qu\u00e9 niveles de supervisi\u00f3n pol\u00edtica y social. En el \u00e1mbito de la defensa, lo que est\u00e1 en juego no es una definici\u00f3n te\u00f3rica, sino la emergencia de sistemas capaces de procesar datos en tiempo real, anticipar escenarios y proponer cursos de acci\u00f3n, muchas veces sin intervenci\u00f3n humana directa. En ese desplazamiento silencioso \u2014del asesoramiento al reemplazo\u2014 se concentra uno de los dilemas m\u00e1s urgentes de nuestra \u00e9poca.<\/p>\n<p data-start=\"3890\" data-end=\"4248\">Existe un debate global en torno a la inteligencia artificial y la interacci\u00f3n humano-m\u00e1quina. Este es un eje cr\u00edtico para pensar el dise\u00f1o de doctrinas, protocolos de uso y l\u00edmites \u00e9ticos en contextos de seguridad. Un enfoque posible identifica cuatro formas principales de interacci\u00f3n, que estructuran el modo en que se conciben y aplican estos sistemas.<\/p>\n<p data-start=\"4250\" data-end=\"4900\">La primera modalidad concibe a la m\u00e1quina como asesora: en este rol, los sistemas de IA proveen an\u00e1lisis, recomendaciones y perspectivas que apoyan la toma de decisiones humanas. Por ejemplo, en entornos acad\u00e9micos y militares se desarrollan tableros de control (dashboards) que procesan grandes vol\u00famenes de datos para facilitar la inteligencia y orientar decisiones estrat\u00e9gicas. La m\u00e1quina act\u00faa como un complemento que ayuda a filtrar y organizar la informaci\u00f3n, permitiendo a los decisores enfocarse en las opciones m\u00e1s relevantes. En esta relaci\u00f3n, el humano conserva el control final y puede decidir cu\u00e1ndo y c\u00f3mo interactuar con la m\u00e1quina.<\/p>\n<p data-start=\"4902\" data-end=\"5333\">La segunda modalidad refiere a la m\u00e1quina como extensi\u00f3n del ser humano. En este caso, la IA automatiza tareas repetitivas o complejas que amplifican la capacidad operativa del agente humano. Esto permite mejorar la eficiencia y liberar recursos cognitivos para actividades de mayor valor estrat\u00e9gico. Por ejemplo, la automatizaci\u00f3n de procesos log\u00edsticos o el apoyo en el an\u00e1lisis de inteligencia se inscriben en esta categor\u00eda.<\/p>\n<p data-start=\"5335\" data-end=\"5829\">El tercer modelo implica que las m\u00e1quinas act\u00faen como colaboradoras. Aqu\u00ed, la interacci\u00f3n es m\u00e1s integrada y cooperativa, con m\u00e1quinas que trabajan directamente junto a humanos en la ejecuci\u00f3n de tareas. Un ejemplo t\u00edpico es el uso de drones operados en conjunto con personal de seguridad para detectar artefactos explosivos improvisados. Estas m\u00e1quinas no solo extienden la capacidad humana, sino que participan activamente en el proceso operativo, funcionando como compa\u00f1eras en el terreno.<\/p>\n<p data-start=\"5831\" data-end=\"6322\">Finalmente, la cuarta modalidad posiciona a las m\u00e1quinas como agentes aut\u00f3nomos, capaces de actuar en nombre del humano a gran escala y sin intervenci\u00f3n directa en cada acci\u00f3n. Este es el nivel m\u00e1s avanzado y controvertido, ya que implica delegar decisiones y operaciones cr\u00edticas a sistemas automatizados. En contextos de seguridad y defensa, esta modalidad puede ofrecer ventajas competitivas significativas, pero plantea importantes interrogantes sobre responsabilidad, control y \u00e9tica.<\/p>\n<p data-start=\"6324\" data-end=\"6991\">Estas cuatro formas de interacci\u00f3n resumen c\u00f3mo la IA se est\u00e1 integrando progresivamente en las fuerzas armadas y en las organizaciones de seguridad, transformando sus estructuras y modos de operaci\u00f3n. Al mismo tiempo, el debate sobre la convergencia entre inteligencia artificial y ciberseguridad cobra una centralidad creciente, dado que la expansi\u00f3n de los sistemas digitales abre nuevas vulnerabilidades y vectores de ataque. En Estados Unidos, por ejemplo, se han desarrollado amplias estrategias destinadas a fortalecer la capacidad humana para enfrentar amenazas cibern\u00e9ticas emergentes, al tiempo que se reconoce el papel creciente de la IA en este terreno.<\/p>\n<h3 data-start=\"6998\" data-end=\"7045\"><\/h3>\n<h3 data-start=\"6998\" data-end=\"7045\">La convergencia entre IA y ciberseguridad<\/h3>\n<p data-start=\"7047\" data-end=\"7744\">La r\u00e1pida proliferaci\u00f3n de dispositivos conectados a redes globales \u2014con un nuevo equipo incorporado aproximadamente cada 1,6 segundos\u2014 expande de forma exponencial la superficie de ataque digital y complejiza el panorama de amenazas. Esta expansi\u00f3n no solo afecta a infraestructuras civiles o econ\u00f3micas, sino que impacta directamente a las instituciones militares, que deben afrontar un escenario de creciente sofisticaci\u00f3n y escala en los ciberataques. Am\u00e9rica Latina, y en particular sus fuerzas armadas, ya han sido blanco de ofensivas cibern\u00e9ticas por parte de organizaciones criminales, con objetivos que van desde la obtenci\u00f3n de inteligencia hasta el sabotaje y la guerra informacional.<\/p>\n<p data-start=\"7746\" data-end=\"8145\">Este fen\u00f3meno de fusi\u00f3n entre inteligencia artificial y ciberseguridad se manifiesta con gran intensidad y rapidez, lo que obliga a repensar la estrategia y las capacidades defensivas. En el an\u00e1lisis de este v\u00ednculo, es posible distinguir dos grandes categor\u00edas operativas: ofensiva y defensiva, o, dicho de otro modo, estar en el campo de batalla o en el banco t\u00e9cnico, supervisando y analizando.<\/p>\n<p data-start=\"8147\" data-end=\"8706\">En t\u00e9rminos generales, las organizaciones militares desempe\u00f1an un rol mayoritariamente defensivo, si bien existen capacidades limitadas y reguladas para la acci\u00f3n ofensiva. La mayor\u00eda de los esfuerzos se concentra en proteger sistemas, detectar anomal\u00edas, predecir amenazas y desarrollar mecanismos autom\u00e1ticos para identificar y neutralizar ataques en tiempo real. Esta funci\u00f3n es cr\u00edtica no solo para instituciones estatales, sino tambi\u00e9n para individuos y empresas, que recurren a servicios avanzados para monitorear constantemente los riesgos digitales.<\/p>\n<p data-start=\"8708\" data-end=\"9338\">Una de las innovaciones m\u00e1s relevantes en el campo defensivo es la incorporaci\u00f3n de sistemas automatizados de prueba de penetraci\u00f3n. Tradicionalmente, esta tarea requer\u00eda especialistas humanos que simulaban ataques para identificar vulnerabilidades. Hoy, m\u00e1quinas dotadas de inteligencia artificial comienzan a desempe\u00f1ar ese papel, aumentando la capacidad de detecci\u00f3n de brechas y mitigaci\u00f3n de riesgos. Si bien sigue siendo necesaria la formaci\u00f3n de profesionales calificados, la complementariedad con tecnolog\u00edas avanzadas es esencial para cerrar la brecha entre la demanda y la oferta de recursos humanos en ciberseguridad.<\/p>\n<p data-start=\"9340\" data-end=\"9866\">En el plano ofensivo, actores criminales y adversarios explotan la inteligencia artificial para potenciar sus m\u00e9todos de ataque. Emplean malware con capacidad de autoaprendizaje, amplifican el alcance de ataques de ransomware y llevan a cabo sofisticadas operaciones de ingenier\u00eda social. Estas herramientas se dirigen no solo contra objetivos militares directos, sino tambi\u00e9n contra proveedores y empresas que forman parte de las cadenas de suministro vinculadas a la defensa, incrementando as\u00ed la vulnerabilidad sist\u00e9mica.<\/p>\n<p data-start=\"9868\" data-end=\"10246\">Adem\u00e1s, la IA contribuye a la expansi\u00f3n de campa\u00f1as masivas de desinformaci\u00f3n mediante el uso de bots capaces de generar narrativas falsas en redes sociales a una escala y velocidad imposibles de replicar por operadores humanos. Este fen\u00f3meno afecta la percepci\u00f3n p\u00fablica y la cohesi\u00f3n social, elementos esenciales para la estabilidad de los Estados en contextos de conflicto.<\/p>\n<h3 data-start=\"10253\" data-end=\"10285\"><\/h3>\n<h3 data-start=\"10253\" data-end=\"10285\">\u00c9tica y letalidad aut\u00f3noma<\/h3>\n<p data-start=\"10287\" data-end=\"10962\">El debate sobre el uso letal de la inteligencia artificial ha cobrado creciente relevancia, especialmente en Estados Unidos, pero tambi\u00e9n a nivel global. La pregunta central es si resulta admisible que las m\u00e1quinas puedan tomar decisiones aut\u00f3nomas sobre el uso de la fuerza letal, desplazando la intervenci\u00f3n humana directa. Aunque la doctrina actual evita delegar completamente estas decisiones, ya existen sistemas automatizados en funciones cr\u00edticas como la defensa activa, donde el margen de tiempo para reaccionar es m\u00ednimo. Estos casos evidencian la tensi\u00f3n entre la necesidad de velocidad y precisi\u00f3n operativa y los imperativos \u00e9ticos de control y responsabilidad.<\/p>\n<p data-start=\"10964\" data-end=\"11411\">Un ejemplo es el sistema de misiles superficie-aire, que debe responder a amenazas en cuesti\u00f3n de segundos. Si bien una decisi\u00f3n r\u00e1pida puede salvar vidas, tambi\u00e9n conlleva el riesgo de errores catastr\u00f3ficos, como el derribo accidental de una aeronave civil. En 1988, por ejemplo, la Armada de Estados Unidos derrib\u00f3 por error un avi\u00f3n comercial iran\u00ed, provocando la muerte de las 290 personas a bordo: una tr\u00e1gica consecuencia del error humano.<\/p>\n<p data-start=\"11413\" data-end=\"12003\">Frente a estos dilemas, se han desarrollado marcos \u00e9ticos para guiar el uso responsable de la IA en el \u00e1mbito de la defensa. El Departamento de Defensa de EE.UU. adopt\u00f3 cinco principios fundamentales para el desarrollo y uso de IA con fines militares: responsabilidad (asegurar la supervisi\u00f3n humana en las decisiones), equidad (evitar sesgos no deseados), trazabilidad (garantizar la transparencia de los m\u00e9todos), confiabilidad (exigir desempe\u00f1o constante y predecible) y gobernabilidad (garantizar la posibilidad de desconectar o desactivar los sistemas si act\u00faan de forma inesperada).<\/p>\n<p data-start=\"12005\" data-end=\"12263\">Estos principios buscan equilibrar el avance tecnol\u00f3gico con la preservaci\u00f3n de valores fundamentales, record\u00e1ndonos que, m\u00e1s all\u00e1 de las m\u00e1quinas, la dimensi\u00f3n humana debe seguir ocupando el centro de las decisiones que pueden afectar la vida o la muerte.<\/p>\n<p data-start=\"12265\" data-end=\"12609\">A medida que se otorga mayor autonom\u00eda a los sistemas, resulta imprescindible contar con mecanismos eficaces para desactivarlos con rapidez en caso de un comportamiento indeseado. El dise\u00f1o de estos sistemas debe contemplar un \u201cbot\u00f3n de apagado\u201d confiable, junto con monitoreo humano constante, transparencia y trazabilidad en las decisiones.<\/p>\n<p data-start=\"12611\" data-end=\"13217\">En Am\u00e9rica Latina, donde la regulaci\u00f3n sobre IA se encuentra a\u00fan fragmentada y en etapas dispares, es necesario encontrar un equilibrio entre fomentar la innovaci\u00f3n y establecer resguardos efectivos. Una v\u00eda posible son los marcos regulatorios que promueven los llamados <em data-start=\"12882\" data-end=\"12904\">regulatory sandboxes<\/em> o entornos de prueba controlados, donde las nuevas tecnolog\u00edas puedan ser evaluadas en condiciones seguras, con la supervisi\u00f3n adecuada. Sin embargo, esta es apenas una medida inicial: la cooperaci\u00f3n regional ser\u00e1 esencial para desarrollar marcos similares que garanticen continuidad y coherencia en la regi\u00f3n.<\/p>\n<p data-start=\"13219\" data-end=\"13842\">La inteligencia artificial est\u00e1 transformando el \u00e1mbito de la defensa y la seguridad, planteando desaf\u00edos tecnol\u00f3gicos, estrat\u00e9gicos y \u00e9ticos sin precedentes. Frente a estas transformaciones, resulta esencial fortalecer la cooperaci\u00f3n regional, promover un di\u00e1logo inclusivo entre actores gubernamentales, acad\u00e9micos y del sector privado, y construir marcos \u00e9ticos compartidos que regulen el despliegue de estas tecnolog\u00edas. La formaci\u00f3n continua y los ejercicios conjuntos ser\u00e1n fundamentales para integrar la IA y la ciberseguridad en las instituciones militares de forma eficaz y alineada con los valores democr\u00e1ticos.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Por Brian Fonseca, Director del Jack D. Gordon Institute for Public Policy en Florida International University, y Nicole Writt, Coordinadora de Investigaci\u00f3n del Jack D. Gordon Institute, FIU. &nbsp; La inteligencia artificial es la nueva frontera de la guerra. M\u00e1quinas que piensan, deciden y act\u00faan a velocidades inimaginables est\u00e1n cambiando de manera fundamental la forma [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":1207,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[40],"tags":[20],"class_list":["post-1201","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-fortin-n2","tag-ed02"],"_links":{"self":[{"href":"https:\/\/undef.edu.ar\/fortin\/index.php\/wp-json\/wp\/v2\/posts\/1201","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/undef.edu.ar\/fortin\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/undef.edu.ar\/fortin\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/undef.edu.ar\/fortin\/index.php\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/undef.edu.ar\/fortin\/index.php\/wp-json\/wp\/v2\/comments?post=1201"}],"version-history":[{"count":7,"href":"https:\/\/undef.edu.ar\/fortin\/index.php\/wp-json\/wp\/v2\/posts\/1201\/revisions"}],"predecessor-version":[{"id":1210,"href":"https:\/\/undef.edu.ar\/fortin\/index.php\/wp-json\/wp\/v2\/posts\/1201\/revisions\/1210"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/undef.edu.ar\/fortin\/index.php\/wp-json\/wp\/v2\/media\/1207"}],"wp:attachment":[{"href":"https:\/\/undef.edu.ar\/fortin\/index.php\/wp-json\/wp\/v2\/media?parent=1201"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/undef.edu.ar\/fortin\/index.php\/wp-json\/wp\/v2\/categories?post=1201"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/undef.edu.ar\/fortin\/index.php\/wp-json\/wp\/v2\/tags?post=1201"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}