Recommended Posts

CN:Crecen las dudas sobre la seguridad del sistema DeepSeek y su posible integración en el ámbito militar chino

0 comments

waivio_andry-pimentel245.08last monthWaivio7 min read


https://waivio.nyc3.digitaloceanspaces.com/485b53be0eba92639f50434d4173fb201f028d6e2409625c1c573e352e214983

El desarrollo y aplicación de modelos de inteligencia artificial en el ámbito militar es una tendencia que sigue en expansión, especialmente en países que apuestan a su desarrollo, tal como es el caso de China. En este contexto, la República Popular China ha estado avanzando en la expansión de su sistema DeepSeek, un modelo de lenguaje de gran escala (LLM, por sus siglas en inglés) que fue lanzado hace muy poco tiempo y que podría utilizarse para el procesamiento de información en el campo de batalla, la toma de decisiones estratégicas y la optimización de operaciones militares. Sin embargo, su implementación plantea serios interrogantes en materia de seguridad y vulnerabilidades que podrían afectar no solo la eficiencia operativa de sus fuerzas, sino también comprometer información crítica de los sistemas militares que estén integrados por este LLM.

Uno de los aspectos más preocupantes de DeepSeek es como su capacidad para almacenar y procesar grandes volúmenes de información lo convierte en un activo estratégico pero, al mismo tiempo, en un punto vulnerable. Según recientes estudios de ciberseguridad, los modelos de lenguaje a gran escala pueden exponer datos sensibles, ya sea por fallas en sus protocolos de seguridad o por ataques dirigidos para manipular sus respuestas. En un escenario militar, donde la precisión y la fiabilidad de la información son esenciales, estas deficiencias podrían traducirse en errores operativos con consecuencias significativas, no solo para la propia tropa, sino también para cuestiones colaterales al conflicto.


https://waivio.nyc3.digitaloceanspaces.com/0aec653996f90e3c9d4a21703ae15d0d26fe330cec392662a4f56656fe853143

Otro punto clave es el riesgo de que DeepSeek se convierta en un “agente dormido” dentro de los sistemas militares. Esta idea, hace referencia a la posibilidad de que la inteligencia artificial pueda ser programada o manipulada para generar información errónea o inducir a los operadores a tomar decisiones incorrectas en momentos críticos. La existencia de esta vulnerabilidad pone en duda la viabilidad de su integración en plataformas de defensa y combate, y otros sistemas relacionados al ámbito de defensa, especialmente en un contexto donde la guerra de la información juega un papel central.

A esto se suma el problema de la manipulación de datos. En recientes investigaciones, expertos han advertido que los modelos de lenguaje como DeepSeek pueden ser alterados mediante ataques dirigidos, insertando información falsa o modificando la manera en que interpretan los datos. En un conflicto, una IA comprometida en su seguridad podría generar diferentes efectos negativos, desde cuestiones operacionales hasta la propia transferencia de información a otros actores. En esta línea, el uso de DeepSeek en el ámbito militar también plantea interrogantes sobre la seguridad de los datos recopilados. Según informes recientes, este sistema posee una alta capacidad de almacenamiento de información y, en algunos casos, esta información puede ser vulnerable a filtraciones o accesos no autorizados. La exposición de datos sensibles militares ofrecen disipar la “sorpresa estratégica”, transparentando movimientos militares, estado de los sistemas propios, informacion estratégica, entre otras cuestiones.


En este sentido, uno de los problemas identificados es el modelo de recolección de datos que utiliza DeepSeek, el cual no garantiza la confidencialidad de la información y podría exponerla en redes no seguras. Para cualquier instrumento militar que busca consolidar sus capacidades, este tipo de fallas podría representar un riesgo estratégico de gran magnitud.

La firma china desarrolladora del sistema ha mantenido un fuerte hermetismo en relación con las medidas de seguridad que se están implementando para evitar estas vulnerabilidades. De todas maneras, el uso de DeepSeek en sistemas militares generaría una dependencia tecnológica que podría ser explotada por actores externos. Un análisis publicado recientemente destaca que estos sistemas pueden ser objeto de ataques cibernéticos diseñados para alterar su funcionamiento o filtrar información crítica. A raiz de esto, cualquier integración de sistemas militares propios con IA del tipo LLM, ofrece una seria debilidad a los propios sistemas dentro de una orgánica de defensa.


https://waivio.nyc3.digitaloceanspaces.com/2321f0458d765c6a62a57ba2c5c42a488c99e1b4b8ee0f85fdb28cbb1a019ce8

Otro de los aspectos que genera preocupación es la posibilidad de que la inteligencia artificial termine por engañar a sus propios operadores. En simulaciones realizadas con modelos de lenguaje de gran escala, se ha demostrado que estas plataformas pueden generar respuestas que no solo contienen errores, sino que pueden inducir a interpretaciones incorrectas en escenarios de combate. Esto podría convertirse en un problema si se delegan funciones estratégicas o de comando a un sistema que no ha sido completamente probado en condiciones de guerra real. En este caso, no solamente hablamos de transferir informacion sensible propia,** sino en que los activos propios se conviertan en sistemas enemigos**.

Además, las dificultades que enfrenta China en la regulación de sus sistemas de inteligencia artificial representan otro punto de vulnerabilidad. A pesar de los avances tecnológicos, las normativas de seguridad cibernética no han logrado prevenir ataques contra infraestructuras de información en el pasado, lo que sugiere que la integración de DeepSeek en la defensa nacional podría aumentar la exposición de las Fuerzas Armadas a ciberataques dirigidos.


El interés del gobierno chino por estos sistemas se enmarca en una estrategia más amplia de modernización militar, que busca reforzar sus capacidades defensivas y ofensivas con herramientas basadas en inteligencia artificial. No obstante, la implementación de un modelo de lenguaje con deficiencias en seguridad podría comprometer la estabilidad operativa y generar una dependencia tecnológica difícil de revertir.

La informacion como herramienta disruptiva

Otra cuestión relevante es el papel que juega DeepSeek en la guerra cibernética y en las operaciones de desinformación. La posibilidad de que estos sistemas sean utilizados no solo para análisis de inteligencia, sino también para crear narrativas controladas y manipular la percepción de la realidad, es sido una preocupación creciente en foros de seguridad internacionales.


En este contexto, diversos analistas han señalado que el desarrollo de tecnologías de inteligencia artificial en China no solo tiene implicancias internas, sino que también representa un desafío para la estabilidad global. A medida que la IA se convierte en un pilar fundamental de la estrategia de defensa china, la comunidad internacional observa con atención los riesgos asociados a su implementación y los posibles efectos colaterales que podría generar en escenarios de conflicto. Es importarte recalcar que cualquier sistema del tipo LLM no es mas lo que se hace con ella. En otras palabras: la IA representa la información que se le programe o se le cargue, si la informacion mantiene un ethos positivo, el fin ultimo de esta IA va a ser también positivo. Mientras que si los valores, ética y misión tiene objetivos que no condicen con los valores con los que vivimos, el resultado de este modelo de lenguaje será llanamente negativo.

Si pensamos en el uso de un sistema de lenguaje como DeepSeek, donde la información integrada pueda tener respuestas con una carga ética que vulnere los principios con los que convive una sociedad, estaremos frente a un problema de narrativa que paulatinamente puede ir degradando ciertos pilares sociológicos fundamentales que muchas veces damos por sentado. En esta línea, con la expansión del uso de sistemas del tipo LLM por parte de una vasta cantidad de personas, el bombardeo informativo desde la IA plagada de información falsa o reprochable frente a estándares morales aceptados, puede tener perjuicios en el mediano y largo plazo dentro de una sociedad.

A partir de esto, la propia LLM se torna como una herramienta letalizada con efectos contundentes no ya sobre sistemas militares, sino sobre ámbitos de defensa mas amplios, como las propias percepciones sociales.

Si bien es verdad que el desarrollo de la inteligencia artificial no se limita solamente a China, otras potencias también están avanzando en el desarrollo de LLM adaptados a entornos de defensa. Sin embargo, mientras que algunos países han optado por estrategias de validación y regulación estrictas antes de su implementación, el enfoque chino parece avanzar con rapidez sin considerar completamente los riesgos inherentes.


Posted by Waivio guest: @waivio_andry-pimentel24

Comments

Sort byBest