Noticias destacadas

¿Qué sabemos sobre los códigos mortales que se usaron para asesinar a las personalidades iraníes? | política

En la tercera década del siglo XXI, la inteligencia artificial ya no es solo una herramienta en nuestra vida diaria, sino que se convierte en un actor importante en los campos de batalla, donde los sistemas automáticos están tomando decisiones de vida y muerte, lejos de cualquier supervisión humana directa.

Este fenómeno conocido como «asesinato por algoritmo» representa un cambio cualitativo en la historia de las guerras, y plantea preguntas existenciales sobre el futuro del conflicto armado, los límites de la decisión humana y la ética de la guerra en la era de la transformación digital.

Se estima que más de 30 países están desarrollando sistemas de armas independientes. Estos sistemas se centran en tres pilares: redes de detección de datos de múltiples fuentes, algoritmos de aprendizaje automático capaces de analizar patrones y predecir el comportamiento, y los sistemas de autoimplementación que toman decisiones sin referirse a un líder u operador humano.

Lo que distingue a estos sistemas es su capacidad para trabajar en entornos complejos, ya que es difícil para una persona tomar decisiones precisas de la velocidad requerida, como es el caso en las operaciones anti -terrorismo o los enfrentamientos urbanos de alta intensidad.

Quizás los ejemplos más destacados del uso de estas tecnologías fueron evidentes en las operaciones precisas que se dirigieron a las destacadas personalidades iraníes a mediados de 2025.

La evidencia ha demostrado que las plataformas utilizadas no eran solo los planos de marzo tradicionales, sino los sistemas de combate inteligentes capaces de rastrear objetivos durante semanas, recopilando y analizando grandes cantidades de datos, eligiendo el tiempo óptimo para implementar el ataque basado en cuentas precisas que tienen en cuenta variables como el sitio, el clima, el movimiento civil e incluso el impacto esperado en los medios. La precisión de algunas de estas operaciones ha alcanzado aproximadamente el 92%, lo que indica el desarrollo de esta tecnología.

El aspecto más peligroso de estos sistemas radica en su capacidad para aprender continuo. No funciona de acuerdo con un programa fijo, sino que se desarrolla con el tiempo, y sus decisiones se modifican en función de experiencias anteriores y nuevos datos. Esto lo hace más eficiente, pero también hace que su comportamiento sea menos predecible, e incluso puede cambiar radicalmente en poco tiempo.

El algoritmo de hoy puede actuar de manera completamente diferente después de una semana, aunque la tarea es la misma. Aquí, surge un profundo problema ético y legal: ¿quién tiene responsabilidad si estos sistemas cometieron un error que condujo al asesinato de civiles? ¿Es el oficial el programador? O el operador? O el estado? ¿O la inteligencia artificial se convierte en un actor legal nuevo, no identidad o responsabilidad?

En este contexto, la experiencia israelí es un ejemplo destacado de la transición de la disuasión tradicional a lo que se puede llamar «disuasión de algoritmo». Gracias a la integración de la capacidad de la unidad 8200 especializada en la guerra electrónica, con nuevas empresas en el campo del análisis de datos y el pronóstico de comportamiento, los sistemas que pueden monitorear y analizar las amenazas se han desarrollado y se han llevado a cabo asesinatos quirúrgicos antes de que las amenazas se cristalizaran, o se conviertan en un peligro real.

Esta estrategia no tiene como objetivo responder al ataque, sino que evita la aparición de la amenaza de la fundación, a través de algo similar a la «matanza aritmética».

Es de destacar que tales operaciones no requieren una presencia humana directa en el campo, sino que son administradas por centros digitales de alta calidad, donde se monitorea el objetivo y las «condiciones de orientación» se controlan antes de la implementación de la huelga en una segunda parte.

Esta transformación no es exclusiva de Israel o los Estados Unidos. China, Rusia y Turquía, junto con poderes regionales emergentes, ingresaron a la carrera para desarrollar sistemas de algoritmos de liderazgo y combate.

En algunos casos, las redes de inteligencia artificial que pueden coordinar entre las unidades de combate independientes, el aire y el mar, se construyeron sin supervisión humana directa, basadas en el análisis inmediato de los datos provenientes de múltiples sensores y fuentes de inteligencia inmediatas.

Estas capacidades hacen que la decisión militar sea más rápida que cualquier respuesta humana, pero a cambio ofrecen graves peligros: ¿qué pasa si los algoritmos de la competencia colisionaron en el terreno? ¿Puede estallar una guerra debido al defecto de mi cuenta? ¿Y qué pasa si la decisión de atacar se convierte en manos de un sistema que no entiende la diplomacia o las intenciones?

El más peligroso de esto es la transferencia de esta tecnología a los partidos no gubernamentales. Con la propagación de herramientas de programación de código abierto, la disminución en los costos de los drones, un grupo armado o incluso un individuo que tiene habilidades técnicas puede diseñar un algoritmo primitivo dirigido a un oponente específico basado en una impresión facial o una señal digital.

Esta tendencia abre la puerta a la democracia del asesinato digital, ya que la guerra no es exclusiva para los ejércitos, sino más bien una arena abierta para mercenarios, piratas y caóticos.

La guerra no es solo física, sino que se ha vuelto psicológica e informativa. En las operaciones modernas, los ataques cibernéticos respaldados por la inteligencia artificial destinada a destruir la moral, publicando información engañosa, fabricando imágenes y grabaciones falsas, y utilizando cuentas falsas para crear un estado de confusión y duda dentro de las filas enemigas.

Es una «guerra suave» que afecta la conciencia del objetivo antes de su cuerpo, y restablece el entorno de la decisión política y de seguridad desde adentro.

Todos estos desarrollos ocurren en ausencia de un marco legal internacional claro que regula el uso de algoritmos mortales.

Los acuerdos actuales, especialmente las convenciones de Ginebra, se colocaron en un momento en que la guerra era un acto puramente humano. Hoy en día, no existe un acuerdo vinculante que regule el uso de sistemas de auto -matado u obligue a los estados a revelar sus algoritmos de combate, o incluso responsables de los desarrolladores.

Hay llamados para el establecimiento de la «Convención Digital de Ginebra», pero hasta ahora, las principales potencias se niegan a someter estas tecnologías a cualquier restricción que pueda limitar su superioridad estratégica.

A pesar de los intentos de algunos investigadores de integrar los valores morales en algoritmos, el fracaso para representar la complejidad humana hace que estos intentos sean limitados.

El algoritmo no entiende la diferencia entre un niño y un descuento que se esconde entre civiles; Es el análisis de las posibilidades y se implementa cuando excede la cierta medida de la «amenaza». La ética en este caso se convierte en una variable deportiva, no en un principio humano.

En este nuevo mundo, el hombre se vuelve variable dentro de una ecuación. Ya no es el que toma la decisión, sino que recibe sus consecuencias. Su final puede calcularse en un informe predictivo de que solo se lee inteligencia artificial.

Aquí se encuentra el dilema más peligroso: si no establecemos límites claros para lo que la máquina puede hacer, entonces nos encontraremos viviendo en un momento en que el asesinato se maneja presionando un botón, sin memoria, sin arrepentimiento y sin responsable.

La humanidad ha superado la etapa de armas inteligentes dirigidas a la era de las armas que piensan y deciden por sí mismas. Por ejemplo, los aviones que conducían en el conflicto ruso -ukrainiano no fueron solo los medios para transportar explosivos, sino que se convirtieron en sistemas de combate independientes capaces de analizar el entorno de campo y tomar decisiones tácticas sin intervención humana.

Esta transformación radical plantea preguntas existenciales: ¿quién tiene una verdadera soberanía cuando las decisiones de guerra se transfieren de líderes militares a algoritmos?

Cyber War agrega otra dimensión al problema. Los algoritmos ya no se limitan al asesinato por material, sino que se extienden a la muerte moral. Las técnicas de Deepfake permiten un aterrador video y videos falsificantes, que pueden usarse para destruir la reputación de los personajes o difundir el caos en las sociedades.

En Irán, hemos visto cómo estas tecnologías podrían convertirse en armas psicológicas mortales, capaces de desestabilizar la estabilidad social sin hacer una sola bala.

El futuro plantea escenarios más preocupantes: ¿qué pasa si los sistemas de inteligencia artificial militar han evolucionado al grado de gestión de estrategias completas sin intervención humana? ¿Qué pasaría si estos sistemas comenzaran a desarrollar sus propias tácticas que pueden entrar en conflicto con los objetivos políticos del hombre?

El verdadero peligro no es solo la precisión de estas armas, sino también para perder el control.

En conclusión, lo que enfrentamos no es solo un desarrollo técnico, sino un hito en el desarrollo de la persona misma. Los algoritmos mortales nos obligan a redefinir la relación entre los humanos y la máquina, entre el poder y la responsabilidad, y entre la guerra y la justicia.

Si la comunidad internacional no se mueve rápidamente para formular nuevas reglas que restringan esta fuerza, entonces las guerras que venidas no serán entre ejércitos, sino entre algoritmos … nosotros, simplemente, seremos objetivos digitales.

Las opiniones en el artículo no reflejan necesariamente la posición editorial de Al -Jazeera.

Source link

Publicaciones relacionadas

Botón volver arriba