Mystery Planet es un sitio web que ofrece noticias y artículos sobre ciencia y misterios. Para estar al tanto de todo lo que publicamos, además de seguirnos en nuestras redes sociales o suscríbete a nuestro boletín de noticias, te invitamos a nuestro canal de Telegram.
El desarrollo de robots autónomos y su uso en el ámbito militar es cada vez más común. Actualmente, los drones y vehículos autónomos permiten a los soldados realizar misiones a distancia, manteniéndolos fuera de peligro. Sin embargo, algunos expertos advierten sobre los riesgos de ceder a las máquinas decisiones tan delicadas como la de atacar objetivos humanos.
En 2020, en medio del conflicto en Libia, drones kamikazes atacaron un convoy del Ejército Nacional Libio sin intervención humana directa, destruyendo varios vehículos. Este ataque autónomo sin órdenes de humanos es un ejemplo del futuro que podría esperarse en los campos de batalla. La capacidad de tomar decisiones sin supervisión humana plantea la posibilidad de un conflicto en el que solo la «lógica fría» de la inteligencia artificial (IA) determine quién vive y quién muere.
Actualmente, los ejércitos todavía mantienen un «hombre en el circuito», es decir, un humano que autoriza cualquier ataque. No obstante, el rápido avance en la IA está creando sistemas cada vez más autónomos, capaces de navegar y, en algunos casos, de planificar rutas sin asistencia humana.
El uso de IA en drones militares, por ejemplo, plantea el dilema de si llegará un momento en el que la intervención humana no sea viable ni efectiva en medio de un combate veloz y dinámico.
Desde tiempos remotos, la evolución de las armas ha permitido a los humanos distanciarse del acto de liquidar a su prójimo. Desde armas de mano, como lanzas y cuchillos, hasta armas de fuego y misiles, cada avance ha creado una barrera psicológica y física entre el soldado y su objetivo. Hoy en día, con el desarrollo de drones y sistemas de armamento autónomos, la guerra ha llegado a un punto donde la distancia no es solo física, sino emocional y ética.
Samuel Bendett, investigador en el Centro para una Nueva Seguridad Estadounidense, comenta que el costo de la autonomía militar disminuirá con el tiempo, permitiendo desplegar estos sistemas en grandes cantidades. En este escenario, sería complicado que los humanos puedan responder a ataques realizados por sistemas autónomos, ya que estos operarían en múltiples frentes —terrestre, aéreo, marítimo y cibernético— de forma simultánea. Esto podría forzar a los ejércitos a depender de sistemas autónomos para defenderse y para decidir el curso de sus acciones.
El conflicto en Ucrania ha demostrado cómo los robots pueden influir en el campo de batalla. En enfrentamientos recientes, vehículos autónomos de combate rusos fueron destruidos por drones ucranianos, ambos controlados por operadores humanos. Aún así, la dependencia del país presidido por Volodímir Zelenski en sistemas autónomos refleja una realidad para países con escasez de personal militar.
Muchos expertos ucranianos sugieren que, en conflictos futuros, los robots deberían ser la primera línea de defensa, seguidos por soldados humanos si es necesario.
A pesar de los avances, la inteligencia artificial aún comete errores. Zach Kallenborn, experto en armas autónomas, advierte que los sistemas actuales de visión artificial son propensos a fallos, lo que podría causar víctimas civiles o errores que escalen conflictos. Un arma autónoma podría atacar a un soldado ajeno al conflicto, provocando represalias internacionales. En situaciones extremas, como el uso de armas nucleares autónomas, los errores de IA tendrían consecuencias catastróficas.
Por otra parte, existen contextos donde la autonomía podría reducir el riesgo, como en el caso de un arma defensiva protegiendo un buque en alta mar de misiles enemigos. En estos escenarios, el riesgo de afectar a civiles es bajo. Sin embargo, Kallenborn enfatiza que la «valentía moral» de un humano para asumir la responsabilidad de quitar una vida sigue siendo crucial. La eliminación de la decisión humana en la guerra podría conllevar que el criterio ético y la compasión desaparezcan de estos enfrentamientos.
La tendencia hacia una guerra cada vez más autónoma es clara y, para algunos, inevitable. A medida que la tecnología avance, será cada vez más difícil justificar la presencia humana en cada decisión de combate. Esta transición, empero, plantea preguntas urgentes: ¿será la IA capaz de distinguir de manera confiable entre combatientes y civiles? ¿Estarán las naciones dispuestas a aceptar daños colaterales en nombre de una guerra más rápida?
A pesar de que los ejércitos actuales aún prefieren mantener humanos en el proceso de toma de decisiones, la presión por obtener ventajas estratégicas podría llevar a un futuro en el que las máquinas sean los principales actores en los conflictos, algo que recuerda inquietantemente a la narrativa planteada en la saga de Terminator, donde las máquinas, diseñadas con fines similares, deciden que el enemigo es la propia humanidad.
El tiempo dirá si la historia toma un giro similar al de la ficción o si la sociedad encuentra un equilibrio entre innovación y responsabilidad ética.
¿Te gustó lo que acabas de leer? ¡Compártelo!
Artículos Relacionados
0 comentarios