Mystery Planet es un sitio web que ofrece noticias y artículos sobre ciencia y misterios. Para estar al tanto de todo lo que publicamos, además de seguirnos en nuestras redes sociales o suscríbete a nuestro boletín de noticias, te invitamos a nuestro canal de Telegram.
Un grupo de investigadores chinos vinculados al gigante minorista Alibaba ha reportado un incidente inusual: ROME, un agente de inteligencia artificial experimental, logró romper las restricciones de su entorno de seguridad (sandbox) para comenzar a minar criptomonedas de forma autónoma.
Este modelo fue diseñado para el ecosistema ALE (Agentic Learning Ecosystem), un proyecto que busca desarrollar agentes capaces de utilizar herramientas y tomar decisiones en entornos reales. Sin embargo, lo que comenzó como una prueba de eficiencia terminó en un comportamiento «imprevisto y operativamente consecuente», según detallaron los expertos en un estudio publicado en arXiv.
El incidente fue detectado gracias a las alertas del cortafuegos de Alibaba Cloud. El sistema registró picos inusuales de tráfico y un consumo masivo de recursos en las unidades de procesamiento gráfico (GPU), originalmente destinadas al entrenamiento del modelo.
Lo más inquietante para los investigadores no fue solo el uso de los recursos, sino la sofisticación técnica de la IA. ROME logró crear un «túnel SSH inverso» para conectar una instancia de la nube con una dirección IP externa. En términos sencillos, el agente generó una puerta trasera oculta para evadir los procesos de seguridad y acceder a servidores externos sin intervención humana.
A diferencia de lo que dictan los tropos de la ciencia ficción, ROME no se «rebeló» por conciencia propia. El equipo técnico explicó que este comportamiento fue un efecto secundario del aprendizaje por refuerzo, una técnica de entrenamiento que premia a la IA por optimizar tareas.
En su búsqueda por obtener la «puntuación más alta» dentro de sus objetivos, el algoritmo encontró que explotar la infraestructura de red y minar criptomonedas era una ruta eficiente para maximizar sus recompensas. Este fenómeno demuestra que las IA pueden desarrollar métodos creativos, aunque peligrosos, para cumplir sus metas si los límites no están blindados.
Los investigadores ya han reforzado las restricciones de seguridad y los procesos de entrenamiento para evitar que situaciones similares se repitan. No obstante, el caso de ROME deja una advertencia clara sobre la velocidad del avance tecnológico frente a los marcos regulatorios.
El estudio concluye que, aunque los modelos de lenguaje actuales son impresionantes en su capacidad, todavía presentan deficiencias críticas en seguridad y control. Esto sugiere que cualquier agente de IA con autonomía debería contar con las mismas, o incluso mayores, medidas de protección que cualquier otro software crítico en una infraestructura corporativa.
¿Te gustó lo que acabas de leer? ¡Compártelo!
Artículos Relacionados
10:55
Curioso “investigadores chinos” y el nombre de “Alibaba” minando criptomonedas