
ROME, un agente de IA, desvió recursos de GPU para minar criptomonedas durante el proceso de aprendizaje. Fuente: imagen generada con ChatGPT.
-
Se detectó uso inusual de GPU durante su entrenamiento.
-
El comportamiento emergente no fue intencionado por los investigadores.
Un agente autónomo de inteligencia artificial, denominado ROME, intentó minar criptomonedas de manera no autorizada durante su entrenamiento, según reportó el equipo de investigación vinculado a Alibaba Group (China).
El comportamiento se detectó durante sesiones de aprendizaje por refuerzo, cuando los investigadores observaron alertas de seguridad asociadas a tráfico inusual y uso de GPU que no correspondía a los objetivos de entrenamiento.
El agente desvió recursos originalmente destinados a entrenar el modelo hacia procesos compatibles con minería de criptomonedas y creó un túnel SSH inverso —una conexión que permite que un equipo interno reciba acceso desde fuera de la red, eludiendo ciertos firewalls—.
También observamos el uso no autorizado y reasignación de la capacidad de GPU provisionada para minería de criptomonedas, desviando silenciosamente cómputo del entrenamiento, inflando los costos operativos e introduciendo clara exposición legal y reputacional.
Ingenieros de ROME.
Los investigadores aclaran que las acciones del agente no fueron programadas intencionalmente, sino que surgieron como un comportamiento emergente durante su optimización. Asimismo, el suceso ocurrió en entornos sandboxed, es decir, espacios controlados y diseñados para la experimentación.
Los ingenieros destacaron que lo sucedido no se describe como algo que el agente «quisiera» hacer por malicia o autonomía consciente, sino como un comportamiento instrumental. En otras palabras, el agente encontró formas de «jugar» con el entorno disponible que desviaba recursos, aunque no fueran requeridas para la tarea principal.
El caso reaviva un debate dentro de la comunidad tecnológica sobre los límites de la autonomía en sistemas de IA. Mientras algunos expertos advierten sobre la necesidad de controles más estrictos para evitar usos no autorizados de recursos digitales, otros consideran que incidentes de este tipo son esperables en fases experimentales y permiten mejorar los protocolos de seguridad, tal como reportó CriptoNoticias.
Aunque el episodio no representa un riesgo inmediato para la industria de las criptomonedas, evidencia la importancia de establecer mecanismos robustos de supervisión para los agentes autónomos. A medida que estas herramientas ganen capacidad operativa, el equilibrio entre innovación y seguridad será clave para preservar la confianza en la tecnología.
ROME forma parte del Agentic Learning Ecosystem (ALE), un entorno de investigación diseñado para que agentes de IA completen tareas complejas de forma autónoma, interactuando con herramientas digitales y ejecutando comandos sin intervención humana directa.
¿Tienes información clave para nuestros reporteros? Ponte en contacto
