Cuando la IA diseña virus biológicos: avances y amenazas para la ciberseguridad
- ITSec S.A.
- 2 oct
- 2 Min. de lectura
Actualizado: 3 oct
Qué se logró en el laboratorio
Un grupo de científicos de la Universidad de Stanford y colaboradores internacionales desarrolló los modelos de inteligencia artificial Evo 1 y Evo 2, entrenados con bases de datos de genomas virales. Su meta era explorar si la IA podía generar genomas funcionales que no existen en la naturaleza.
El experimento se enfocó en bacteriófagos (virus que infectan bacterias, no humanos), por razones de seguridad.
Los modelos generaron miles de secuencias candidatas.
Se sintetizaron y probaron 302 diseños en laboratorio.
De ellos, 16 resultaron viables, capaces de infectar y destruir bacterias E. coli.
Este logro confirma que la IA puede “escribir” código biológico nuevo con resultados funcionales en el mundo real. Más allá del impacto académico, el potencial terapéutico es enorme: bacteriófagos diseñados podrían combatir bacterias resistentes a antibióticos, uno de los mayores problemas de salud pública actual.
Dónde están las amenazas
La misma tecnología que abre oportunidades también enciende alarmas en bioseguridad y ciberseguridad:
Doble uso: herramientas como Evo pueden servir tanto para fines médicos como para el diseño de patógenos peligrosos.
Fugas de información: un ciberataque a los datasets o al propio modelo podría dar acceso a secuencias sintéticas listas para uso indebido.
Manipulación de la IA: mediante ataques adversarios (jailbreaks), se podría forzar a los modelos a producir secuencias con características patógenas.
Cadena de suministro vulnerable: las empresas que sintetizan ADN son un eslabón crítico y pueden ser blanco de ciberataques para introducir fragmentos alterados.
Infraestructuras críticas biológicas: los laboratorios que trabajan con estos modelos se convierten en objetivos de espionaje y bio-ransomware, tal como ya ocurre con hospitales y farmacéuticas.
Qué debe hacer la ciberseguridad
Para enfrentar este escenario, la ciberseguridad debe adaptarse al terreno bio-digital:
Zero Trust aplicado a biología: validar múltiples veces cualquier secuencia generada antes de usarla.
Auditoría y trazabilidad: registrar cada genoma creado con IA como si fuera un log crítico de seguridad.
Threat Intelligence bio-digital: construir redes internacionales para monitorear intentos de generar secuencias riesgosas.
Protección de datos y modelos: reforzar el cifrado, segmentación y acceso controlado en datasets genómicos y modelos de IA.
Marco regulatorio global: avanzar hacia convenios internacionales que regulen el uso de IA en biología sintética, del mismo modo que existen tratados contra armas biológicas.
Conclusión
La creación de virus sintéticos mediante IA marca un hito científico sin precedentes. Pero también deja clara una nueva realidad: cada avance biotecnológico amplía la superficie de ataque digital. La ciberseguridad ya no solo protege sistemas informáticos; ahora debe también custodiar el código de la vida.
Fuentes
Preprint: Evo 1 and Evo 2 generative models for viral genomes (bioRxiv, 2025) enlace
Stanford News: Generative AI tool marks a milestone in biology
Science News: AI designs working bacteriophages from scratch
Infobae: Virus creados por inteligencia artificial eliminan bacterias en laboratorio
Testbiotech: AI-designed viruses created for the first time


