- Con el objetivo de evitar tareas repetitivas, automatizar procesos y aumentar la productividad, muchas empresas y personas están descansando en la inteligencia artificial (IA) agéntica. Sin embargo, detrás de esta especie de “piloto automático” hay algunos aspectos a considerar.
Santiago, 30 de abril de 2026.- La IA Agéntica está adquiriendo un rol central. Mientras que el 2025 fue el año del auge de la IA Generativa, en 2026 la autonomía y automatización de la IA Agéntica está llevando la operación a niveles de mayor independencia. Sin duda, esta nueva generación de inteligencia artificial permite a los sistemas operar con una independencia mucho mayor, ejecutando tareas complejas sin intervención humana constante.
Es el caso de OpenClaw, una herramienta de agentes de IA de código abierto que no solo responde preguntas, sino reemplaza al ser humano leyendo correos electrónicos, gestionando el calendario o ejecutando mando en el computador desde aplicaciones como WhatsApp o Telegram. En esencia, actúa como un mayordomo digital con acceso directo a sistemas críticos.
«Es una plataforma versátil que, como toda tecnología, puede ser mal utilizada por ciberdelincuentes. Al ser de código abierto (open source), la posibilidad de que terceros desarrollen integraciones ha sido aprovechada por actores maliciosos. Recientemente, se detectó un paquete que intenta descargar malware para macOS, lo que intensifica el debate sobre los permisos y roles que se otorgan a los Agentes de IA», advierte el experto André Goujon.
La utilidad es innegable, pero la vertiginosa velocidad con la que se están adoptando los Agentes de IA está generando una peligrosa dependencia operativa sin que se haya realizado una evaluación exhaustiva de todos los riesgos inherentes. La falta de un marco regulatorio y de protocolos de seguridad claros expone a organizaciones y usuarios a vulnerabilidades sistémicas.
«Es fundamental establecer límites y definir con precisión las capacidades que se le conceden a estas herramientas. Si la premisa es que estos agentes van a tomar decisiones críticas por nosotros, debe existir un marco de acción que sea estrictamente restrictivo, transparente y, al menos, plenamente informado a los usuarios y supervisores humanos», recalca Goujon.
A continuación, algunos consejos de mantenimiento de seguridad al utilizar esta herramienta para minimizar los riesgos y utilizarla de manera segura y responsable:
Límites de autonomía. Es importante definir con precisión el alcance operacional, específicamente qué tareas puede ejecutar de forma autónoma y cuáles requieren validación humana. Por ejemplo, limitar su capacidad de realizar transacciones financieras. Asimismo, es importante implementar un sistema de «doble verificación» o aprobación humana para acciones críticas. El agente debe alertar al usuario o a un supervisor designado antes de llevar a cabo ciertas funciones.
Monitoreo y auditoría de acciones. Hay que asegurarse de que el agente mantenga un registro exhaustivo de todas sus acciones, decisiones y las fuentes de información utilizadas.
Alertas de comportamiento anómalo. Debemos configurar umbrales y patrones de comportamiento esperados. Si el agente se desvía significativamente de sus instrucciones o realiza acciones inesperadas, debe generar una alerta inmediata.
Credenciales y permisos de acceso. Se debe aplicar el principio de privilegio mínimo, otorgando al agente sólo los permisos y el acceso a los datos estrictamente necesarios para cumplir con su función asignada.
Validación de fuentes de información. Todos los datos que se le entregan al agente deben ser revisados para evitar la inyección de prompts maliciosos o datos envenenados que puedan manipular su comportamiento (prompt injection). Asimismo, analizar las acciones y resultados producidos por el agente antes de que impacten sistemas externos, especialmente si involucran la modificación o eliminación de datos, es clave.
Mitigación de errores. Debe existir un mecanismo inmediato para pausar o detener completamente la operación del agente si se detecta un comportamiento errático o malicioso. Además, hay que asegurar que los sistemas con los que interactúa el agente tenga copias de seguridad recientes en caso de que una acción autónoma cause una corrupción de datos.
“La seguridad de la IA Agéntica no reside solo en su código, sino en la gobernanza y las restricciones que la supervisión humana imponga a su autonomía. Por ende, al aplicar estos principios, las organizaciones y usuarios pueden aprovechar su potencial mientras gestionan proactivamente los riesgos de seguridad y operativos asociados a su alta capacidad de automatización”, sentencia Goujon.


