- Octubre es el Mes de Concienciación sobre Ciberseguridad y, a medida que la IA transforma nuestra forma de vivir y trabajar, surge una pregunta central: ¿cómo podemos saber quién es real en línea?
- Según el reporte “Bad Bot” de Imperva, Chile se encuentra entre los países más afectados por estafas y deepfakes en América, en un contexto donde los bots ya superan al tráfico humano en Internet y aumentan los riesgos digitales.
Chile, 15 de octubre. – Internet está entrando en una nueva era de sofisticación, y lo mismo ocurre con las estafas en línea. Desde familiares clonados con IA que piden dinero hasta ejecutivos deepfake que engañan a empleados para realizar transferencias millonarias, el fraude en línea ha evolucionado desde enlaces de phishing hasta identidades sintéticas que se ven y suenan reales. Solo este año, el fraude mediante deepfakes podría aumentar un 162%, afectando tanto a empresas como a personas.
En este Mes de Concienciación sobre Ciberseguridad, la atención se centra en un punto ciego crítico de la seguridad tradicional: la prueba de humanidad. Los cortafuegos y la encriptación protegen los sistemas, pero no a las personas. A medida que la IA transforma industrias y la creatividad, nos obliga a enfrentar una pregunta fundamental: ¿cómo podemos preservar la confianza en un mundo digital donde cualquier cosa puede parecer humana?
“La IA está desbloqueando un potencial increíble. Pero, a medida que se vuelve más fácil replicar el comportamiento humano, la ciberseguridad debe evolucionar más allá de los cortafuegos y las contraseñas. Necesitamos formas de verificar la humanidad, de manera privada y universal, para garantizar que la tecnología siga sirviendo a las personas y no engañandolas”, señaló Martín Mazza, gerente regional de Tools For Humanity (TFH).
Dónde fallan hoy las protecciones antifraude
Según el estudio Bad Bot, realizado por Imperva, Chile está entre los seis países más afectados por estafas y deepfakes hechos con bots en América. En específico, el estudio reveló que seis de cada diez chilenos ya han sido víctimas de estafas financieras a través de redes sociales. A través de industrias e instituciones, los estafadores están explotando vulnerabilidades sistémicas a gran escala:
- Suplantación sintética: La clonación de voz amenaza a cualquiera que haya publicado un video en línea. Los delincuentes crean identidades sintéticas, mezclando datos reales y falsos para establecer historiales crediticios que operan durante años sin ser detectados. Con archivos deepfake que aumentan de 500.000 en 2023 a un estimado de 8 millones en 2025, cada llamada y video genera duda: ¿es realmente quien creo que es?
- Crisis de confianza impulsada por perfiles falsos: Las aplicaciones de citas reportan entre un 10 y 15% de perfiles falsos en sus plataformas. Las redes profesionales enfrentan currículums generados por IA. Las plataformas de reseñas luchan contra campañas de bots que pueden destruir negocios de la noche a la mañana. Incluso el sentimiento público deja de ser confiable.
- Mayorías falsas: Ejércitos de bots inundan comentarios públicos en redes sociales, manipulan encuestas y generan movimientos que parecen surgir de personas reales. Esto crea la ilusión de que “todos” piensan igual o apoyan cierta idea. En realidad, solo unos pocos individuos controlan miles de cuentas. Esto distorsiona lo que vemos en línea y dificulta distinguir qué conversaciones son realmente genuinas.
Por qué las defensas actuales no son suficientes
La seguridad tradicional pregunta: “¿Tienes la contraseña correcta?” o “¿Puedes recibir este SMS?” Pero estos sistemas asumen que ya eres humano. Protegen la puerta, pero nunca verifican si quien la atraviesa es una persona o un programa sofisticado. La solución requiere un cambio fundamental: establecer prueba de humanidad única desde la capa base, no como un añadido. Esto implica:
- Verificación con privacidad primero: Demuestra que eres un humano único sin revelar datos personales. Pruebas criptográficas confirman la humanidad sin necesidad de vigilancia.
- Interoperabilidad universal: Una sola verificación para todos los servicios, eliminando controles repetidos y evitando el rastreo entre plataformas.
- Diseño resistente al fraude: A diferencia de las contraseñas, que pueden ser robadas, la prueba de humanidad crea una verificación única que no puede ser transferida ni sintetizada.
- Accesibilidad global: Debe funcionar para todos, en cualquier lugar, sin importar el dispositivo o el nivel técnico.
En la actualidad, una de las soluciones que encarna estos principios mediante la tecnología es World ID. Al verificar anónimamente la humanidad única una sola vez, las personas pueden interactuar en múltiples servicios sabiendo si los demás participantes son genuinamente humanos.
Las organizaciones que implementan la prueba de humanidad se posicionan para atender a clientes reales, proteger usuarios reales y mantener confianza real. En una era en la que las máquinas pueden imitar perfectamente a los humanos, demostrar humanidad se convierte en la base de toda interacción significativa en línea.