● Octubre es el Mes de Concienciación sobre Ciberseguridad y, a medida que la IA
transforma nuestra forma de vivir y trabajar, surge una pregunta central: ¿cómo
podemos saber quién es real en línea?
● Según el reporte “Bad Bot” de Imperva, Chile se encuentra entre los países más
afectados por estafas y deepfakes en América, en un contexto donde los bots ya
superan al tráfico humano en Internet y aumentan los riesgos digitales.
Chile, 14 de octubre. – Internet está entrando en una nueva era de sofisticación, y lo mismo
ocurre con las estafas en línea. Desde familiares clonados con IA que piden dinero hasta
ejecutivos deepfake que engañan a empleados para realizar transferencias millonarias, el
fraude en línea ha evolucionado desde enlaces de phishing hasta identidades sintéticas que se
ven y suenan reales. Solo este año, el fraude mediante deepfakes podría aumentar un 162%,
afectando tanto a empresas como a personas.
En este Mes de Concienciación sobre Ciberseguridad, la atención se centra en un punto ciego
crítico de la seguridad tradicional: la prueba de humanidad. Los cortafuegos y la encriptación
protegen los sistemas, pero no a las personas. A medida que la IA transforma industrias y la
creatividad, nos obliga a enfrentar una pregunta fundamental: ¿cómo podemos preservar la
confianza en un mundo digital donde cualquier cosa puede parecer humana?
“La IA está desbloqueando un potencial increíble. Pero, a medida que se vuelve más fácil
replicar el comportamiento humano, la ciberseguridad debe evolucionar más allá de los
cortafuegos y las contraseñas. Necesitamos formas de verificar la humanidad, de manera
privada y universal, para garantizar que la tecnología siga sirviendo a las personas y no
engañandolas”, señaló Martín Mazza, gerente regional de Tools For Humanity (TFH).
Dónde fallan hoy las protecciones antifraude
Según el estudio Bad Bot, realizado por Imperva, Chile está entre los seis países más
afectados por estafas y deepfakes hechos con bots en América. En específico, el estudio reveló
que seis de cada diez chilenos ya han sido víctimas de estafas financieras a través de redes
sociales. A través de industrias e instituciones, los estafadores están explotando
vulnerabilidades sistémicas a gran escala:
- Suplantación sintética: La clonación de voz amenaza a cualquiera que haya publicado
un video en línea. Los delincuentes crean identidades sintéticas, mezclando datos
reales y falsos para establecer historiales crediticios que operan durante años sin ser
detectados. Con archivos deepfake que aumentan de 500.000 en 2023 a un estimado
de 8 millones en 2025, cada llamada y video genera duda: ¿es realmente quien creo
que es? - Crisis de confianza impulsada por perfiles falsos: Las aplicaciones de citas reportan
entre un 10 y 15% de perfiles falsos en sus plataformas. Las redes profesionales
enfrentan currículums generados por IA. Las plataformas de reseñas luchan contra
campañas de bots que pueden destruir negocios de la noche a la mañana. Incluso el
sentimiento público deja de ser confiable. - Mayorías falsas: Ejércitos de bots inundan comentarios públicos en redes sociales,
manipulan encuestas y generan movimientos que parecen surgir de personas reales.
Esto crea la ilusión de que “todos” piensan igual o apoyan cierta idea. En realidad, solo
unos pocos individuos controlan miles de cuentas. Esto distorsiona lo que vemos en
línea y dificulta distinguir qué conversaciones son realmente genuinas.
Por qué las defensas actuales no son suficientes
La seguridad tradicional pregunta: “¿Tienes la contraseña correcta?” o “¿Puedes recibir este
SMS?” Pero estos sistemas asumen que ya eres humano. Protegen la puerta, pero nunca
verifican si quien la atraviesa es una persona o un programa sofisticado. La solución requiere
un cambio fundamental: establecer prueba de humanidad única desde la capa base, no como
un añadido. Esto implica:
● Verificación con privacidad primero: Demuestra que eres un humano único sin
revelar datos personales. Pruebas criptográficas confirman la humanidad sin necesidad
de vigilancia.
● Interoperabilidad universal: Una sola verificación para todos los servicios, eliminando
controles repetidos y evitando el rastreo entre plataformas.
● Diseño resistente al fraude: A diferencia de las contraseñas, que pueden ser robadas,
la prueba de humanidad crea una verificación única que no puede ser transferida ni
sintetizada.
● Accesibilidad global: Debe funcionar para todos, en cualquier lugar, sin importar el
dispositivo o el nivel técnico.
En la actualidad, una de las soluciones que encarna estos principios mediante la tecnología es
World ID. Al verificar anónimamente la humanidad única una sola vez, las personas pueden
interactuar en múltiples servicios sabiendo si los demás participantes son genuinamente
humanos.
Las organizaciones que implementan la prueba de humanidad se posicionan para atender a
clientes reales, proteger usuarios reales y mantener confianza real. En una era en la que las
máquinas pueden imitar perfectamente a los humanos, demostrar humanidad se convierte en la
base de toda interacción significativa en línea.
Fuente: Parla.