- Según datos de Imperva, cerca del 50% del tráfico en internet proviene de bots.
- Deepfakes e IA generativa están desdibujando los límites entre lo real y lo sintético en línea.
- La prueba de humanidad es esencial para asegurarnos de consumir contenido hecho por personas reales.
17 de mayo de 2025 – ¿Quién está del otro lado de la pantalla? En plena era digital y en el marco del Día Mundial del Internet, esa simple pregunta se ha vuelto más difícil de responder. Con la evolución de la inteligencia artificial, los bots y los deepfakes, cada vez es más común encontrarse con contenido, perfiles o interacciones que parecen humanos… pero no lo son.
En Chile, el abuso de esta tecnología ha llevado a casos muy graves, como por ejemplo, la difusión de imágenes de contenido sexual de estudiantes del Colegio Saint George que fueron generadas artificialmente. Y en las últimas semanas ha crecido la preocupación por la aparición de videos deepfakes donde se usa el rostro de Karen Doggenweiler o Rafael Araneda para promocionar falsas ofertas de bancos nacionales. Ante esto, se vuelve indispensable tener más certeza y confianza en lo que vemos, leemos y con quien interactuamos en línea.
Pero, ¿qué son los bots y los deepfakes?
Los bots son programas automatizados que pueden ejecutar tareas repetitivas imitando el comportamiento humano, como responder mensajes, comentar en redes sociales o recopilar información. Aunque muchos son útiles, por ejemplo, los que ofrecen soporte técnico, otros son usados para otros fines, como difundir noticias falsas o acaparar boletos y reservaciones en línea. Según datos de un reporte de Imperva en 2024, se estima que cerca del 50% del tráfico en internet proviene de bots: algunos útiles, otros maliciosos.
En paralelo, los avances en IA generativa han desdibujado los límites entre lo real y lo creado. Los deepfakes son contenidos generados con inteligencia artificial que imitan rostros, voces y gestos humanos con una precisión tan alta que pueden engañar a simple vista. Se utilizan para crear imágenes o videos falsos de personas que parecen completamente reales.
Se ha intentado combatir el uso malicioso de bots mediante mecanismos como CAPTCHAs o verificaciones con documentos de identidad. Sin embargo, estas medidas a menudo entorpecen la experiencia del usuario y pueden ser vulneradas por sistemas avanzados de inteligencia artificial. Además, implican una gran responsabilidad en cuanto al manejo seguro de datos sensibles. En medio de este panorama, ¿cómo podemos recuperar la confianza de que estamos interactuando con una persona real o viendo contenido hecho por humano en internet?
Una respuesta es la prueba de humanidad, y ahí es donde entra World con World ID, una credencial que verifica en entornos digitales que eres una persona real, de forma anónima. A través de una tecnología privada y descentralizada, World ID permite a las personas confirmar que son reales y únicas, sin revelar su identidad.
Su cámara avanzada, el Orb, utiliza tecnología criptográfica para generar un código anónimo cifrado único a partir de una imagen del rostro y ojos de una persona, sin guardar las imágenes ni datos biométricos. De esta manera, las plataformas pueden integrar una capa de verificación de humanidad que empodera a las personas en la era de la IA.
“World busca empoderar a la humanidad. En tiempos donde una imagen falsa puede volverse viral en segundos y un bot puede simular una conversación convincente, contar con una herramienta que confirme que detrás de un perfil o interacción en internet hay una persona real se vuelve una necesidad. Respondemos a esto con una propuesta que demuestra, con tecnología y transparencia que es posible construir un internet donde la autenticidad humana vuelva a tener valor”, señala Martín Mazza, Gerente Regional para América latina de Tools for Humanity.
La conversación sobre bots, IA generativa y contenido falso ya no es cosa del futuro: está ocurriendo hoy. Y si queremos construir un internet más confiable y seguro donde las voces humanas sigan teniendo valor, necesitamos asegurarnos de que, detrás de cada interacción o contenido, haya una persona real.
Fuente: Parla.