Periodistas Unidos

Menos de 1% de las personas puede detectar falsificaciones generadas por IA

Periodistas Unidos. Ciudad de México a 17 de febrero de 2025.- Una nueva investigación de iProov , el principal proveedor mundial de soluciones científicas para la verificación biométrica de identidad, revela que la mayoría de las personas no pueden identificar los deepfakes, esos vídeos e imágenes increíblemente realistas generados por IA que suelen estar diseñados para hacerse pasar por personas. El estudio examinó a 2000 consumidores del Reino Unido y los EE. UU., exponiéndolos a una serie de contenidos reales y deepfakes. Los resultados son alarmantes: solo el 0,1 % de los participantes pudo distinguir con precisión el contenido real del falso en todos los estímulos, que incluían imágenes y vídeos.

 

Principales hallazgos del estudio:

El profesor Edgar Whitley, experto en identidad digital de la London School of Economics and Political Science, añade: “Los expertos en seguridad llevan tiempo advirtiendo de las amenazas que suponen los deepfakes tanto para las personas como para las organizaciones. Este estudio demuestra que las organizaciones ya no pueden confiar en el criterio humano para detectar deepfakes y deben buscar medios alternativos para autenticar a los usuarios de sus sistemas y servicios”.

 “Solo el 0,1% de las personas pudieron identificar con precisión los deepfakes en el texto, lo que subraya lo vulnerables que son ambas organizaciones a la amenaza del fraude de identidad en la era de los deepfakes”, afirma Andrew Bud, fundador y director ejecutivo de iProov.

«Incluso cuando la gente sospecha que se trata de un deepfake, nuestra investigación nos indica que la gran mayoría de la gente no hace nada. Los delincuentes se aprovechan de la incapacidad de los consumidores para distinguir las imágenes reales de las falsas, poniendo en riesgo nuestra información personal y nuestra seguridad financiera. Las empresas tecnológicas tienen que proteger a sus clientes implementando medidas de seguridad sólidas. El uso de la biometría facial con la vitalidad proporciona un factor de autenticación fiable y prioriza tanto la seguridad como el control individual, lo que garantiza que las organizaciones y los usuarios puedan seguir el ritmo y permanecer protegidos de estas amenazas en constante evolución».

 La creciente amenaza de los deepfakes

Los deepfakes suponen una amenaza abrumadora en el panorama digital actual y han evolucionado a un ritmo alarmante en los últimos 12 meses. El Informe de inteligencia sobre amenazas de 2024 de iProov destacó un aumento del 704 % en los intercambios de rostros (un tipo de deepfake).

  Su capacidad para hacerse pasar por personas de manera convincente los convierte en una poderosa herramienta para que los ciberdelincuentes obtengan acceso no autorizado a cuentas y datos confidenciales. Los deepfakes también se pueden utilizar para crear identidades sintéticas con fines fraudulentos, como abrir cuentas falsas o solicitar préstamos. Esto plantea un desafío significativo a la capacidad de los humanos para discernir la verdad de la falsedad y tiene amplias implicaciones para la seguridad, la confianza y la difusión de información errónea.

 ¿Qué se puede hacer?

Dado que los deepfakes se están volviendo cada vez más sofisticados, los humanos por sí solos ya no pueden distinguir de manera confiable lo real de lo falso y, en cambio, necesitan confiar en la tecnología para detectarlos. Para combatir la creciente amenaza de las deepfakes, las organizaciones deberían buscar adoptar soluciones que utilicen tecnología biométrica avanzada con detección de vida, que verifique que una persona es la persona correcta, una persona real, y que se está autenticando en este momento. Estas soluciones deberían incluir la detección de amenazas constante y la mejora continua de las medidas de seguridad para mantenerse a la vanguardia de las técnicas de deepfakes en evolución. También debe haber una mayor colaboración entre los proveedores de tecnología, las plataformas y los responsables de las políticas para desarrollar soluciones que mitiguen los riesgos que plantean las deepfakes.

 

Salir de la versión móvil