Los científicos demuestran que los detectores deepfake pueden ser engañados


Universidades, organizaciones y gigantes tecnológicos, como Microsoft y Facebook, han estado trabajando en herramientas que pueden detectar deepfakes en un esfuerzo por prevenir su uso para la propagación de medios maliciosos y desinformación. Sin embargo, los detectores deepfake aún pueden ser engañados, advirtió un grupo de científicos informáticos de UC San Diego. El equipo mostró cómo las herramientas de detección pueden engañarse insertando entradas llamadas «ejemplos de adversarios» en cada cuadro de video en la conferencia de visión por computadora WACV 2021 que tuvo lugar en línea en enero.

En su anuncio, los científicos explicaron que los ejemplos contradictorios son imágenes manipuladas que pueden hacer que los sistemas de inteligencia artificial se equivoquen. Mira, la mayoría de los detectores funcionan rastreando rostros en videos y enviando datos faciales recortados a una red neuronal; los videos deepfake son convincentes porque fueron modificados para copiar el rostro de una persona real, después de todo. El sistema de detección puede entonces determinar si un video es auténtico al observar elementos que no se reproducen bien en deepfakes, como el parpadeo.

Los científicos de UC San Diego descubrieron que al crear ejemplos adversarios de la cara e insertarlos en cada cuadro de video, pudieron engañar a los «detectores de deepfake de última generación». Además, la técnica que desarrollaron funciona incluso para videos comprimidos e incluso si no tenían acceso completo al modelo del detector. Un mal actor que invente la misma técnica podría crear deepfakes que pueden evadir incluso las mejores herramientas de detección.

Entonces, ¿cómo pueden los desarrolladores crear detectores que no puedan ser engañados? Los científicos recomiendan utilizar el entrenamiento del adversario, en el que un adversario adaptativo sigue generando deepfakes que pueden pasar por alto el detector mientras se está entrenando, de modo que el detector pueda seguir mejorando en la detección de imágenes no auténticas.

Los investigadores escribieron en su artículo:

“Para usar estos detectores deepfake en la práctica, argumentamos que es esencial evaluarlos contra un adversario adaptativo que es consciente de estas defensas y está tratando intencionalmente de frustrar estas defensas. Demostramos que los métodos actuales de vanguardia para la detección de deepfake pueden evitarse fácilmente si el adversario tiene un conocimiento completo o incluso parcial del detector «.



Fuente: engadget.com

Deja una respuesta

*

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con tus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, aceptas el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad