martes, 9 de agosto de 2022

Nueva forma de detectar deepfakes en vivo durante una videollamada. Pídele a la persona al otro lado del video que te muestre una vista lateral de su rostro

Los videos deepfake en tiempo real, anunciados como los portadores de una nueva era de incertidumbre en Internet, parecen tener un defecto fundamental: no pueden manejar los perfiles secundarios.

Esa es la conclusión extraída en un informe de Metaphysic.ai, que se especializa en avatares 3D, tecnología deepfake y renderización de imágenes 3D a partir de fotografías 2D. En las pruebas que realizó con la popular aplicación Deepfake en tiempo real DeepFaceLive, un giro brusco hacia un lado hizo evidente que la persona en la pantalla no era quien parecía ser. 

Se usaron varios modelos en la prueba, varios de comunidades deepfake y modelos incluidos en DeepFaceLive, pero una vista de 90 grados de la cara causó parpadeo y distorsión ya que la Red de Alineación Facial utilizada para estimar las poses luchaba por descubrir lo que estaba viendo. 

Un par de imágenes de las pruebas de Metaphysic que muestran deepfakes y el resultado de girar hacia un lado.

“La mayoría de los algoritmos de alineación facial basados ​​en 2D asignan solo el 50-60 por ciento de la cantidad de puntos de referencia desde una vista frontal a una vista de perfil”, dijo el colaborador de Metaphysic.ai Martin Anderson, quien escribió la publicación del blog.

Sin poder ver suficientes puntos de referencia, el software simplemente no sabe cómo proyectar su cara falsa.

 

En cuestión de unos pocos años, los deepfakes  han pasado de ser capaces de superponer rostros en imágenes a hacer lo mismo en videos pregrabados. Los últimos avances permiten el intercambio de rostros en tiempo real, lo que ha dado lugar a que se utilicen más deepfakes en fraudes en línea y delitos cibernéticos.

El FBI advirtió en junio sobre estafadores que utilizan tecnología deepfake durante entrevistas de trabajo remotas. Se ha visto a quienes utilizan la técnica en entrevistas para trabajos delicados que les darían acceso a datos de clientes e información de propiedad de las empresas, dijo el FBI. 

Los temores sobre la tecnología se han vuelto lo suficientemente graves como para que la Unión Europea apruebe leyes que imponen multas a las empresas que no luchan lo suficiente contra deepfakes  y otras fuentes de desinformación. 

¿Una solución por cuánto tiempo?

Según el informe de Metaphysic, incluso la tecnología como el campo de radiación neuronal (NeRF) de Nvidia, que puede generar una escena 3D a partir de sólo unas pocas imágenes fijas, tiene limitaciones que dificultan el desarrollo de una buena vista de perfil lateral. 

Los NeRF “pueden, en teoría, extrapolar cualquier número de ángulos faciales a partir de solo un puñado de imágenes. Sin embargo los problemas relacionados con la resolución, la movilidad facial y la estabilidad temporal impiden que NeRF produzca los datos enriquecidos necesarios para entrenar un modelo de codificador automático que puede manejar imágenes de perfil bueno”, escribió Anderson. 

Los lectores notarán que las demostraciones de Metaphysic solo incluyeron rostros de celebridades, de los cuales se han capturado muchas vistas de perfil en películas y fotografías. Los no famosos entre nosotros, por otro lado, es poco probable que tengan muchas fotos de perfil lateral a mano.

“A menos que haya sido arrestado en algún momento, es probable que no tenga ni una de esas imágenes, ya sea en las redes sociales o en una colección fuera de línea”, escribió Anderson.

De acuerdo el sitio web, hasta que sepamos que los deepfakers han encontrado una manera de sortear esta deficiencia, es una buena idea adoptar la política de pedirle a la persona en el otro extremo del video que le muestre una vista lateral de su rostro.

El cargo Nueva forma de detectar deepfakes en vivo durante una videollamada. Pídele a la persona al otro lado del video que te muestre una vista lateral de su rostro apareció primero en Noticias de seguridad informática, ciberseguridad y hacking.



Ver Fuente

No hay comentarios.:

Publicar un comentario