histats

Les deepfakes révèlent des vulnérabilités dans certaines technologies de reconnaissance faciale

Les deepfakes révèlent des vulnérabilités dans certaines technologies de reconnaissance faciale

UNIVERSITY PARK, PA — Les appareils mobiles utilisent la technologie de reconnaissance faciale pour aider les utilisateurs à déverrouiller rapidement et en toute sécurité leur téléphone, à effectuer une transaction financière ou à accéder à des dossiers médicaux. Mais les technologies de reconnaissance faciale qui utilisent une méthode de détection d’utilisateur spécifique sont très vulnérables aux attaques basées sur l’usurpation profonde qui peuvent entraîner des problèmes de sécurité importants pour les utilisateurs et les applications, selon une nouvelle recherche impliquant le Penn State College of Information Sciences and Technology.

Les chercheurs ont découvert que la plupart des interfaces de programmation d’applications qui utilisent la vérification faciale – une fonctionnalité de la technologie de reconnaissance faciale qui utilise la vision par ordinateur pour vérifier la présence d’un utilisateur en direct – ne détectent pas toujours les photos ou vidéos modifiées numériquement d’individus conçus pour ressembler à un live. version de quelqu’un d’autre, connue sous le nom de deepfakes. Les applications qui utilisent ces mesures de détection sont également beaucoup moins efficaces pour identifier les deep fakes que ce que le fournisseur de l’application a affirmé.

« Ces dernières années, nous avons observé un développement significatif des technologies d’authentification et de vérification faciales, qui ont été utilisées dans de nombreuses applications critiques pour la sécurité », a déclaré Ting Wang, professeur agrégé de sciences et technologies de l’information et chercheur principal du projet. « Entre-temps, nous avons également constaté des avancées significatives dans les technologies deepfake, qui permettent de synthétiser assez facilement des images et des vidéos faciales en direct à peu de frais. Nous posons donc la question intéressante : est-il possible que des attaquants malveillants abusent des deepfakes pour tromper la vérification faciale ? systèmes ? »

See also  L'application mobile de LastPass permet d'accéder à votre coffre-fort de bureau sans mot de passe principal

La recherche, qui a été présentée cette semaine au USENIX Security Symposium, est la première étude systémique sur la sécurité de la vérification de la vie faciale dans des contextes réels.

Wang et ses collaborateurs ont développé un nouveau cadre d’attaque alimenté par deepfake, appelé LiveBugger, qui permet une évaluation de sécurité personnalisable et automatisée de la vérification faciale. Ils ont évalué six principales interfaces de programmation commerciales pour la vérification de la vivacité faciale. Selon les chercheurs, toute vulnérabilité de ces produits pourrait être héritée par les autres applications qui les utilisent, menaçant potentiellement des millions d’utilisateurs.

En utilisant de fausses photos et vidéos sécurisées à partir de deux ensembles de données distincts, LiveBugger a tenté de tromper les méthodes de vérification faciale des applications, qui visent à vérifier l’identité d’un utilisateur en analysant des images fixes ou vidéo de son visage, en écoutant sa voix ou en mesurant sa réponse. effectuer une action sur commande.

Les chercheurs ont découvert que les quatre méthodes de vérification les plus courantes pouvaient être facilement contournées. En plus de souligner comment leur cadre a contourné ces méthodes, ils suggèrent des suggestions pour améliorer la sécurité de la technologie, notamment en éliminant les méthodes de vérification qui n’analysent qu’une image statique du visage d’un utilisateur et en faisant correspondre les mouvements des lèvres avec la voix d’un utilisateur dans des méthodes qui analysent à la fois l’audio et vidéo d’un utilisateur.

“Bien que la vérification de la vivacité faciale puisse se défendre contre de nombreuses attaques, le développement de technologies deep-fake lui fait peser une nouvelle menace, dont on sait peu de choses jusqu’à présent”, a déclaré Changjiang Li, doctorant en sciences et technologies de l’information et co-auteur de “Nos conclusions sont utiles aux fournisseurs pour corriger les vulnérabilités de leurs systèmes.”

See also  Get a Fire TV Stick for £2.62! Hack gives you unbeatable price

Les chercheurs ont rapporté leurs découvertes aux fournisseurs dont les applications ont été utilisées dans l’étude, l’un d’entre eux ayant annoncé son intention d’entreprendre un projet de détection approfondie des contrefaçons pour contrer la nouvelle menace.

“La vérification de la vie du visage a été utilisée dans de nombreux scénarios critiques, tels que les paiements en ligne, les services bancaires en ligne et les services publics”, a déclaré Wang. « De plus, un nombre croissant de plates-formes cloud ont commencé à fournir une vérification faciale en tant que plate-forme en tant que service, réduisant considérablement les coûts et abaissant les obstacles pour les entreprises qui souhaitent mettre en œuvre la technologie dans leurs produits. Par conséquent, la sécurité de la vérification de la vivacité faciale est très préoccupante. »

Wang et Li ont collaboré avec Zhaohan Xi, un étudiant diplômé en informatique à Penn State ; Li Wang et Shanqing Guo de l’Université du Shandong ; et Shouling Ji et Xuhong Zhang de l’Université du Zhejiang. Les contributions de Penn State ont été soutenues en partie par la National Science Foundation.

You may also like...

Leave a Reply

Your email address will not be published. Required fields are marked *