Vous vous inquiétez de la confidentialité de vos selfies?  Ces outils peuvent aider à usurper l’IA de reconnaissance faciale

Vous vous inquiétez de la confidentialité de vos selfies? Ces outils peuvent aider à usurper l’IA de reconnaissance faciale

Vous êtes-vous déjà demandé ce qu’il advient d’un selfie que vous téléchargez sur un site de réseau social? Les militants et les chercheurs ont longtemps mis en garde contre la confidentialité des données et ont déclaré que les photographies téléchargées sur Internet pourraient être utilisées pour former des outils de reconnaissance faciale alimentés par l’intelligence artificielle (IA). Ces outils activés par l’IA (tels que Clearview, AWS Rekognition, Microsoft Azure et Face ++) pourraient à leur tour être utilisés par les gouvernements ou d’autres institutions pour suivre les personnes et même tirer des conclusions telles que les préférences religieuses ou politiques du sujet. Les chercheurs ont trouvé des moyens de duper ou d’usurper ces outils d’IA pour ne pas pouvoir reconnaître ou même détecter un selfie, en utilisant des attaques contradictoires – ou un moyen de modifier les données d’entrée qui provoquent des erreurs d’un modèle d’apprentissage en profondeur.

Deux de ces méthodes ont été présentées la semaine dernière à la Conférence internationale des représentations d’apprentissage (ICLR), une conférence de premier plan sur l’IA qui s’est tenue virtuellement. Selon un rapport du MIT Technology Review, la plupart de ces nouveaux outils pour duper les logiciels de reconnaissance faciale apportent de minuscules modifications à une image qui ne sont pas visibles à l’œil humain mais peuvent confondre une IA, forçant le logiciel à faire une erreur en identifiant clairement le la personne ou l’objet dans l’image, ou même l’empêcher de réaliser l’image est un selfie.

Emily Wenger, de l’Université de Chicago, a développé avec ses collègues l’un de ces outils de «camouflage d’image», appelé Fawkes. L’autre, appelé LowKey, est développé par Valeriia Cherepanova et ses collègues de l’Université du Maryland.

Fawkes ajoute des perturbations au niveau des pixels aux images qui empêchent les systèmes de reconnaissance faciale d’identifier les personnes qu’ils contiennent, mais cela laisse l’image inchangée pour les humains. Dans une expérience avec un petit ensemble de données de 50 images, Fawkes s’est avéré efficace à 100% contre les systèmes de reconnaissance faciale commerciaux. Fawkes peut être téléchargé pour Windows et Mac, et sa méthode a été détaillée dans un article intitulé «  Protéger la confidentialité personnelle contre les modèles d’apprentissage profond non autorisés  ».

Cependant, les auteurs notent que Fawkes ne peut pas induire en erreur les systèmes existants qui se sont déjà entraînés sur vos images non protégées. LowKey, qui étend le système de Wenger en modifiant minutieusement les images au point de tromper les modèles d’IA commerciaux pré-entraînés, l’empêchant de reconnaître la personne dans l’image. LowKey, détaillé dans un article intitulé «Leveraging Adversarial Attacks to Protect Social Media Users from Facial Recognition», est disponible pour une utilisation en ligne.

Une autre méthode, détaillée dans un article intitulé «  Exemples inexploitables: rendre les données personnelles inexploitables  » par Daniel Ma et d’autres chercheurs de l’Université Deakin en Australie, pousse un tel «  empoisonnement des données  » encore plus loin, en introduisant des changements dans les images qui forcent un modèle d’IA. de le jeter pendant la formation, empêchant l’évaluation après la formation.

Wenger note que Fawkes a été brièvement incapable de tromper Microsoft Azure, en disant: « Il est soudainement devenu robuste aux images masquées que nous avions générées … Nous ne savons pas ce qui s’est passé. » Elle a dit que c’était maintenant une course contre l’IA, avec Fawkes mis à jour plus tard pour pouvoir à nouveau usurper Azure. «C’est une autre course aux armements du chat et de la souris», a-t-elle ajouté.

Le rapport citait également Wenger en disant que si la réglementation contre ces outils d’IA contribuera à maintenir la confidentialité, il y aura toujours un «décalage» entre ce qui est légalement acceptable et ce que les gens veulent, et que des méthodes d’usurpation d’identité comme Fawkes peuvent aider à «combler cette lacune». Elle dit que sa motivation pour développer cet outil était simple: donner aux gens «un pouvoir» qu’ils n’avaient pas déjà.

Articles similaires

Les précommandes du Sony Xperia 1 III débuteront la semaine prochaine

Les précommandes du Sony Xperia 1 III débuteront la semaine prochaine

Réglementation des grandes technologies : les législateurs américains dans un débat marathon sur les projets de loi et la réforme des lois antitrust

Réglementation des grandes technologies : les législateurs américains dans un débat marathon sur les projets de loi et la réforme des lois antitrust

Kuo: l’interdiction de Huawei, des spécifications améliorées conduiront à de fortes expéditions d’iPhone 13 5G

Kuo: l’interdiction de Huawei, des spécifications améliorées conduiront à de fortes expéditions d’iPhone 13 5G

L’iPhone mini restera encore un an, mais cela ne veut pas dire qu’il durera beaucoup plus longtemps

L’iPhone mini restera encore un an, mais cela ne veut pas dire qu’il durera beaucoup plus longtemps

Articles récents