Hackfest 2024 - Édition 16-bit

Vos préférences linguistiques ont été sauvées. Nous pensons que nous avons une bonne traduction française, mais si vous rencontrez des problèmes ou des erreurs, veuillez nous contacter !

Naeem Budhwani

Naeem Budhwani is a consultant at Accenture currently working on topics including hardware security and application security. Naeem presented at HackFest in 2023 on a SAST visualization tool using novel graph theory methods. He is regarded as a Canadian subject matter expert in threat modeling. Naeem has delivered guest lectures on application security at Seneca College and York University. He holds a bachelor’s in applied mathematics and computer science from the University of Western Ontario.


De quel pays êtes vous?

Canada


Intervention

11 oct.
19:30
20minutes
Détection de deepfake dans le navigateur
Naeem Budhwani, Pierre Desclaux

Un deepfake APT menace d'endommager la fiabilité de nos institutions sociales - y compris nos cours et le processus forensique. Cependant, la détection des deepfakes n'est pas un problème résolu et souffre de plusieurs lacunes: une tendance à trop se focaliser sur des visages, l'utilisation des techniques de détection qui pourraient être décontournées par un acteur déterminé, une faible généralisabilité entre plusieurs ensembles de données, et une faible efficacité computationnelle sur les endpoints. D'ailleurs, des chercheurs n'ont que récemment (depuis 2023) commencé à se composer avec la détection des images générées par des Diffusion Models (DMs) dont DALL-E 2, et non seulement des images provenant des modèles GAN plus anciens.
Notre vision vise à nous ramener à une détection en temps réel des deepfakes. Dans cette optique, nous avons crée une extension de navigateur modulaire - le premier du genre - qui détecte des images hypertruquées localement sur l'endpoint. Nous ferons le tour des solutions de détection sur le marché et expliquerons pourquoi une extension Chrome constitue une évolution naturelle.
Soyez prêts à vous plonger dans les défis techniques surmontés lors de la création du plugin, où on va examiner la structure du modèle avec Netron et naviguer comment choisir et exploiter un modèle IA.

Sécurité IA
Track 1 (206b)