Hackfest 2024 - Édition 16-bit

Vos préférences linguistiques ont été sauvées. Nous pensons que nous avons une bonne traduction française, mais si vous rencontrez des problèmes ou des erreurs, veuillez nous contacter !

Pierre Desclaux

Je m’appelle Pierre Desclaux. Je suis un expert en cybersécurité et consultant. Je travaille dans l’industrie de la sécurité informatique depuis maintenant plus de 4 ans. Je cherche à construire une connaissance polyvalente de la cybersécurité, alliant stratégie et compétences techniques de terrain. Mon objectif: réduire le risque informatique et maintenir la job à flot.
Présentement, je travaille en sécurité opérationnelle sur différents GIES.


Vos pronoms

Il, lui, son

De quel pays êtes vous?

France


Intervention

11 oct.
19:30
20minutes
Détection de deepfake dans le navigateur
Naeem Budhwani, Pierre Desclaux

Un deepfake APT menace d'endommager la fiabilité de nos institutions sociales - y compris nos cours et le processus forensique. Cependant, la détection des deepfakes n'est pas un problème résolu et souffre de plusieurs lacunes: une tendance à trop se focaliser sur des visages, l'utilisation des techniques de détection qui pourraient être décontournées par un acteur déterminé, une faible généralisabilité entre plusieurs ensembles de données, et une faible efficacité computationnelle sur les endpoints. D'ailleurs, des chercheurs n'ont que récemment (depuis 2023) commencé à se composer avec la détection des images générées par des Diffusion Models (DMs) dont DALL-E 2, et non seulement des images provenant des modèles GAN plus anciens.
Notre vision vise à nous ramener à une détection en temps réel des deepfakes. Dans cette optique, nous avons crée une extension de navigateur modulaire - le premier du genre - qui détecte des images hypertruquées localement sur l'endpoint. Nous ferons le tour des solutions de détection sur le marché et expliquerons pourquoi une extension Chrome constitue une évolution naturelle.
Soyez prêts à vous plonger dans les défis techniques surmontés lors de la création du plugin, où on va examiner la structure du modèle avec Netron et naviguer comment choisir et exploiter un modèle IA.

Sécurité IA
Track 1 (206b)