Oui, mais je LLM !
10-18, 14:00–14:50 (America/New_York), Track 2 (206a)
Language: Français

L'IA générative nous joue des tours, en manipulant notre perception de la vérité en tentant de devenir notre confident et en créant une relation de dépendance. Mais, on peut aussi à notre tour l'utiliser pour extraire des informations privilégiées mal sécurisées, en utilisant des tactiques adaptées de l'ingénierie sociale.

Le manque d'expérience autour de cette technologie et l'empressement à en mettre partout expose à de nouveaux risques.

Je te présente un survol des concepts de base en cybersécurité revisités pour l'IA générative, différents risques que posent ces algorithmes et différents conseils de prévention pour bien les intégrer dans nos systèmes informatiques et notre pratique professionnelle.


L'IA générative nous joue des tours, en manipulant notre perception de la vérité en tentant de devenir notre confident et en créant une relation de dépendance. Mais, on peut aussi à notre tour l'utiliser pour extraire des informations privilégiées mal sécurisées, en utilisant des tactiques adaptées de l'ingénierie sociale.

Le manque d'expérience autour de cette technologie et l'empressement à en mettre partout expose à de nouveaux risques.

Je te présente un survol des concepts de base en cybersécurité revisités pour l'IA générative, différents risques que posent ces algorithmes et différents conseils de prévention pour bien les intégrer dans nos systèmes informatiques et notre pratique professionnelle.

Résumé de la présentation:

Introduction (2 minutes)

Je commence avec un exemple concret : un chatbot posant des questions excessivement personnelles et générant des informations erronées. C'est essentiel de se méfier des informations que ces outils peuvent produire et aussi de leurs comportements qui servent à augmenter le confiance et par conséquence, la collecte des données.

Repenser la triade CIA à l'ère de l'IA générative (5 minutes)

Je rappelle les principes fondamentaux de la sécurité informatique appliqués au contexte de l'IA. La confidentialité est illustrée par des inquiétudes grandissantes concernant la collecte de données personnelles, l'intégrité par des exemples de désinformation et de fausses accusations, et la disponibilité par les défaillances des systèmes qu intègrent trop rapidement l'IA dans leurs composantes décisionnelles.

Le privacy by design à l'ère de l'IA générative (10 minutes)

Je rappelle les sept principes du "privacy by design", adaptés à l'IA générative : proactivité, prévention, confidentialité, sécurité, minimisation, transparence et responsabilité. L'idée ici c'est que la protection de la vie privée doit être intégrée dès la conception de systèmes qui incluent de l'IA et que les risques d'y penser trop tard sont beaucoup trop importants.

Le partage de responsabilité (5 minutes)

La sécurité des IA génératives n'est pas uniquement la responsabilité du développeur du modèle. Elle se base sur un modèle à trois tiers : l'utilisateur, le fournisseur du modèle et le créateur de l'application. Chaque partie a des responsabilités différentes, par exemple: validation des résultats, de gestion des données personnelles, et de prévention des contenus dangereux (incitation à la violence, faux contenus, etc.).

Les types d'attaques sur les IA génératives (10 minutes)

Je vais détailler les menaces spécifiques aux IA génératives, par exemple, l'injection via le prompt, la contamination des données d'entraînement et les vulnérabilités dans le code de l'application reliant l'utilisateur au modèle.

Je vais aussi glisser un mot sur les MCP, qui sont des serveurs avec une API pour les modèles IA qui peuvent exécuter du code arbitraire si mal configurés, les attaques Supply Chain via du code généré des modèles chinois en particulier.

Quelques recommandations de prévention (5 minutes)

Je vais proposer quelques mesures concrètes : isolation réseau, traçabilité des données, considérer que le modèle IA est un blob binaire sans confiance, et quelques astuces pour éviter d'avoir des données ou du code périmé.

Conclusion (3 minutes)

Je termine en revenant à mon chatbot du début trop curieux, qui est maintenant plus discret et respectueux de la vie privée et qui demande des consentements. Je partage un site web dédié au sujet et mes coordonnées.

Type de présentation

Je vais avoir des slides imagées en HTML et quelques screen recording avec OBS en format MP4 pour éviter le dieux des démos.

Mes attentes

Sensibiliser aux nouveaux risques avec l'IA générative, surtout ceux venant de la part de novices devenus experts soudainement. Porter un esprit critique sur la manipulation et le langage utilisé par les algorithmes pour soutirer plus de données aux utilisateurs.

J'ai commencé ma carrière en actuariat avant de faire un virage vers la science des données, le sysadmin, le dev backend et la cybersécurité comme consultant avec jevalide.ca. Je participe au milieu du logiciel libre et des données ouvertes. Mon expérience dans le domaine de l'assurance et au travers diverses situations en lien avec la cybersécurité et la vie privée, combiné avec ma pensée mathématique et mon militantisme, m'ont amené à l'intéresser aux impacts sociaux des technologies.