AI Red Team pour sécuriser les applications IA

📌 Parcours : Découverte

🎯 L’AI Red Teaming est une méthode utilisée pour garantir la sécurité des solutions basées sur l’intelligence artificielle en identifiant et en traitant rapidement les menaces. Dans cet épisode, Paul présente plusieurs exemples de prompt injections et explique comment tester vos applications à travers une démonstration.

📢 Speakers :

🔥 Au programme :

0:16 – Coucou 🦉

0:40 – AI Red Teaming

0:54 – Paul Peton (Expertime, MVP)

1:17 – Introduction

2:03 – Risques pour les applications IA

5:42 – Prompt Injections et Jailbreaks

8:09 – Azure AI Content Safety

16:46 – Demo

20:04 – Prochaines étapes ?

22:52 – Conclusion

💡Ressources :

🔗 Data Chouette :