📌 Parcours : Découverte
🎯 L’AI Red Teaming est une méthode utilisée pour garantir la sécurité des solutions basées sur l’intelligence artificielle en identifiant et en traitant rapidement les menaces. Dans cet épisode, Paul présente plusieurs exemples de prompt injections et explique comment tester vos applications à travers une démonstration.
📢 Speakers :
- Paul Peton : / paul-peton-datascience
- Amar Adghar : / amar-adghar-22b300155
- Romain Casteres : / casteres
🔥 Au programme :
0:16 – Coucou 🦉
0:40 – AI Red Teaming
0:54 – Paul Peton (Expertime, MVP)
1:17 – Introduction
2:03 – Risques pour les applications IA
5:42 – Prompt Injections et Jailbreaks
8:09 – Azure AI Content Safety
16:46 – Demo
20:04 – Prochaines étapes ?
22:52 – Conclusion
💡Ressources :
- AI Red Teaming Agent for Generative AI models and applications in Azure AI Foundry: https://github.com/Azure-Samples/azur…
🔗 Data Chouette :
- LinkedIn Group : / 12963208
- Twitter Account : https://x.com/DataChouette