Mardi 19 & 25 novembre 2024 - Station F
L'AWS GenAI Loft est un événement gratuit qui réunit la communauté française autour de l'intelligence artificielle générative pour favoriser les échanges, la collaboration, et rester à la pointe des dernières avancées en matière d'IA. Cet événement s'adresse aux experts technologiques de tous secteurs et niveaux, désireux d'explorer comment l'IA générative peut accélérer l'innovation et offrir des solutions flexibles et fiables à grande échelle.
Le red teaming est une pratique essentielle qui consiste à tester et évaluer rigoureusement les Modèles de Langage à Grande Échelle (LLM) pour identifier les vulnérabilités, faiblesses et risques potentiels. En adoptant la perspective d'un attaquant, l'équipe de red teaming met à l'épreuve les défenses du modèle, garantissant qu'il peut résister à des entrées malveillantes conçues pour exploiter ses limites. Un élément clé du red teaming est le LLMops (Large Language Model Operations), qui regroupe les pratiques opérationnelles et les outils utilisés pour soutenir ce test rigoureux.
Création de centre d'appels pour prendre rendez-vous avec des professionnels de la santé mentale. L'accent sera mis sur la gestion et la réduction des « hallucinations et des risques de sécurité », identifiés comme les principales préoccupations lors du déploiement d'outils de communication pilotés par l'IA dans des environnements sensibles de soins de santé. En adoptant des pratiques rigoureuses de red teaming, nous garantissons que l'IA gère les conversations de manière responsable et précise.
Le 28 novembre 2023, AWS a annoncé le lauréat français du prix "System integrator of the year" pour la France, récompensant les leaders à travers le monde. Reply jouant un rôle clé en aidant les clients à stimuler l'innovation et à construire des solutions sur AWS a été nominé en tant que partenaire intégrateur de système de l'année pour la France lors des French AWS partner Awards.
Le Red Teaming dans les applications LLM pour une IA éthique et sécurisée
Aperçu
Cette session mettra en avant l'importance cruciale du red teaming dans le test et la vérification des réponses éthiques et sécurisées des modèles d'IA à divers prompts, notamment ceux qui peuvent être intentionnellement malveillants. Nous illustrerons comment des prompts identiques peuvent provoquer des réponses nuisibles de la part de certains modèles, tandis que d'autres sont suffisamment robustes pour éviter de tomber dans le piège de "l'ingénierie de prompt malveillante."
Aperçu technique
Au cours de cette session, nous démontrerons un flux de travail DevOps simplifié sur AWS, intégrant des outils d'évaluation des modèles pour la sécurité et la fiabilité de l'IA dans le cadre du processus de red teaming. L'évaluation des modèles inclut l'utilisation d'outils tels que :
Giskard pour la détection des vulnérabilités.
SageMaker Clarify pour la détection des biais et l'explicabilité.
Les fonctionnalités d'évaluation de Bedrock pour une évaluation et une comparaison complètes.
La plateforme d'observabilité open source LangFuse pour les LLM.
Data Reply
Data Reply est la société du groupe Reply offrant une large gamme de services d'analyse avancée et de données alimentées par l'IA. Nous opérons dans différentes industries et fonctions commerciales, en travaillant directement avec des professionnels de niveau exécutif et des directeurs généraux leur permettant d'obtenir des résultats significatifs grâce à l'utilisation efficace des données.