«Façonnons une IA éthique et performante »
L’intelligence artificielle générative (GenAI) offre des opportunités inédites pour transformer les processus métiers et innover. Chez Isskar, nous sommes convaincus que l’adoption de la GenAI doit se faire dans un cadre respectueux de la sécurité, de l’éthique et de la responsabilité. Notre charte a pour vocation de guider nos clients et nos collaborateurs vers des usages éclairés, afin de garantir un impact positif et durable.
Chez Isskar nous avons à coeur de réaliser des solutions qui vous apportent une valeur durable. C’est pourquoi nous nous engageons à adopter des pratiques responsables pour garantir la qualité et la sécurité des usages de nos solutions.
Lutte contre l’injection de prompt
✅ Ajout de leurres et balises
Nous utilisons des outils éprouvés : les Canary Tokens, qui doivent être inscrits dans la réponse du modèle. Ils permettent de s’assurer qu’il n’y a pas eu d’injection d’un prompt de remplacement par un tiers. Ainsi, si l’un d’eux manque, nous détectons qu’il y a potentiellement eu une injection de prompt ou une manipulation tierce.
✅ System prompting
Cette technique a pour objectif de garantir que l’instruction principale du prompt aura la primeur sur les autres éléments. Cela permet d’éviter l’exécution d’instructions malveillantes injectées dans le contexte.
✅ Tests unitaires de la GenAI
Nous adaptons les méthodes de tests unitaires du développement logiciel afin de vérifier la cohérence et le format des réponses :
- Outils / Score de cohérence : utilisation d’indicateurs : scores de similarité et validateurs syntaxiques, pour mesurer l’écart entre la réponse générée et le résultat attendu
- Exemples d’implémentation : frameworks spécifiques : langchain testing et prompt-tester, permettant de valider la structure, les types de données et la présence de balises.
Lutte contre les attaques adverses
✅ Contre validation des réponses
Cette approche a pour objectif de faire valider ou non la réponse brute par une requête de contrôle dans l’état d’esprit d’un “llm as a judge”. Cette technique permet également d’améliorer la réponse dans de nombreux cas
✅ Certification des modèles et services de fondation
Nous n’utilisons que des services garantissant un niveau minimal de conformité et de sécurité : chiffrement des données, non-réutilisation pour le ré-entrainement des modèles. Nous vérifions la conformité aux réglementations européennes (RGPD, AI Act) pour l’usage et la gestion des données sensibles.
Garantie de la qualité
✅ Evaluation continue et à l’échelle de la qualité
L’évaluation des solutions et de leur performance est au cœur de nos pratiques. Les systèmes d’évaluation s’intègrent à la CI/CD pour garantir un niveau de qualité continu
✅ Tests contre l’hallucination et la sycophancy
Cette pratique s’appuie sur des outils permettant d’estimer les biais dans les réponses de la solution et le niveau extrapolation par rapport au faits. Il s’agit de reproduire les tests plusieurs fois dans des situations différentes pour garantir une couverture large des situations
✅ Audit des modèles
Dans nos projets nous prenons systématiquement du temps pour faire un audit manuel des performances et du comportement des modèles, notamment à l’occasion de session de recettes
✅ Validation humaine
Nous concevons des solutions pour assister des personnes dans leur travail, automatiser des tâches répétitives, améliorer la qualité des productions. Mais notre conviction est qu’il est nécessaire de garder une être humain dans la boucle afin de valider et apporter le jugement nécessaire à une prise de décision.
Limitation de l’utilisation des ressources
✅ Stratégie incrémentale
Pour limiter la consommation énergétique et financière, nous choisissons d’abord les plus petits modèles adaptés au besoin, pour aller vers des modèles plus complexes et plus consommateurs. Nous utilisons des tableaux de bord pour suivre en temps réel les performances et les coûts d’API : graphes de performance et volume d’appels, pour adapter rapidement la stratégie.
✅ Estimation des coûts
Nous réalisons des tests à petites échelle avant de lancer des tests en production afin d’affiner l’estimation des coûts que nous réalisons a priori, sur la base du besoin pour le cas d’usage et des informations disponibles sur les services utilisés.
Prévenir et limiter les biais liés au manque de diversité dans les données
✅ Analyse des jeux de données
Nous nous assurons que les données utilisées sont représentatives en termes de diversité raciale, ethnique et culturelle. Mettre en place des outils pour détecter et corriger les biais potentiels.
✅ Conception de modèles inclusifs
Nous intégrons des techniques de débiaisement (pondération, génération de données synthétiques) et tester les modèles sur des scénarios variés pour garantir leur équité.
✅ Formation et sensibilisation
Nous formons les équipes et les clients aux enjeux des biais dans l’IA et nous incluons les perspectives des populations concernées dans les phases de conception et validation.
Chez Isskar, nous croyons que la GenAI doit servir l’Homme, la société civile et la société privée sans compromettre les valeurs d’éthique, de diversité et de respect de la vie privée. Grâce à cette charte et à nos engagements, nous œuvrons à construire une intelligence artificielle utile, responsable et durable.