Comment amaise protège-t-il contre les attaques par injection de prompt ?
amaise utilise plusieurs mesures pour empêcher les attaques par injection de prompt via des contenus malveillants dans les documents :
Construction de prompt côté serveur : Les prompts LLM sont créés côté serveur avec des modèles contrôlés. Les utilisateurs n’ont pas d’accès direct à la création des prompts.
Séparation des instructions et des données : Les contenus des documents sont transmis comme contexte de données, clairement séparés des instructions système.
Extraction structurée : La pipeline réalise des tâches d’extraction basées sur un schéma — pas de génération libre de texte. Cela limite considérablement l’impact possible des tentatives d’injection.
Validation des entrées : Validation au niveau de l’API pour toutes les requêtes entrantes.
Validation des sorties : Les sorties LLM sont validées et nettoyées avant stockage et affichage.
Pas d’URLs personnalisées : L’application n’accepte pas d’URLs fournies par l’utilisateur pour des appels côté serveur, ce qui empêche l’exfiltration de données via SSRF.
Sorties isolées par locataire : Les résultats IA sont strictement isolés par locataire. Les requêtes sont limitées au contexte du locataire concerné, de sorte qu’une tentative d’injection de prompt dans un document ne peut pas accéder aux données d’autres locataires ou cas.