Dans un précédent article, il avait été question d’attaques sur un agent à base de LLM,
typiquement un chat. En effet, un tel agent interprète le prompt non seulement comme
un texte à compléter, mais aussi comme une liste d’instructions à suivre, ce qui fait de
ce texte un vecteur d’attaque d’autant plus intéressant à exploiter que personne
aujourd’hui ne peut dire comment fonctionne un LLM, si bien qu’il est impossible d’en
sécuriser l’usage. Dans ces conditions, la prolifération des agents constitue un enjeu
considérable du point de vue de la sécurité informatique, et c’est sans surprise que les agences telles que l’ANSSI ont entrepris de sensibiliser les organisations à ce sujet.
Toutefois, il n’y a pas que les risques techniques dont il est nécessaire de tenir compte. En effet, les risques juridiques ne sont pas moindres, tout particulièrement ceux qui ressortissent au traitement des données à caractère personnel.
La sécurité de l’IA générative à base de LLM
Abonnements, magazines... Notre catalogue complet au bas de cette page.