lun, 22/05/2017 - 11:33
L’intelligence artificielle est la technologie du moment. Comment l’IA est-elle devenue la nouvelle grande tendance des éditeurs de technologies, notamment de sécurité. Faut-il craindre de l’IA ou au contraire espérer des nouvelles technologies utilisant des machines dotées d’une forme d’intelligence et de capacités d’auto-apprentissage. La tendance décryptée en 7 questions que toutes les entreprises doivent se poser aujourd’hui.
Comment expliquer l’intérêt actuel du secteur de la sécurité pour l’intelligence artificielle ?
Deux facteurs plus ou moins concomitants ont contribué à l’intérêt accru porté à l’intelligence artificielle (IA) dans le domaine de la sécurité.
Tout d’abord, la technologie Big Data s’est généralisée et est devenue accessible au plus grand nombre. Le calcul n’est plus l’apanage des grands acteurs du secteur des nouvelles technologies et des instituts de recherche. L’augmentation de la puissance de calcul, en particulier grâce à des solutions de Cloud économiques et à des outils faciles à utiliser, a permis à un éventail beaucoup plus large d’utilisateurs d’appliquer des algorithmes sophistiqués de machine learning et d’intelligence artificielle pour résoudre leurs problèmes.
En parallèle, les entreprises et les éditeurs de solutions de sécurité ont réalisé à quel point il était difficile de lutter contre des cybercriminels, capables de trouver sans cesse de nouveaux moyens d’infiltrer les réseaux d’entreprise sans se faire repérer. Pour les équipes informatiques, mettre à jour des règles prédéfinies et en créer de nouvelles constituent une solution extrêmement coûteuse et non viable face à des menaces spécifiques. Selon une récente étude menée par le Ponemon Institute, les coûts humains liés à la mise en œuvre et à la maintenance régulière d’un SIEM s’élèvent en moyenne à 1,78 million de dollars par an pour les entreprises. D’où la frustration ressentie par les équipes informatiques qui plébiscitent des solutions nécessitant le moins de personnalisation et de réglages possible, et dotée d’une capacité d’auto-apprentissage.
Quels sont les principaux avantages des technologies d’intelligence artificielle ?
L’IA offre deux avantages principaux.
Premièrement, la plupart des solutions d’intelligence artificielle et de machine learning possèdent des facultés d’auto-adaptation, et exigent peu de personnalisation et de maintenance. Elles analysent la façon dont les choses se passent au sein d’un environnement donné et s’adaptent à la situation. Elles entraînent par ailleurs une baisse significative des coûts de maintenance.
Deuxièmement, elles sont à même de détecter des problèmes et des attaques qu’elles n’ont pas été explicitement programmées pour identifier. C’est ce que nous appelons les menaces « inconnues ». Les professionnels au sein des entreprises peuvent ainsi espérer garder une longueur d’avance sur les attaquants dans le jeu du chat et de la souris qu’est la sécurité.
Quelles sont les principales inquiétudes concernant l’adoption de l’IA ?
Ces algorithmes prennent des décisions plus nuancées que les règles auxquelles nous sommes tous habitués. La question n’est plus de savoir si quelque chose est autorisé ou non, ni si une action est malveillante ou inoffensive. Nous entrons dans un univers de « probabilités » et de « seuils ».
De plus, il existe très souvent un net décalage entre le mode de fonctionnement d’un algorithme et notre capacité à comprendre comment il a pu arriver à telle ou telle conclusion. Pour parvenir aux meilleurs résultats, un algorithme suit un processus qu’il est dans bien des cas impossible d’expliquer ou de saisir parfaitement. Si cette décision a des conséquences importantes, comme l’annulation d’une transaction, la suspension d’un compte ou le lancement d’une procédure d’investigation coûteuse, il est très frustrant de ne pas pouvoir comprendre rapidement et à 100 % les raisons qui ont motivé ce choix.
Autre problème plus difficile à appréhender, mais tout aussi réel : l’IA est dépourvue de conscience et d’éthique. Elle se contente d’apprendre et de reproduire la façon dont les hommes prennent des décisions, ou optimisent des paramètres, afin de parvenir à un résultat optimal qui ne correspond pas toujours à celui que nous recherchons vraiment. Appliqués naïvement, les algorithmes peuvent amplifier nos préjugés et créer des systèmes discriminatoires vis-à-vis de certaines personnes, ou encore prendre des décisions qu’un être humain jugerait inacceptables sur le plan éthique. L’émergence des voitures sans chauffeur a, à cet égard, suscité un vif débat, mais les mêmes problèmes se posent dans d’autres domaines, notamment la cybersécurité.
La tendance de l’IA va t’elle s’installer durablement dans le monde de la cybersécurité ?
L’intelligence artificielle est déjà la grande tendance et la technologie la plus en vogue. Et peut-être aussi la plus surestimée. Néanmoins, une chose est sûre : tout le monde en parle et nombreux sont ceux qui l’expérimentent. À mesure que nous progresserons dans l’utilisation de l’IA, le secteur cessera de la traiter comme une panacée ou une technique marketing accrocheuse, et finira par trouver à ces algorithmes un champ d’application adéquat.
Nous continuerons à avoir besoin de structures et de mesures de contrôle traditionnelles, tout comme nous avons besoin à la fois de portes munies d’une serrure et de forces de police pour assurer notre sécurité physique, mais nous pourrons probablement alléger les contrôles en nous appuyant davantage sur des techniques d’analyse avancées.
L’IA représente-t-elle le meilleur moyen de lutter contre le risque croissant de menaces internes ?
L’IA est certainement une arme qui va occuper une place très importante dans l’arsenal de défense. En matière de menaces internes, la plus grande difficulté vient du fait que, pour accomplir leurs méfaits, les auteurs d’actes malveillants se servent des privilèges qui leur sont conférés dans le cadre normal de leurs fonctions. Limiter les accès, générer des journaux d’audit détaillés et renforcer la surveillance contribuera certes à réduire les risques, mais il restera toujours des employés qui auront besoin d’accéder à des données sensibles et qui pourront, parce qu’ils sont humains, commettre des actes malveillants ou faire l’objet de chantages. L’IA, et en particulier l’analyse comportementale, peuvent être utilisées pour reconnaître des changements dans les habitudes de travail et en informer en temps réel les équipes de sécurité.
Comment gérer la synergie entre l’IA et la dimension humaine des opérations ?
L’objectif n’est pas de remplacer les êtres humains, mais de leur permettre de consacrer leurs ressources à des activités qui revêtent une réelle importance. Les ordinateurs peuvent traiter rapidement d’énormes quantités de données et c’est à cette fin qu’ils doivent être utilisés. De leur côté, les êtres humains se comprennent mutuellement, perçoivent les intentions et communiquent les uns avec les autres. Les meilleurs outils d’intelligence artificielle nous déchargent des tâches subalternes fastidieuses et nous aident à résoudre des problèmes plus importants. Bien entendu, il faut garder à l’esprit qu’il s’agit là de moyens et non d’une fin : nous devons définir des objectifs et choisir les outils les mieux adaptés pour les atteindre.
Sans l’IA, la cybersécurité peut-elle être vouée à l’échec ?
Cette déclaration du Directeur de la NASA est tout à fait pertinente. Plusieurs arguments peuvent être avancés pour appuyer ce point de vue. Cependant, il n’y aura pas de retour en arrière. La sécurité reste une sorte de course aux armements et les attaquants continueront à mettre au point des programmes toujours plus sophistiqués et furtifs, ainsi que d’autres outils de piratage leur permettant d’infiltrer les réseaux en échappant à toute détection. Les équipes de sécurité devront poursuivre leurs efforts si elles ne veulent pas être vaincues.
A propos de l'auteur