Quand votre coéquipier est une machine : 8 questions que les RSSI devraient se poser sur l'IA

Nouvelles

MaisonMaison / Nouvelles / Quand votre coéquipier est une machine : 8 questions que les RSSI devraient se poser sur l'IA

Jul 07, 2023

Quand votre coéquipier est une machine : 8 questions que les RSSI devraient se poser sur l'IA

Le caractère inévitable de l’IA oblige de nombreux responsables de la cybersécurité à décider si elle est amie ou ennemie. Le traiter comme un coéquipier est peut-être la solution ultime, mais les RSSI se posent un certain nombre de questions pointues.

Le caractère inévitable de l’IA oblige de nombreux responsables de la cybersécurité à décider si elle est amie ou ennemie. Le traiter comme un coéquipier est peut-être la solution ultime, mais les RSSI devraient se poser un certain nombre de questions pointues.

L'intelligence artificielle change notre façon de faire à peu près tout : partout où nous nous tournons, les machines effectuent des tâches qui, dans le passé, auraient été accomplies par un humain. Ces instances basées sur l'IA couvrent toute la gamme, des véhicules autonomes aux robots de service client sur lesquels il faut naviguer avant qu'un humain n'entre en ligne. En matière de cybersécurité, l’IA est rapidement devenue à la fois une amie et un multiplicateur de force pour les adversaires. Qu'on le veuille ou non, considérer la machine comme un coéquipier est devenu une réalité que les RSSI devront apprendre à adopter, mais ils devraient se poser un certain nombre de questions avant d'accepter un acolyte de l'IA.

Le concept n'est pas nouveau. En 2019, une équipe internationale de 65 scientifiques collaboratifs a généré 819 questions de recherche sur le sujet dans le but de « fournir un programme de recherche que les chercheurs en collaboration peuvent utiliser pour étudier les effets anticipés des coéquipiers de machines conçues sur la base des opinions qualifiées des chercheurs en collaboration ». Il ne fait aucun doute que certains des points de recherche issus de l'équipe de scientifiques collaboratifs ont trouvé leur place dans les principes et les lignes directrices de l'IA responsable du ministère américain de la Défense, qui ont capturé cinq points de données que toute IA doit posséder avant d'être acceptable pour son utilisation : responsable, équitable, traçable, fiable et gouvernable.

Pour imaginer le concept de l'IA comme partenaire en action, il suffit de regarder le plan de l'US Air Force visant à améliorer l'efficacité de son avion de combat multirôle F-35 en l'associant à des drones de combat fonctionnant comme des ailiers autonomes. Travaillant avec des drones dotés de l’IA, l’avion peut collecter des informations à des vitesses dépassant les capacités humaines. Cela permet « de se déplacer dans la boucle OODA (observer, orienter, décider, agir) avec rapidité et agilité, ce qui permet au destinataire d'informations en temps réel d'être plus adroit », selon JR Seeger, officier à la retraite de la CIA et romancier. .

L'IA deviendra effectivement une extension des processus d'automatisation et pourra découvrir une étendue et une étendue d'informations considérablement élargies, aidant ainsi à évaluer les complexités à des vitesses de plus en plus rapides, déclare Anurag Gurtu, PDG de StrikeReady. "L'IA fonctionne mieux lorsque le RSSI cherche à améliorer sa productivité, à augmenter les capacités d'un analyste qualifié, à se décharger d'une partie de la charge de travail et à fidéliser ses employés", explique Gurtu.

Même si nous avons souvent l'impression d'avoir le pied sur le « pied sur le métal et sans freins », explique Gurtu, « l'IA contribue également à la capacité d'exercer le processus à grande vitesse et améliore la tâche de détection et peut être réglée pour fournir le analyste avec une probabilité d'événement d'être ciblé ou attaqué.

Dans le passé, les arbres de décision et les modèles basés sur des règles faisaient de la détection des menaces et des vulnérabilités un processus assez laborieux, mais « grâce à l'IA, nous pouvons importer des ensembles de données disparates et améliorer l'explicabilité de l'analyste », explique Gurtu, ajoutant que le modèle interprétable local. les explications agnostiques (LIME) et SHAP (Shapley Additive exPlanations) aident toutes deux à la corvée d'explicabilité.

« De plus en plus d'entités intègrent l'IA générative et elles doivent se préparer à une augmentation des « hallucinations » et, à mesure que cela se produit, des hallucinations massives arrivent », explique Gurtu. Le moyen d'éviter les hallucinations dans les résultats de l'IA générative est l'utilisation d'un modèle de langage d'IA graphique, dit-il.

Pour illustrer ce point, il suffit de regarder le mémoire d'un avocat récemment soumis à un tribunal, rédigé avec l'aide d'un chatbot IA, qui « hallucinait » une jurisprudence inexistante alors qu'il ne trouvait aucun exemple concret. Cela a conduit le juge à émettre une ordonnance permanente selon laquelle tout dossier créé à l’aide de l’IA soit ainsi identifié et vérifié par un humain. "En utilisant la méthodologie graphique, l'IA donne à l'utilisateur un pouvoir extrême de compréhension contextuelle", explique Gurtu. "Sans cela, comme indiqué, [le résultat est] des hallucinations massives."