Combiner les technologies du Cloud native et de l’intelligence artificielle (IA) aide les entreprises à accélérer le déploiement d’applications enrichies. A condition de poursuivre les efforts en matière de cybersécurité et d’anticiper les processus de maîtrise de la dépense.
Hameçonnage par mail plus efficace, empoisonnement des données massives d’entraînement des modèles d’intelligence artificielle (IA), injection de portes dérobées, détournement des chabots, deepfake… les attaques par l’IA sont moins développées qu’on ne le craignait. Mais elles vont se développer.
Détection des menaces, prévention des intrusions, automatisation des réponses à incidents… l’IA est déjà au cœur de la cybersécurité. « Bien que le grand public accède aux IA génératives, les pirates n’en profitent pas encore pour mener des attaques de grande ampleur », confiait Alain Bouillé [https://www.lesechos.fr/thema/articles/lia-nouvel-element-central-du-paysage-de-la-securite-2074575], délégué général du Club des experts de la sécurité de l’information et du numérique (Cesin), lors des Assises de la cybersécurité à Monaco.
« Pour l’heure, ils utilisent l’IA simplement pour augmenter l’efficacité d’attaques conventionnelles. » Citons les classiques mails d’hameçonnage (phishing) qui gagnent en réalisme après avoir agrégé nombre d’informations disponibles sur les réseaux sociaux concernant une cible. Objectif : inciter la personne à cliquer sur un lien pour lui soutirer mots de passe, coordonnées bancaires, comptes à privilège…
D’où l’intérêt des campagnes de sensibilisation auprès des salariés. Reste que de nouveaux risques émergent. Commencer par l’empoisonnement des jeux de données massives utilisés pour entraîner les modèles d’IA. « Le pirate injecte de fausses informations pour piéger le modèle d’IA », soulève Gérôme Billois [https://www.lesechos.fr/thema/articles/risques-cyber-tpepme-le-maillon-faible-2124328], directeur associé cybersécurité au cabinet conseil Wavestone [https://www.wavestone.com/fr/].
Les modèles d’IA infectés
Pis, une étude de JFrog [https://jfrog.com/blog/data-scientists-targeted-by-malicious-hugging-face-ml-models-with-silent-backdoor/], datant de février 2024, révèle qu’une centaine de modèles d’apprentissage machine hébergés sur la plateforme Hugging Face avait permis de générer des portes dérobées (backdoors) sur les machines qui les avaient téléchargés.
Autre faille de l’IA, « l’attaque par oracle » : « Le pirate bidouille l’IA pour qu’elle divulgue ce qui n’est pas prévu », poursuit Gérôme Billois qui évoque les chatbots accompagnant les clients dans leur sélection de produits. A un moment, le pirate demande au chatbot les données de la carte bancaire de la dernière transaction. Si aucune instruction n’est programmée pour l’en empêcher, l’agent conversationnel les lui fournira.
Privilégier les méthodes de sécurité en conception
Ces failles s’évitent grâce aux méthodes de sécurité en conception (Security by Design). « L’IA analyse le code de l’application en développement afin de le rendre étanche aux attaques. Ensuite, le code subit des tests de robustesse qui mettent en évidence les lacunes à combler. Enfin, d’autres IA simulent des attaques, explique Christophe Sorré, directeur technique des services financiers chez IBM France. Déjà pratiquées dans la banque, ces méthodes commencent à entrer dans les mœurs. »
Mais le pire est à venir : « Génératives, analytiques, prédictives ou d’automatisation, les IA réduisent le coût des cyberattaques et intensifient la menace », notre Hakim Loumi, responsable produits de sécurité chez Oracle France.
Ce n’est pas tout : « Les réseaux sociaux sont un gisement inépuisable de photos, sons et vidéos de dirigeants qu’utilisent les pirates pour fabriquer des deepfakes en série, pointe Alain Bouillé. Particulièrement en 2024, année record avec où 68 élections ont eu lieu dans le monde. Pour l’heure, il n’y a aucune parade contre ce fléau. »
© Eliane Kan et Erick Haehnsen / Agence TCA