En réaction aux dangers et menaces que véhicule l’intelligence artificielle (IA), l’Europe prépare l’AI Act, première loi globale sur l’IA dans le monde. Dès lors, les contours d’une IA « responsable » se précisent.
Système de « crédit social » imposé à tous les Chinois par 600 millions de caméras de vidéosurveillance. Manipulation des opinions, crash d’avions, accidents mortels dus à des voitures autonomes, Deepfake, systèmes racistes de prédiction de la criminalité… Malgré ses indéniables avantages, la liste des biais et dangers de l’intelligence artificielle (IA) est longue. D’où l’intérêt de créer des IA « responsables ». Telle est l’intention, du moins en Europe, de l’AI Act, le premier projet de loi globale sur l’intelligence artificielle dans le monde.
« Le 14 juin dernier, les députés européens ont adopté leur position de négociation concernant sur le projet de loi sur l’IA. Les pourparlers vont maintenant commencer avec les pays de l’UE au sein du Conseil sur la forme finale de la loi. L’objectif est de parvenir à un accord d’ici la fin de l’année pour une entrée en vigueur en 2025 », précise Aurélien Habault, directeur exécutif en charge des activités Data & AI chez Accenture pour la France et le Bénélux. Mais qu’est-ce qu’une IA responsable ? En réalité, il n’y a pas de définition précise. D’ailleurs, il n’existe pas non plus de régime de responsabilité juridique, spécifique à l’IA dans l’UE. Pour l’heure, la responsabilité de l’IA est régie par le droit de la responsabilité civile. Insuffisant. Ethique, équité, transparence, responsabilité des acteurs de l’IA, sécurité contre la malveillance, protection de la vie privée, durabilité environnementale, gestion des conséquences sociales… sont les principaux critères qui esquissent l’édifice de l’IA responsable. En outre, le projet d’AI Act prévoit déjà dès règles différentes selon les niveaux de risque (inacceptable, élevé, limité).
Point important : « L’algorithme doit être fiable et solide, s’inscrire dans un contexte spécifique et ne pas servir à autre chose, estime l’expert. De même, il faut s’assurer de la qualité des données utilisées pour entraîner le modèle. » Dans la foulée, l’algorithme va aussi démontrer sa capacité à fonctionner de manière fiable et robuste dans le monde réel en sachant faire face à des cas non prévus et inédits, tout en conservant sa solidité et son équité. A cet égard, « l’IA doit traiter de manière équitable les individus et les populations concernées par l’algorithme et le modèle », poursuit Aurélien Habault. D’où l’importance que l’Europe accorde à la confidentialité, notamment au travers du Règlement général sur la protection des données à caractère personnel (RGPD).
Certaines sociétés ont développé de bonnes pratiques. Témoin la start-up française Kooping, spécialisée dans la transformation des flux vidéo en données métiers. « Nous installons chez nos clients une box qui récupère les flux des caméras vidéo existantes, sécurise la transmission des données et opère un pré-traitement d’anonymisation des données. En clair, la box floute les images. Seule l’IA est alors capable de les lire », détaille Marc Decombas, fondateur de la start-up créée en 2020 Kooping et basée à Evreux (Eure) qui est en train de breveter son procédé d’IA compatible RGPD. Parmi les applications, repérer sur un chantier de construction les ouvriers qui ne portent pas leurs équipements de protection individuelle (EPI) afin de les sensibiliser dans le cadre d’un processus d’amélioration continue de la sécurité et de la santé au travail. Pas pour les « fliquer ».
Bien sûr, la méthode de développement de l’algorithme et de son modèle va non seulement intégrer la sécurité en conception (Security by Design) également exposer le code source et démontrer la manière avec laquelle les prédictions et les recommandations du modèle sont créées. « A chaque étape, la bonne pratique veut que les critères de fiabilité, d’équité et d’éthique de l’IA responsable soient vérifiés, décrit Aurélien Habault. Cela passe, entre autres, par une gouvernance du contrôle, voire par la mise en place de centres d’excellence qui standardisent la démarche. » Dans cette perspective, « nous avons instauré un comité d’éthique avec des salariés et des personnalités externes qui se réunit tous les mois », confie William Eldin PDG de la scale-up parisienne XXII qui opère dans le domaine la vision par ordinateur et a élaboré une charte d’éthique en janvier 2022. Enfin, « même lorsqu’elle répond à un besoin actuel, il faut veiller à ce que l’IA ne compromette pas l’avenir des générations futures. Tant au niveau environnemental que sociétal, insiste Aurélien Habault. Elle doit créer de la valeur et aider l’humain. » Sans le remplacer !
© Erick Haehnsen / Agence TCA