Malgré le potentiel d’applications infini pour l’intelligence artificielle, celle-ci présente également des risques et fait face à des défis pour en garantir une utilisation responsable, en éviter les biais et les usages malveillants. Ainsi, quelles sont les dimensions d’une intelligence artificielle responsable ? Nous vous proposons quelques éléments de réponse et de réflexion autour de la notion d’IA responsable.
L’intelligence artificielle frugale
Ce n’est plus un secret, le numérique est un secteur qui a d’importantes conséquences environnementales. Selon l’Agence de l’Environnement et de la Maîtrise de l’Energie (ADEME), le numérique représente 2,5% de l’empreinte carbone française (source).
L’intelligence artificielle (IA), en utilisant un grand nombre de données pour apprendre et fonctionner, participe à cet impact environnemental. Ainsi, l’un des enjeux d’une intelligence artificielle responsable est de rendre l’IA moins énergivore.
Ainsi, l’intelligence artificielle dite frugale est :
- moins gourmande en quantité de données, à travers le recherche de modèles conservant leur robustesse tout en nécessitant moins de données
- économe en puissance de calcul ou en temps de calcul, en faisant des compromis, comme le suggère Francis Bach de l’Institut national de recherche en sciences et technologies du numérique (Inria) dans cet article
- modérée en consommation d’énergie. Cela passe par toutes les dimensions de l’IA : sa conception, son type, son apprentissage, son optimisation, les data centers utilisés, sa performance.
L’intelligence artificielle explicable
Nous entendons souvent parler de la boîte noire de l’intelligence artificielle. Elle désigne le fait que les conclusions auxquelles aboutissent un algorithme d’IA ne puissent pas être expliquées par le concepteur de cet algorithme.
Pour rendre l’IA explicable et éviter l’effet boîte noire, des processus sont mis en place pour permettre aux utilisateurs de comprendre les décisions, conclusions et résultats d’un algorithme d’intelligence artificielle. Cela permet à l’utilisateur de comprendre l’algorithme utilisé, et participe à la confiance en l’intelligence artificielle.
L’intelligence artificielle de confiance
En 2018, la Commission Européenne a publié un document présentant une stratégie européenne en matière d’intelligence artificielle. On y retrouve sept exigences permettant de garantir qu’une IA est digne de confiance :
- facteur humain et contrôle humain
- robustesse technique et sécurité
- respect de la vie privée et gouvernance des données
- transparence
- diversité, non-discrimination et équité
- bien-être sociétal et environnemental
- responsabilisation
Ces différentes composantes sont nécessaires pour assurer une utilisation responsable de l’intelligence artificielle et garantir l’éthique de cette dernière. L’Organisation des Nations unies pour l’éducation, la science et la culture (UNESCO), en novembre 2021, a d’ailleurs publié une recommandation sur l’éthique de l’intelligence artificielle, offrant aux acteurs de l’IA un outil de réflexion.