Notre site Web utilise des cookies pour vous offrir l’expérience en ligne la plus optimale en : mesurant notre audience, en comprenant comment nos pages Web sont consultées et en améliorant en conséquence le fonctionnement de notre site Web, en vous fournissant un contenu marketing pertinent et personnalisé.
Vous avez un contrôle total sur ce que vous souhaitez activer. Vous pouvez accepter les cookies en cliquant sur le bouton « Accepter tous les cookies » ou personnaliser vos choix en sélectionnant les cookies que vous souhaitez activer. Vous pouvez également refuser tous les cookies non nécessaires en cliquant sur le bouton « Refuser tous les cookies ». Veuillez trouver plus d’informations sur notre utilisation des cookies et comment retirer à tout moment votre consentement sur notre Vie Privée.

Gestion de vos cookies

Notre site Web utilise des cookies. Vous avez un contrôle total sur ce que vous souhaitez activer. Vous pouvez accepter les cookies en cliquant sur le bouton « Accepter tous les cookies » ou personnaliser vos choix en sélectionnant les cookies que vous souhaitez activer. Vous pouvez également refuser tous les cookies non nécessaires en cliquant sur le bouton « Refuser tous les cookies » .

Cookies nécessaires

Ceux-ci sont indispensables à la navigation de l’utilisateur et permettent de donner accès à certaines fonctionnalités comme les accès aux zones sécurisées. Sans ces cookies, il ne sera pas possible de fournir le service.
Matomo en auto-hébergement

Cookies marketing

Ces cookies sont utilisés pour vous proposer des publicités plus pertinentes, limiter le nombre de fois que vous voyez une publicité ; aider à mesurer l’efficacité de la campagne publicitaire ; et comprendre le comportement des individus après avoir vu une publicité.
Vie Privée Adobe | Vie Privée Marketo | Vie Privée MRP | Vie Privée AccountInsight | Vie Privée Triblio

Cookies de réseaux sociaux

Ces cookies sont utilisés pour mesurer l’efficacité des campagnes sur les réseaux sociaux.
Vie Privée de LinkedIn

Notre site Web utilise des cookies pour vous offrir l’expérience en ligne la plus optimale en : mesurant notre audience, en comprenant comment nos pages Web sont consultées et en améliorant en conséquence le fonctionnement de notre site Web, en vous fournissant un contenu marketing pertinent et personnalisé. Vous avez un contrôle total sur ce que vous souhaitez activer. Vous pouvez accepter les cookies en cliquant sur le bouton « Accepter tous les cookies » ou personnaliser vos choix en sélectionnant les cookies que vous souhaitez activer. Vous pouvez également refuser tous les cookies non nécessaires en cliquant sur le bouton « Refuser tous les cookies ». Veuillez trouver plus d’informations sur notre utilisation des cookies et comment retirer à tout moment votre consentement sur notre Vie Privée

Passer au contenu principal

Inclusive, décarbonée, au service de l’humain : comment rendre l’IA éthique ?


Publié le: 3 février 2022 par Atos

Un texte historique qui pourrait changer le cours de l’histoire de l’IA : en novembre dernier, l’UNESCO a publié la première norme sur l’éthique des systèmes d’intelligence artificielle, qui devra avant tout être centrée sur l’humain. Qu’est-ce que cela signifie concrètement ? Et surtout, qu’est-ce que cela laisse augurer pour les développements futurs des IA ?

 

L’intelligence artificielle sera-t-elle à jamais associée à l’œil rouge de HAL 9000, le superordinateur meurtrier de 2001 l’Odyssée de l’espace ? Force est de constater que les IA dans la fiction sont souvent au mieux troublantes, au pire dangereuses. Même dans la réalité, ses applications ne font pas toujours l’unanimité. La progression des technologies de reconnaissance faciale dans les espaces publics – utilisées par les autorités chinoises pour alimenter le système de notation sociale – suscitent l’inquiétude. Au point qu’en septembre dernier, l’ONU ait demandé un moratoire mondial sur le recours à certains systèmes d’intelligence artificielle, le temps de « mettre en place un dispositif pour protéger les droits humains quant à leur utilisation. »

Deux mois plus tard, l’UNESCO publiait la toute première norme mondiale sur l’éthique de l’intelligence artificielle, adoptée par les États membres lors de la Conférence générale, le 24 novembre. Historique, cette Recommandation (non contraignante) énonce des valeurs et des principes pour guider la mise en place de l’infrastructure juridique nécessaire à un développement sain de l’IA. Une aide au suivi et à l’évaluation de l’impact éthique est prévue par l’UNESCO pour faciliter la mise en place de mesures appropriées dans les États membres en matière de décarbonation, protection des données, inclusivité… Le spectre des enjeux est très large, à l’image de la progression de ces technologies désormais omniprésentes dans nos vies, du chatbot d’Ameli (le site de l’Assurance maladie) à la plateforme d’orientation post-bac.

Limiter le pouvoir décisionnel des IA

Reste à définir les contours d’une telle technologie « saine » ou « éthique ». Définition de l’UNESCO : « une IA centrée sur l'humain, qui servirait l'intérêt supérieur des citoyens, et non pas l’inverse. »

Un objectif que la Recommandation traduit, pour commencer, par la limitation des pouvoirs attribués aux systèmes d’intelligence artificielle. « Dans les scenarii où les décisions sont considérées comme ayant un impact irréversible ou difficile à renverser, ou qui pourraient impliquer des décisions de vie et de mort, la décision finale devrait être prise par l’homme », lit-on dans ce rapport qui déconseille fermement le recours aux IA pour la surveillance de masse et la notation sociale. Pas question non plus d’attribuer une personnalité juridique à ces systèmes dans l’élaboration de cadres réglementaires.

Ces limites font écho à l’inquiétude suscitée par leur côté « boîte noire ». « Certains types d’algorithmes sont par construction non explicables, leur utilisation en mode « prise de décision automatique » dans des situations sensibles peut s'avérer dangereuse », fait remarquer Kaoutar Sghiouer, Chief Data Scientist chez Atos. Une dimension particulièrement cruciale dans le cas des décisions de justice, auxquelles les IA peuvent apporter une aide.

Vers une « IA de confiance »

Les efforts pour tendre vers des IA explicables et interprétables vont de pair avec la lutte contre les biais racistes et sexistes qui gangrènent les algorithmes. Une prise de conscience semble néanmoins avoir saisi certains acteurs de la tech : en août dernier, Twitter a même proposé des récompenses à ceux qui parviendraient à déceler d’éventuels partis pris dans son algorithme. Tout le défi est de rendre les bases de données à partir desquelles les algorithmes réalisent leur apprentissage plus « représentatives, c’est-à-dire diversifiées, qui représentent un échantillon valide pour entraîner les algorithmes et aller plus loin avec les IA », appuie Kaoutar Sghiouer. Comment ? Grâce aux données synthétiques, générées artificiellement pour alimenter les jeux de données, ou encore en privilégiant une IA « frugale » misant sur la qualité des données et non sur leur quantité.

Quant aux données personnelles des utilisateurs, elles se doivent d’être protégées dans un cadre garantissant notamment « la transparence » et « la possibilité d’accéder à leurs données personnelles dans les systèmes d’IA et de les effacer », stipule le texte de l’UNESCO.

C’est aussi pour « concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance » que le programme français Confiance.ai a été lancé en juillet dernier, regroupant des industriels comme Atos ainsi que des partenaires académiques. Un changement de paradigme majeur, commente Kaoutar Sghiouer : « On sort de l’IA classique, où l’on ne se préoccupe que de la précision des algorithmes, pour aller vers une IA de confiance qui s’intéresse aussi au contexte et au pays dans lesquels elle se déploie. »

Des contraintes qui stimulent l’innovation

Autre enjeu de taille qui vient compléter la dimension éthique des IA de demain : la réduction de leur empreinte carbone. Des chercheurs de l’Université du Massachusetts Amherst ont estimé en 2019 qu’entraîner une seule intelligence artificielle polluerait autant que 5 voitures sur toute leur durée de vie : environ 284 tonnes de CO2-équivalent. De quoi contrebalancer les contributions de l’IA dans la gestion des écosystèmes et la restauration des habitats ?

Il existe pourtant des pistes pour alléger ce bilan, énumère Kaoutar Sghiouer : privilégier les modèles pré-entraînés (ce qui évite d’entraîner le même modèle plusieurs fois) ; regarder le ratio précision de l’algorithme / bilan carbone et choisir celui qui pollue le moins, en fonction des besoins du cas d’usage ; éviter de stocker toutes les données et privilégier, une fois de plus, la qualité des données à la quantité…

Autant de contraintes qui, loin de freiner l’innovation, vont plutôt orienter celle-ci dans une meilleure direction, estime l’experte. En favorisant la frugalité, l’explicabilité des modèles ou encore la transparence, et donc l’acceptabilité de ces systèmes, « les règles de l’éthique ne font qu’accélérer la démocratisation de l’IA, tout en posant un défi à nos scientifiques pour aller plus loin dans les solutions innovantes. »

Le sujet devrait continuer à nous agiter en 2022 alors que la Commission européenne continue de plancher sur un projet de loi, l’Artificial Intelligence Act, visant à fixer « un cadre réglementaire horizontal et centré sur l'humain pour l’IA. »

Partager


Qui est Atos
Leader international de la transformation digitale


Suivre ou contacter Groupe