Nos propositionsNotes

Note #40

Éléments pour une éthique de l'IA simplifiée

Depuis l’émergence de ChatGPT et des IA génératives en général, l’intelligence artificielle (IA) est au cœur des débats, oscillant entre promesses révolutionnaires et inquiétudes quant à ses impacts. Le flou du débat public est aggravé par un manque de données fiables sur les effets réels de l’IA, notamment en matière de productivité et d’environnement. L’urgence est de détechniciser et de politiser le sujet, en intégrant des réflexions sociales et environnementales au-delà des seules considérations économiques et juridiques. L’impact écologique des systèmes d’IA est d’ailleurs de plus en plus mesuré. Pour structurer un cadre éthique efficace, il est proposé de fonder l’éthique de l’IA sur trois piliers : intégrité, dignité et durabilité, permettant de questionner chaque développement technologique. Une approche concrète et simplifiée, résumée dans la règle « APR » (Améliorer l’intégrité, faire Prévaloir la dignité humaine, Rendre durables les systèmes), doit guider les réflexions et réglementations futures. Il est également urgent de financer des recherches indépendantes, de promouvoir une culture du questionnement éthique et de faire émerger un consensus global sur l’IA, notamment lors du Sommet de Paris de février 2025.

L’enjeu de l’« éthique de l’IA » n’est pas nouveau. Dès 2017, la CNIL (Commission nationale informatique et libertés) publiait, dans le cadre de la mission confiée par la Loi pour une République numérique du 7 octobre 2016, un rapport « Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle » comportant un certain nombre de recommandations. Ce rapport, issu d’un débat public, identifiait six défis majeurs, dont la délégation croissante des décisions aux machines, les biais algorithmiques, la personnalisation excessive de l’IA, et l’équilibre à trouver entre usages de l’IA et protection des données. Il développait alors essentiellement, à titre de recommandation, la nécessité de garantir un contrôle humain sur l’IA autour de deux principes fondateurs : la « loyauté », qui impose aux algorithmes – et donc à leurs concepteurs – de servir l’intérêt collectif, et la « vigilance », qui exige une évaluation continue de leurs effets. Ces deux principes étaient assortis, dans le rapport, de « principes d’ingénierie » visant à les compléter : un principe d’intelligibilitéde l’IA, un principe de responsabilité et un principe d’intervention humaine. Le rapport recommandait notamment, sur ces bases, de former les acteurs, de rendre les algorithmes plus compréhensibles, de créer une plateforme nationale d’audit, ou encore de renforcer la fonction éthique dans les entreprises. Il appelait également, cinq ans avant ChatGPT, à un cadre éthique clair pour anticiper les impacts des IA sur l’identité humaine et la société…cadre qui n’était alors qu’ébauché.

Le recours, dans le débat public, à l’idée d’éthique de l’IA a massivement augmenté depuis la mise sur le marché de ChatGPT, outil d’IA dite « générative » proposé en accès d’abord totalement gratuit par la société américaine OpenAI, en novembre 2022. La commercialisation de systèmes d’IA génératives a de manière générale entraîné une incroyable et permanente saturation de références à l’intelligence dans le discours politique, économique et médiatique, au point qu’il est devenu banal d’affirmer qu’elle doit être « responsable » et « éthique » sans pour autant définir ces concepts ni leur assortir de conséquences concrètes. Volontiers décrite comme une révolution technologique inédite et une source infinie d’opportunités pour l’humanité par les uns, l’IA est en même temps décriée par d’autres, tant ses impacts sociaux, énergétiques et économiques questionnent.

Aujourd’hui, le constat que l’on peut dresser est que le débat public sur l’éthique de l’IA est devenu partiellement illisible. Malgré des cadres juridiques récents et des éléments de mesure concrets qui commencent à alimenter les réflexions, nous manquons encore de repères. Cette note vise dès lors à proposer des pistes structurantes pour penser une éthique de l’IA épurée des complexités caractérisant le débat actuel, éthique dérivée d’une éthique de l’innovation que nous croyons devoir découler plus largement de l’éthique des affaires.

 

Fichiers

Publié le 06/02/2025

L'auteur

Raphaël Maurel

Raphaël Maurel

Directeur Général