ChatGPT doit être considéré comme un système à haut risque, selon le comité d’éthique

0

[ad_1]

Le Comité national pilote d’éthique du numérique (CNPEN) estime que les IA génératives accessibles au grand public doivent être classées dans les systèmes à haut risque, dans son avis consultatif. Qu’est-ce-que cela signifie, et quelles conséquences sur le Règlement européen sur l’IA actuellement en cours d’adoption au sein de l’Union européenne ?

C’est une recommandation qui a dû faire grimacer les développeurs d’intelligence artificielle (IA) générative. Mercredi 5 juillet, le Comité national pilote d’éthique du numérique (CNPEN) a publié son avis consultatif sur cette technologie. Cet organisme français estime que les modèles de fondation mis sur le marché et les systèmes d’IA générative doivent être considérés comme des « systèmes à haut risque », une classification définie dans le Règlement européen sur l’IA (ou « AI Act ») actuellement en discussion au sein de l’Union européenne (UE). Depuis l’avènement de ChatGPT en novembre dernier et la course à l’IA qu’il a entraîné, le législateur européen se demande si l’IA générative ne doit pas faire l’objet de dispositions particulières.

Cette technologie qui permet de générer du texte, du code et des images à partir de commandes a autant suscité l’engouement que l’inquiétude. Outre les craintes liées à son impact sur l’emploi, cette technologie a entraîné des problèmes de désinformation, de confidentialité des données, d’utilisation malveillante, ou encore d’appropriation du travail des créateurs posés par l’IA, pour l’instant sans être encadrée par des lois. En février dernier, Jean-Noël Barrot, le ministre délégué au Numérique, avait donc saisi cet organisme français créé en 2019 pour « éclairer le débat public sur les enjeux d’éthique du numérique ». Cinq mois plus tard, ce dernier rend son avis dans lequel il préconise des obligations plus lourdes pour les IA génératives grand public. Il propose de distinguer ces modèles de ceux publiés en open source.

Dire que les IA génératives grand public sont des systèmes à haut risque : ça veut dire quoi ?

Pendant que les systèmes grand public seraient soumis à des obligations fortes, les outils en libre accès n’auraient à respecter que des obligations de transparence, bien plus légères. L’AI Act définit en effet une pyramide des risques composée de quatre catégories dont celles des IA à haut risque. Plus le risque que représente l’IA est important, et plus on va imposer des obligations de transparence et de gouvernance aux développeurs d’IA.

Le fait de dire que les IA génératives grand public doivent être considérées comme des systèmes à haut risque signifie donc que les développeurs devront mettre en place une série de garde-fous et de procédures contraignantes. Si le texte est adopté tel quel, les entreprises concernées devront créer un système de gestion des risques, une politique contraignante de gouvernance des données utilisées pour l’entraînement, ou encore un contrôle humain du système. Elles devraient aussi en théorie passer par des procédures d’évaluation préalable, et de contrôle de conformité avant de pouvoir être accessibles aux Européens.

Quels sont ces modèles grand public ? On retrouve ChatGPT, le chat conversationnel d’OpenAI et ses concurrents comme Bard (de Google), les outils de générations d’images comme Dall-E ou Midjourney. En filigrane, le Comité estime que ces systèmes, plus utilisés que les autres par les citoyens, doivent être davantage encadrés. À l’inverse, les modèles publiés en « open source », pour l’instant moins populaires, seraient seulement soumis à « des obligations de transparence et d’évaluation par les concepteurs », sauf s’ils sont utilisés dans un secteur considéré comme « à haut risque » – secteurs définis par l’AI Act comme la santé ou le recrutement.

Prudence, sources de qualité, évaluations… Les autres préconisations du Comité éthique

Le Comité dresse ensuite plusieurs autres préconisations parfois assez vagues – comme le fait que les « acteurs économiques et les autorités publiques doivent faire preuve de prudence dans la vitesse d’adoption des systèmes d’IA générative et prévoir des évaluations préalables et continues ». Répondant aux problèmes des sources ingurgitées par l’IA pour s’entraîner, qui comprennent des informations inexactes se retrouvant ensuite dans les réponses de l’agent conversationnel, le Comité écrit que les concepteurs doivent « privilégier l’usage de sources de qualité, jugées selon des critères rendus explicites, pour la constitution et l’usage des corpus d’apprentissage des modèles d’IA générative ainsi que pour leur optimisation ».

Pour éviter les biais et les discriminations, l’organisme avance aussi la création d’une autorité de contrôle et la mise en place d’évaluation quantitative. Il s’agirait de publier cette évaluation en même temps que le lancement d’un modèle de fondation. Les auteurs de l’avis recommandent également la mise en place d’outils de « watermarking », permettant de distinguer les productions humaines de celles générées par l’outil d’IA. L’adaptation du droit d’auteur « à l’aune des techniques d’IA générative » est aussi préconisée.

Une proposition qui entend peser à Bruxelles ?

Avec ce texte purement consultatif, le Comité entend bien peser dans la position française actuellement en négociation au sein du Trilogue : l’AI Act, après avoir été étudié par chaque organe législatif de l’UE (la Commission européenne, les 27 États membres et le Parlement européen), doit désormais faire l’objet de compromis entre ces trois institutions. Et, il se pourrait que la version définitive comprenne des dispositions spécifiques aux IA génératives.

Le texte initial, émis par la Commission européenne, avait été rédigé avant la « ChatGPT mania », le 21 avril 2021. Lorsque ChatGPT est lancé en novembre 2022, le Parlement européen était en train d’étudier le Règlement, ce qui l’a poussé à ajouter de nouvelles dispositions applicables seulement à ce type d’IA, contre l’avis de certains experts.

Les entreprises développant ces outils génératifs militent, elles, pour la position inverse, estimant que l’IA générative n’est pas un système à haut risque. Ces dernières ont notamment plaidé que de trop lourdes obligations pourraient les contraindre à quitter le marché européen — un raisonnement qu’avait tenu Sam Altman, le fondateur d’OpenAI à l’origine de ChatGPT, avant de rétropédaler. Le Comité éthique se place donc dans le camp de ceux qui pensent qu’il faut des dispositions particulières, et des obligations plus importantes pour ce type d’IA. Reste à savoir ce qui sera décidé au sein du Trilogue, l’étape qui consiste à regrouper à une même table les trois organes de l’UE avant le grand vote final. La prochaine réunion aura lieu le 18 juillet prochain.

Source :

Avis du CNPEN du 5 juillet 2023

[ad_2]

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *