« Il faut trouver le bon équilibre entre régulation et innovation »


Le PDG d’OpenAI, Sam Altman, à l’Elysée, à Paris, le 23 mai 2023.

Tout est question « d’équilibre »Après avoir créé la polémique en s’inquiétant des conséquences pour ChatGPT d’un encadrement trop strict de l’intelligence artificielle (IA) en Europe, Sam Altman a tenu un langage beaucoup plus diplomatique, vendredi 26 mai, à Paris : « Il faut trouver le bon équilibre entre régulation et innovation », a plaidé le PDG d’OpenAI, devant un public conquis d’employés et d’entrepreneurs de la tech, réunis à la pépinière de start-up parisienne Station F. Juste avant lui, le ministre délégué au numérique, Jean-Noël Barrot, avait introduit l’arrivée de « Sam » en utilisant la même formule. Signe de la volonté partagée d’être courtois.

Le ton marque une certaine désescalade par rapport à des propos rapportés, mercredi 24 mai, par plusieurs médias britanniques. Le créateur du robot conversationnel ChatGPT avait dit avoir « plusieurs » points de critiques sur l’AI Act, le règlement européen en cours de discussion. « Si nous pouvons nous conformer, nous le ferons. Sinon, nous cesserons d’opérer en Europe… Il y a des limites techniques à ce qui est possible », avait-il dit, selon la presse. Une vive réaction de Bruxelles n’avait pas tardé : « Est-ce du chantage ? », avait tweeté le commissaire européen Thierry Breton.

« Les titres des articles ne correspondaient pas vraiment à ce que je voulais dire », a assuré, vendredi, M. Altman, plaidant une forme de malentendu. « Nous continuerons d’opérer en Europe », a-t-il précisé, ajoutant : « Nous aimons l’Europe. »

Autre point sensible, le droit d’auteur

Au-delà des subtilités de ton, Sam Altman se dit d’accord avec l’esprit de l’AI Act : « Un régime d’autorisation, avec des normes de sécurité, est tout à fait pertinent, cela me va très bien. » Mais il a rappelé que les « détails » importaient et qu’il y avait « encore une part de flou » dans le texte.

La version la plus récente, issue du Parlement européen, impose ainsi aux éditeurs de grands modèles d’IA à usages multiples, comme OpenAI, de décrire les données sur lesquelles ces logiciels ont été entraînés, d’en assurer la qualité, ainsi que de s’assurer qu’elles ne comportent pas de risque de biais discriminatoires ou de publication de contenus dangereux. « Ces bases de données de textes et d’images sont gigantesques. Si on nous demandait par exemple d’être à 100 % certain qu’un élément ne s’y trouve pas, ce serait difficile », a-t-il plaidé.

Autre point très sensible : le droit d’auteur. Le Parlement demande que soient listés tous les documents et œuvres protégés utilisés pour entraîner les systèmes d’IA. Et M. Barrot, comme le ministre de l’économie, Bruno Le Maire, est favorable à ce que les médias, artistes ou entreprises détenant les droits soient rémunérés. « L’idée d’une forme de compensation semble raisonnable », a admis M. Altman.

Il vous reste 47.91% de cet article à lire. La suite est réservée aux abonnés.



Lien des sources