Photo d'illustration prise le 23 janvier 2023 à Toulouse, en France
La Chine va imposer une « inspection de sécurité » aux outils d’intelligence artificielle, en pleine frénésie dans le pays des géants de l’internet pour concevoir des outils de type ChatGPT.
Les prouesses du robot conversationnel américain ChatGPT, lancé en novembre et capable de formuler en quelques secondes des réponses détaillées sur un large éventail de sujets, est suivi avec intérêt en Chine.
L’interface n’est pas accessible dans le pays, mais ChatGPT fait l’objet d’innombrables articles et discussions sur les réseaux sociaux, et les géants locaux de la tech rivalisent pour concevoir des outils équivalents en Chine.
Le moteur de recherche Baidu a été l’un des premiers groupes chinois à se positionner sur ce créneau, rejoint par le champion de l’internet et des jeux vidéo Tencent ou encore Alibaba, pionnier du e-commerce.
En pleine euphorie vis-à-vis de l’intelligence artificielle dite générative, la Chine souhaite encadrer cette technologie.
Avant toute mise à disposition, les produits fonctionnant avec l’intelligence artificielle générative devront « solliciter une inspection de sécurité », selon un projet de réglementation publié mardi par l’Administration chinoise du cyberespace.
Le régulateur, qui soumet son texte aux commentaires du public avant adoption, ne précise pas quand la réglementation entrera en vigueur.
– « Valeurs socialistes » –
Les contenus générés par intelligence artificielle doivent « refléter les valeurs socialistes fondamentales et ne doivent pas contenir [d’éléments relatifs] à la subversion du pouvoir de l’Etat », indique le projet de réglementation.
Ils devront également respecter le droit à la propriété intellectuelle, précise le document.
La réglementation vise « le développement sain et la mise en application standard de la technologie d’intelligence artificielle générative ».
Il s’agit de « l’une des mesures les plus strictes » pour encadrer l’intelligence artificielle de type ChatGPT, indique à l’AFP Andy Chun, un expert en technologie à l’Université de Hong Kong.
La Chine ambitionne de devenir d’ici 2030 le leader mondial de l’intelligence artificielle, amenée à révolutionner une multitude de secteurs dont l’industrie automobile et la médecine.
Baidu a été le premier dans son pays à annoncer travailler sur un équivalent local à ChatGPT.
Présenté le mois dernier à la presse, Ernie Bot, qui fonctionne en mandarin et vise uniquement le marché chinois, n’est pour le moment disponible qu’en version bêta.
Le géant du commerce en ligne Alibaba a dévoilé le sien mardi, « Tongyi Qianwen » (machine qui sait tout).
– « Faire très attention » –
Dans la course à l’intelligence artificielle, la principale difficulté en Chine pour les développeurs est de proposer un robot conversationnel performant mais qui ne s’écarte pas du cadre très strict permis en matière de contenus.
Ainsi avec cette future réglementation, les entreprises devront « faire très attention » à ce que chaque donnée servant à alimenter leur intelligence artificielle « soit conforme » aux directives, souligne Andy Chun.
De plus, « garantir l’exactitude (des réponses) est difficile. Aucun système d’intelligence artificielle générative ne peut le faire à ce jour », fait-il remarquer.
La Chine est à la pointe en matière de réglementation des nouvelles technologies, perçues pour certaines comme une menace potentielle à la stabilité ou au pouvoir du Parti communiste.
Après des années de laxisme, les autorités se montrent depuis 2020 intransigeantes vis-à-vis des pratiques des puissantes entreprises du numérique, en particulier sur les questions liées aux données personnelles.
La Chine surveille déjà étroitement son internet et ses médias, avec une armée de censeurs qui effacent les contenus présentant la politique de l’Etat sous un mauvais jour ou de nature à créer de l’agitation.
Les réseaux sociaux font quant à eux l’objet d’un contrôle renforcé.
La Chine avait déjà demandé l’an dernier aux géants de l’internet de dévoiler leurs algorithmes, un secret généralement bien gardé. Les algorithmes servent de cerveau à bon nombre d’applications et services sur internet.
Le pays a par ailleurs durci en janvier l’encadrement de l’hypertrucage (« deepfake »), ces manipulations numériques des images de plus en plus réalistes et qui présentent un défi en matière de lutte contre la désinformation.
LNT avec Afp