L'Inde oblige les entreprises technologiques à demander l'approbation réglementaire avant de lancer des outils d'IA

Le gouvernement indien a annoncé une nouvelle obligation pour les entreprises technologiques d'obtenir l'approbation du gouvernement avant de publier publiquement des outils d'intelligence artificielle (IA) qui sont encore en développement ou considérés comme « peu fiables », a rapporté Reuters le 4 mars.

Cette décision s'inscrit dans le cadre des efforts de l'Inde pour gérer le déploiement des technologies d'IA, visant à promouvoir l'exactitude et la fiabilité des outils disponibles pour ses citoyens alors qu'elle se prépare aux élections.

Règles pour l'IA

Selon une directive émise par le ministère des Technologies de l'information, toute application basée sur l'IA, en particulier celle impliquant l'IA générative, doit recevoir une autorisation explicite du gouvernement avant son introduction sur le marché indien.

De plus, ces outils d'IA doivent être signalés par des avertissements concernant leur potentiel à générer des réponses incorrectes aux requêtes des utilisateurs, renforçant ainsi la position du gouvernement sur la nécessité de clarifier les capacités de l'IA.

Le règlement s’aligne sur les tendances mondiales selon lesquelles les pays cherchent à établir des lignes directrices pour une utilisation responsable de l’IA. L'approche de l'Inde visant à accroître la surveillance de l'IA et des plateformes numériques coïncide avec sa stratégie réglementaire plus large visant à protéger les intérêts des utilisateurs dans une ère numérique en évolution rapide.

L'avis du gouvernement fait également état de préoccupations concernant l'influence des outils d'IA sur l'intégrité du processus électoral. À l’approche des élections générales, au cours desquelles le parti au pouvoir devrait conserver sa majorité, l’accent est mis davantage sur la garantie que les technologies d’IA ne compromettent pas l’équité électorale.

Critique des Gémeaux

Cette décision fait suite aux récentes critiques de l'outil Gemini AI de Google, qui a généré des réponses perçues comme défavorables à l'égard du Premier ministre indien Narendra Modi.

Google a répondu à l'incident en reconnaissant les imperfections de son outil d'IA, notamment sur des sujets sensibles tels que l'actualité et la politique. La société a déclaré que l’outil n’était toujours « pas fiable ».

Le vice-ministre de l'informatique, Rajeev Chandrasekhar, a déclaré que les problèmes de fiabilité n'exonèrent pas les plateformes de leurs responsabilités légales et a souligné l'importance de respecter les obligations légales en matière de sécurité et de confiance.

En introduisant ces réglementations, l’Inde prend des mesures pour établir un environnement contrôlé pour l’introduction et l’utilisation des technologies d’IA.

L’exigence de l’approbation du gouvernement et l’accent mis sur la transparence, avec des inexactitudes potentielles, sont considérés comme des mesures visant à équilibrer l’innovation technologique avec des considérations sociétales et éthiques, visant à protéger les processus démocratiques et l’intérêt public à l’ère numérique.

L'article L'Inde oblige les entreprises technologiques à demander l'approbation réglementaire avant de lancer des outils d'IA apparaît en premier sur CryptoSlate.