Technologie

Pourquoi les pays doivent créer leur propre définition de ce qu’est l’IA éthique

En France, comme dans d’autres pays, les pays décident de ce qu’il faut considérer comme un usage acceptable de l’intelligence artificielle (IA), par exemple, pour savoir s’il faut accepter ou interdire l’utilisation de la reconnaissance faciale dans les lieux publics. Pour l’analytique de l’opérateur scandinave Telenor et la directrice de l’IA Ieva Martinkinaite, le débat public est essentiel pour trouver un équilibre entre les opportunités du marché et l’utilisation éthique de l’IA.

Le gouvernement présente de sérieux défis pour les dirigeants. Il s’agit de s’assurer que les réglementations en matière d’IA sont appropriées pour les locaux. C’est ce que les opérateurs norvégiens tentent de faire, en appliquant des modèles d’IA et d’apprentissage automatique pour fournir aux clients des campagnes de vente plus personnalisées et ciblées, améliorer l’efficacité opérationnelle et tirer parti des ressources du réseau. Comme le sait la direction des opérateurs, ces technologies aident à lutter contre le réchauffement climatique, par exemple en éteignant les antennes lorsque l’utilisation des antennes est faible.

Pour Ieva Martinkenaite, qui est également présidente du groupe de travail de la GSMA sur l’intelligence artificielle (l’organisation qui regroupe les principaux opérateurs mondiaux), les régulateurs doivent prendre en compte les implications commerciales de la technologie et du droit qui les concernent. Le cadre d’éthique et de gouvernance de l’IA peut sembler bon sur le papier, mais nous devons nous assurer qu’il est également disponible du point de vue du recrutement, dit-elle.

Trouver le bon équilibre

En promouvant l’adoption significative de l’IA dans la vie quotidienne, les pays doivent s’efforcer de trouver un « équilibre » entre l’utilisation des opportunités du marché et l’utilisation éthique de la technologie. Soulignant que la technologie évolue constamment, les dirigeants ont reconnu lors d’un symposium à Singapour que la réglementation ne peut pas toujours suivre le rythme.

En élaborant des réglementations sur l’IA sur le Vieux Monde, les parlementaires de l’UE ont été confrontés à plusieurs défis, notamment comment mettre en œuvre une législation pour contrôler l’utilisation éthique de l’IA sans affecter les talents et le flux d’innovation, a-t-elle expliqué. Cela s’est avéré être un obstacle sérieux, car certains craignaient que la réglementation ne crée une bureaucratie excessive dans les entreprises. La dépendance croissante à l’égard de l’infrastructure informatique et des cadres d’apprentissage automatique développés par quelques géants de l’Internet tels qu’Amazon, Google, Microsoft, Tencent, Baidu et Alibaba suscite également des inquiétudes, a déclaré Ieva Martinkinaite.

Et rappelons l’embarras des responsables de l’UE sur la façon dont la région peut maintenir sa souveraineté et son indépendance dans cette nouvelle situation. Les dirigeants expliquent que les discussions à Bruxelles sont particulièrement axées sur la nécessité de créer des technologies d’IA clés dans la région, telles que des architectures de données, de puissance de calcul, de stockage et d’apprentissage automatique. Selon elle, il est impératif que le gouvernement de l’UE crée des incitations et stimule les investissements locaux dans l’écosystème en mettant l’accent sur l’augmentation de l’indépendance technique de l’IA.

Bénéfices menacés

Au-delà de la question de la souveraineté, Ieva Martinkenaite appelle à la vigilance face à un éventuel détournement de l’IA à des fins politiques. Récemment, la responsable des droits de l’homme des Nations Unies, Michelle Bachelet, a appelé à l’interdiction de l’utilisation de l’IA en cas de violation du droit international des droits de l’homme. Il souligne également l’urgence d’évaluer et de traiter les risques que l’IA peut présenter pour les droits de l’homme, et que si l’IA présente des risques élevés pour les droits de l’homme, une législation plus stricte concernant son utilisation doit être appliquée.

“L’IA est une force du bien et aide les entreprises à surmonter certains des grands défis de notre époque. Mais la technologie de l’IA prend en compte la façon dont elle affecte les droits humains des personnes. Si elle est utilisée sans elle, elle peut avoir des effets néfastes et même catastrophiques “, a déclaré ce dernier, Ieva. Je suis d’accord avec la position exprimée par Martinkenaite.

Selon ce dernier, il appartient désormais à chaque pays de déterminer ce que signifie l’IA éthique. De plus, l’utilisation de cette technologie d’IA sera déployée sans intervention humaine, sans gouvernance ni assurance qualité appropriées, jusqu’à ce que les problèmes de vérité associés à l’analyse des différents tons de peau et caractéristiques du visage soient correctement résolus. Quelle est la clé de ce débat public et de cette connaissance approfondie de l’IA ? La tourmente dans l’intérêt des autorités, des entreprises et des citoyens promet l’enquêteur en chef de Telenor.

Source : ZDNet.com

(function(d, s, id) {
var js, fjs = d.getElementsByTagName(s)[0];
if (d.getElementById(id)) return;
js = d.createElement(s); js.id = id;
js.src = “//connect.facebook.net/fr_FR/all.js#appId=243265768935&xfbml=1”;
fjs.parentNode.insertBefore(js, fjs);
}(document, ‘script’, ‘facebook-jssdk’));

Pourquoi les pays doivent créer leur propre définition de ce qu’est l’IA éthique

Source link Pourquoi les pays doivent créer leur propre définition de ce qu’est l’IA éthique

Back to top button