Des groupes de défense des droits de l'homme demandent à Zoom de supprimer l'intelligence artificielle émotionnelle

Des groupes de défense des droits de l’homme demandent à Zoom de supprimer l’intelligence artificielle émotionnelle

[ad_1]

Ce site peut gagner des commissions d’affiliation à partir des liens sur cette page. Conditions d’utilisation.

(Photo : Iyus Sugiharto/Unsplash)
Un groupe d’organisations de défense des droits de l’homme demande à Zoom d’arrêter son projet d’introduire une intelligence artificielle qui analyse les émotions dans sa plateforme de visioconférence.

Zoom flirte avec le concept d’émotion IA depuis que la pandémie lui a donné un second souffle. Comme nous l’avons mentionné le mois dernier, le géant de la technologie Intel a travaillé avec une société de logiciels d’apprentissage en ligne pour produire un programme d’analyse des émotions qui s’accumule avec Zoom. Ce programme serait censé profiter aux enseignants en leur disant quand les élèves semblent confus ou ennuyés, leur permettant d’adapter leur enseignement et d’accroître leur engagement. Protocol a également signalé en avril que les entreprises avaient commencé à utiliser l’intelligence artificielle émotionnelle. lors d’appels commerciaux pour évaluer l’humeur des clients potentiels et ajuster votre stratégie en conséquence. À leur insu, chaque client est noté sur une « carte de pointage des émotions » tout au long de son appel.

L’organisation à but non lucratif des droits numériques Fight for the Future a rapidement pris connaissance du rapport de Protocol. Il en a été de même pour l’American Civil Liberties Union (ACLU), Access Now, Jobs With Justice et 24 autres groupes de défense des droits humains, qui ont tous signé une lettre ouverte sur Zoom posté mercredi. La lettre demande au fondateur et PDG de Zoom, Eric Yuan, de rejeter les projets de l’entreprise d’introduire l’intelligence artificielle émotionnelle, affirmant que la technologie est punitive, manipulatrice, discriminatoire, enracinée dans la pseudoscience et un risque pour l’intégrité des données des citoyens.

(Photo : Charles Deluvio/Unsplash)

« Zoom prétend se soucier du bonheur et de la sécurité de ses utilisateurs, mais cette technologie invasive dit le contraire », indique la lettre. « Cette décision d’extraire des points de données émotionnelles des utilisateurs sur la base de la fausse idée que l’IA peut suivre et analyser les émotions humaines est une violation de la vie privée et des droits de l’homme. Zoom doit arrêter les plans pour faire avancer cette fonctionnalité. »

La lettre ouverte est loin d’être la première à critiquer l’IA émotionnelle. Beaucoup ont dit que la technologie constitue une surveillance excessive, en particulier lorsque les étudiants ou clients ciblés ne sont pas conscients de leur langage corporel, de leur ton et d’autres marqueurs émotionnels supposés qui sont évalués. D’autres ont dit que l’IA émotionnelle pourrait finir par offrir des analyses négatives (ou simplement incorrectes) des personnes dont les cultures expriment les émotions différemment.

La lettre des groupes de défense se termine en rappelant à Yuan que son entreprise a déjà « pris des décisions centrées sur les droits des utilisateurs », comme revenir sur sa décision de mettre en œuvre des fonctionnalités de suivi du visage en raison de problèmes de confidentialité. « C’est une autre occasion de montrer que vous vous souciez de vos utilisateurs et de votre réputation », écrivent les organisations. « Vous pouvez préciser que cette technologie n’a pas sa place dans les communications vidéo. »

Maintenant lis:



[ad_2]

Source link

Share iT

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.