L'université de Zurich (Zurich Uni) a manipulé les opinions des utilisateurs de Reddit avec un secret laboratoire d'intelligence artificielle (IA).

robot
Création du résumé en cours

Source: Cointelegraph Texte original : "L'expérience secrète en intelligence artificielle (IA) de l'Université de Zurich (Zurich Uni) a manipulé les opinions des utilisateurs de Reddit"

Des chercheurs de l'Université de Zurich ont été accusés d'avoir mené une expérience de quatre mois sur un forum de discussion Reddit sans autorisation, en utilisant des commentaires générés par IA pour tester si l'IA pouvait changer les opinions des gens.

Selon un post publié le 26 avril par le modérateur du sous-forum r/changemyview, dans l'expérience, des comptes alimentés par l'IA se sont fait passer pour diverses identités, y compris des victimes de viol, des personnes s'opposant à des mouvements sociaux spécifiques, ainsi que des conseillers en traumatologie spécialisés dans les cas de maltraitance.

Le modérateur a déclaré : « Notre sous-forum est un espace clairement centré sur l'humain, qui refuse catégoriquement de dissimuler l'utilisation de l'IA, c'est une valeur fondamentale. Les gens viennent ici non pas pour discuter des points de vue avec l'IA ou devenir des sujets d'expérimentation. »

Selon le brouillon de cet article de recherche, les chercheurs ont utilisé l'IA pour générer des réponses et ont essayé de personnaliser ces réponses en fonction de l'historique Reddit antérieur des utilisateurs d'origine (par exemple, les tendances politiques, le sexe, l'âge et la race).

Au cours d'une expérience de quatre mois, un faux compte d'IA de l'Université de Zurich a publié un total de 1 783 commentaires et a obtenu 137 marques « delta » – un signe utilisé par les utilisateurs de Reddit pour indiquer que leur opinion sur une question a été persuadée de changer.

Les chercheurs ont indiqué dans un message publié sur ce sous-forum que tous les commentaires sont soumis à une vérification manuelle avant leur publication, afin de s'assurer qu'ils respectent les directives communautaires et de « minimiser les dommages potentiels ».

L'équipe de recherche de l'Université de Zurich soutient que les "avantages potentiels de cette recherche l'emportent largement sur ses risques", car ils ont découvert que les modèles de langage de grande taille (LLMs) utilisés dans les expériences possédaient une capacité de persuasion extrêmement forte, dépassant les "références de persuasion humaine connues auparavant".

Les chercheurs ont déclaré : "Notre étude contrôlée et à faible risque offre des aperçus précieux pour comprendre la capacité de persuasion des LLM dans le monde réel - une capacité désormais facilement accessible à quiconque, et que des acteurs malveillants pourraient également exploiter à grande échelle à des fins plus dangereuses."

En outre, les chercheurs ont également souligné que cette expérience montre qu'il existe toujours des "défis importants pour distinguer les humains de l'IA", car tout au long de l'expérience, les utilisateurs du sous-forum r/changemyview n'ont pas réussi à identifier le robot IA.

Ce sous-forum compte 3,8 millions de membres, se classant dans le top 1 % de tous les sous-forums Reddit.

Reddit envisage des actions légales

Les modérateurs de Reddit ont déclaré qu'ils n'étaient pas au courant de cette expérience à l'avance, qu'ils ont présenté des excuses à l'Université de Zurich et qu'ils ont demandé à empêcher la publication des résultats de recherche connexes.

Reddit pourrait également envisager des actions en justice. Le directeur juridique de la plateforme, Ben Lee, a déclaré dans un message de suivi du 28 avril que cette expérience violait l'accord d'utilisateur et les règles de la plateforme de Reddit, et tous les comptes connus liés à la recherche de l'université de Zurich ont été bannis.

Lee a déclaré : "Nous avons officiellement envoyé une lettre légale à l'Université de Zurich et à l'équipe de recherche."

Il a ajouté : "Nous ferons tout notre possible pour soutenir la communauté et veiller à ce que les chercheurs concernés soient tenus responsables de leurs actes répréhensibles."

Le comité d'éthique de la Faculté des arts et des sciences sociales de l'Université de Zurich a déclaré en réponse à ce sous-article qu'il avait ouvert une enquête sur l'incident et s'engage à mieux coordonner à l'avenir avec les sujets de l'expérience. Le chercheur principal du projet a également reçu un avertissement formel.

Le comité d'éthique a déclaré : "Ce projet a fourni des informations importantes et présente peu de risques. Par conséquent, réprimer la publication de ses résultats et de la valeur apportée par la recherche est disproportionné."

L'Université de Zurich n'a pas encore répondu immédiatement à cela. Cointelegraph n'a également pas reçu de réponse aux demandes envoyées à l'adresse e-mail liée à l'expérience.

Articles connexes : Lancement de la "stablecoin rouble" russe : Un dirigeant explique les sept caractéristiques fonctionnelles imitant le Tether (USDT)

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)