Avec autant d'enjeux, les hôtes Airbnb doivent-ils s'appuyer sur un algorithme pour écrire leurs profils?
Cela dépend, selon les nouvelles recherches de Cornell et de l’Université de Stanford. Si tout le monde utilise des profils générés par algorithme, les utilisateurs leur font confiance. Cependant, si seuls certains hôtes choisissent de déléguer des responsabilités d'écriture à l'intelligence artificielle, ils risquent de se méfier. Les chercheurs ont qualifié cet effet «d’effet de réplication» - un clin d’œil au film «Blade Runner».
«Les participants recherchaient des repères mécaniques et linguistiques plus humains et émotionnels», a déclaré Maurice Jakesch, doctorant en sciences de l'information à Cornell Tech et auteur principal de «AI-Mediated Communication: Comment la perception du texte du profil a-t-elle été écrite? by AI Affects Trustworthiness », qui sera présenté à la conférence ACM sur les facteurs humains dans les systèmes informatiques , qui s'est tenu du 4 au 9 mai à Glasgow, en Écosse.
"Ils avaient leurs propres théories sur le profil généré par l'IA", a déclaré Jakesch. "S'il y avait de graves fautes d'orthographe dans un profil, ils diraient qu'il est plus humain, alors que si le profil de quelqu'un a l'air disloqué ou insensé, il suppose qu'il s'agit d'IA."
L'intelligence artificielle est en train de révolutionner les technologies en langage naturel et la façon dont les humains interagissent les uns avec les autres. Les gens font déjà l'expérience d'une communication par l'IA: Gmail analyse le contenu de nos e-mails entrants et génère des «réponses intelligentes» en un clic suggérée. Une nouvelle génération de supports d'aide à la rédaction corrige non seulement les fautes d'orthographe, mais affine notre style d'écriture.
"Nous commençons à voir les premiers cas d'intelligence artificielle fonctionnant comme un médiateur entre humains, mais il s'agit simplement de savoir si les gens le souhaitent.", a déclaré Jakesch. «Nous risquons de nous retrouver dans une situation où la communication faite par une IA est tellement répandue qu'elle fait désormais partie de la façon dont les gens évaluent ce qu'ils voient en ligne.
Dans cette étude, les chercheurs ont cherché à déterminer si les utilisateurs font confiance à des représentations optimisées ou générées par des algorithmes, en particulier sur les marchés en ligne. L’équipe a mené trois expériences en recrutant des centaines de participants sur Amazon Mechanical Turk pour évaluer de véritables profils Airbnb générés par l’homme. Dans certains cas, les participants ont été amenés à croire que tout ou partie des profils avaient été générés par un système automatisé d'IA. Les participants ont ensuite été invités à attribuer à chaque profil un score de confiance.
Lorsqu'ils ont appris qu'ils consultaient tous les profils générés par l'homme ou tous les profils générés par l'IA, les participants ne semblaient pas faire davantage confiance à l'un que l'autre. Ils ont évalué les profils générés par les humains et par l'IA de la même manière.
Mais cela a changé lorsque les participants ont été informés qu'ils consultaient un ensemble de profils. Restant à décider si les profils qu'ils lisaient étaient écrits par un humain ou par un algorithme, les utilisateurs se méfiaient de ceux qu'ils pensaient être générés par la machine.
«Plus les participants pensaient qu'un profil était généré par l'IA, moins ils avaient tendance à faire confiance à l'hôte, même si les profils qu'ils ont évalués avaient été écrits par les hôtes réels», ont écrit les auteurs.
Quel est le problème avec l'utilisation d'une cyber communication ? Comme l’a expliqué un participant à l’étude, les profils générés par l’IA «peuvent être pratiques mais aussi un peu paresseux.
Alors que l'IA devient plus courante et plus puissante, les directives fondamentales, l'éthique et la pratique deviennent essentielles, ont déclaré les chercheurs. Leurs résultats suggèrent qu'il existe des moyens de concevoir des outils de communication de l'IA améliorant la confiance des utilisateurs humains. Pour commencer, a déclaré Jakesch, les entreprises pourraient ajouter un emblème à tout le texte produit par AI, certains médias utilisant déjà le contenu créé par un algorithme. Les directives et les normes de conception et de politique pour l'utilisation de la communication médiée par l'IA méritent d'être explorées maintenant, a-t-il ajouté.
"La valeur de ces technologies dépendra de la manière dont elles ont été conçues, comment elles sont communiquées aux gens et de notre capacité à créer un écosystème sain autour d'eux", a-t-il déclaré. «Cela pose de nombreuses nouvelles questions éthiques: est-il acceptable que mon assistant algorithmique génère une version plus éloquente de moi? Est-il possible qu'un algorithme dise à mes enfants une bonne nuit en mon nom? Ce sont des questions qui doivent être discutées. "
Le document a été co-écrit avec Mor Naaman, professeur associé en sciences de l'information à l'Institut Jacobs Technion-Cornell de Cornell Tech; Xiao Ma, doctorante en sciences de l'information chez Cornell Tech; et Megan French et Jeffrey T. Hancock de Stanford.
Source : Tech Cornell
Recevez les actualités du Technion France
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form