Google aurait dit aux scientifiques de l’IA de “ frapper un ton positif ” dans la recherche

Illustration de l'article intitulé Google aurait dit aux scientifiques de l'IA de frapper un ton positif dans la recherche

Photo: Leon Neal / Employé (Getty Images)

Près de trois semaines après la sortie brusque de Black éthicien en intelligence artificielle Timnit Gebru, plus de détails émergent sur le nouvel ensemble de politiques louches que Google a déployé pour son équipe de recherche.

Après avoir examiné les communications internes et parlé aux chercheurs concernés par le changement de règle, Reuters a rapporté mercredi que le géant de la technologie avait récemment ajouté un processus d’examen des «sujets sensibles» pour les articles de ses scientifiques et, à au moins trois reprises, avait explicitement demandé aux scientifiques de s’abstenir de présenter la technologie de Google sous un jour négatif.

En vertu de la nouvelle procédure, les scientifiques sont tenus de rencontrer des équipes juridiques, politiques et de relations publiques spéciales avant de poursuivre des recherches sur l’IA liées à des sujets dits controversés qui pourraient inclure une analyse faciale et des catégorisations de race, de sexe ou d’affiliation politique.

Dans un exemple examiné par Reuters, des scientifiques qui avaient étudié la recommandation utilisée par l’IA pour alimenter les flux d’utilisateurs sur des plates-formes comme YouTube – une propriété appartenant à Google – avaient rédigé un document détaillant les préoccupations selon lesquelles la technologie pourrait être utilisée pour promouvoir «la désinformation, discriminatoire ou autre résultats inéquitables »et« une diversité insuffisante du contenu », ainsi qu’une« polarisation politique ». Après examen par un cadre supérieur qui a demandé aux chercheurs d’adopter un ton plus positif, la publication finale suggère plutôt que les systèmes peuvent promouvoir «des informations exactes, l’équité et la diversité du contenu».

«Les progrès technologiques et la complexité croissante de notre environnement externe conduisent de plus en plus à des situations où des projets apparemment inoffensifs soulèvent des problèmes éthiques, de réputation, réglementaires ou juridiques», aurait déclaré une page Web interne décrivant la politique.

Ces dernières semaines – et en particulier après la départ de Gebru, une chercheuse de grande renommée qui serait tombée en disgrâce auprès des plus hauts responsables après avoir sonné l’alarme sur la censure infiltrant le processus de recherche – Google a fait face à un examen accru des biais potentiels dans sa division de recherche interne.

Quatre chercheurs du personnel qui se sont entretenus avec Reuters ont validé les affirmations de Gebru, affirmant qu’eux aussi pensaient que Google commençait à interférer avec des études critiques sur le potentiel de la technologie à nuire.

«Si nous recherchons la chose appropriée compte tenu de notre expertise, et que nous ne sommes pas autorisés à publier cela pour des raisons qui ne correspondent pas à un examen par les pairs de haute qualité, nous nous retrouvons dans un grave problème de censure», Margaret Mitchell, a déclaré un scientifique senior de l’entreprise.

Début décembre, Gebru a affirmé avoir été licenciée par Google après avoir repoussé un ordre de ne pas publier de recherche affirmant que l’IA capable d’imiter la parole pourrait désavantager les populations marginalisées.

READ  Telle est la vision de Microsoft pour l'avenir des réunions

LEAVE A REPLY

Please enter your comment!
Please enter your name here