Aujourd’hui, j’ai appris les curseurs d’intelligence artificielle d’Intel filtrant les abus de jeux en ligne

le mois passé Pendant le show GDC par défaut Intel a annoncé Sommeil, Un nouvel outil d’IA qui espère réduire la quantité de toxicité que les joueurs doivent essayer dans le chat vocal. Selon Intel, l’application « utilise l’intelligence artificielle pour détecter et affiner le son en fonction des préférences de l’utilisateur ». Le filtre fonctionne sur l’audio entrant, agissant comme une couche supplémentaire de modération contrôlée par l’utilisateur en plus de ce que la plate-forme ou le service offre réellement.

C’est un effort noble, mais l’interface Bleep a quelque chose de terriblement drôle, qui détaille toutes les différentes catégories d’abus que les gens peuvent rencontrer en ligne, associée à des segments pour contrôler le nombre d’abus que les utilisateurs veulent entendre. Les catégories vont de «l’agression» à «la haine LGBTQ +», «la misogynie», «le racisme et la xénophobie» et «le nationalisme blanc». Il y a même une bascule pour le mot N. Page de Bleep Cela indique qu’il n’est pas encore dans la version bêta publique, donc tout cela est sujet à changement.

Les filtres incluent «agression» et «misogynie» …
Crédit: Société intel

… et le commutateur « N-word ».
image: Société intel

Avec la majorité de ces catégories, Bleep semble donner aux utilisateurs un choix: vous voulez exclure une partie, une partie, la plupart ou la totalité du langage offensant? Comme choisir parmi un tas de boues Internet toxiques, l’interface d’Intel donne aux joueurs la possibilité de se lancer dans une légère agression ou d’appeler des noms dans leurs jeux en ligne.

Bleep existe depuis deux ans maintenant – PCMag Remarques Intel a parlé de cette initiative à la GDC 2019 – et travaille avec des professionnels de la gestion de l’IA Esprit IA Au programme. Mais modifier les espaces sur Internet grâce à l’intelligence artificielle Ce n’est pas facile Il a également montré des plates-formes comme Facebook et YouTube. Bien que les systèmes automatisés puissent identifier directement les mots offensants, ils ne tiennent souvent pas compte du contexte et des nuances de certaines insultes et menaces. La toxicité en ligne se présente sous tant de formes en constante évolution qu’elle peut être difficile à détecter, même sur les systèmes de modulation IA les plus avancés.

«Bien que nous reconnaissions que des solutions comme Bleep n’effacent pas le problème, nous pensons qu’elles sont un pas dans la bonne direction, donnant aux joueurs un outil pour contrôler leur expérience», a déclaré Roger Chandler d’Intel lors du salon GDC. Intel espère sortir le Bleep plus tard cette année et ajoute que la technologie repose sur ses dispositifs de détection vocale AI accélérée, indiquant que le logiciel peut s’appuyer sur du matériel Intel pour fonctionner.

READ  Une série limitée taquine une version physique finale pour la Nintendo 3DS

LEAVE A REPLY

Please enter your comment!
Please enter your name here