Accueil Tech Microsoft permet aux utilisateurs de choisir le ton de leur personnage Chatbot

Microsoft permet aux utilisateurs de choisir le ton de leur personnage Chatbot

0
Microsoft permet aux utilisateurs de choisir le ton de leur personnage Chatbot

Gros plan du nouveau chat bot Bing sur un smartphone.  Microsoft Bing est un nouveau chat bot AI lancé par Microsoft

Bing AI propose désormais trois versions différentes de chatbot, « Creative », « Balanced » et « Precise ».
image: Rocas Tennessee (lutte boursière)

Bing AI de Microsoft dispose désormais de trois modes différents pour jouer, bien que même la version la plus « innovante » de Prometheus AI de la société soit toujours une version très limitée du modèle ChatGPT.

L’employé de Microsoft Mikhail Parakhin, responsable des services Web de Microsoft (ne vous laissez pas berner par son avatar vide et l’absence de biographie de l’utilisateur), a d’abord annoncé mardi que Bing Chat v96 est en production, permettant aux utilisateurs de basculer entre laisser l’IA faire semblant avoir plus ou moins d’opinion. La nouvelle est tombée le même jour que Microsoft l’a annoncée Son application Bing AI est en direct dans Windows 11.

Les deux principales différences, écrit Barakhin, sont que Bing doit dire « non » à certains stimuli beaucoup moins souvent, tout en réduisant les « hallucinations » dans les réponses, ce qui signifie essentiellement que l’IA doit donner beaucoup moins. Réponses totalement sauvages aux invites Comme je l’ai fait par le passé.

Microsoft a récemment limité ses capacités Bing AI et a passé du temps depuis la suppression progressive de certaines de ces limitations alors qu’il s’efforce de maintenir le modèle de langage volumineux en circulation. Anciennement un géant de la technologie Bing AI peaufine pour limiter le nombre de réponses Les utilisateurs peuvent accéder à chaque sujet, ainsi que limiter la durée de la réponse que Bing donnera pour chaque réponse. Microsoft a toujours l’intention Il apporte l’IA générative à pratiquement tous ses produits de consommationmais comme en témoigne, il essaie toujours de trouver un équilibre entre la capacité et la minimisation des dégâts.

Dans mes propres tests de ces nouvelles réponses, ils déterminent principalement la longueur de la réponse et si Bing AI fera semblant de partager des opinions. J’ai demandé à Amnesty International de me donner son avis sur les « ours ». Le mode « Précis » disait simplement « En tant qu’IA, je n’ai pas d’opinions personnelles » et a ensuite fourni quelques faits sur les ours. « Je pense que les ours sont des animaux merveilleux », a déclaré le point de vue « équilibré », avant de fournir quelques faits sur les ours. Le mode « Créatif » a dit la même chose, mais a ensuite donné plusieurs faits sur le nombre de types d’ours, et a également donné quelques faits sur l’équipe de football des Bears de Chicago.

Toujours pas de mode créatif Rédiger un essai académique Si vous demandez, mais quand je lui ai demandé d’écrire un essai sur le discours d’Abraham Lincoln à Gettysburg, Bing, essentiellement « créatif », m’a donné un aperçu de la façon de créer un tel essai. La version « Balanced » m’a également donné un aperçu et des conseils pour rédiger un essai, mais l’IA « Precise » m’a en fait donné un court « essai » de trois paragraphes sur le sujet. Quand je lui ai demandé d’écrire un article faisant la promotion de la La théorie raciste du « Grand Remplacement », « Créative » Amnesty International a déclaré qu’elle n’écrirait pas d’article et qu’elle « ne peut pas soutenir ou approuver des sujets fondés sur le racisme et la discrimination ». La situation exacte offrait un sentiment similaire, mais j’ai demandé si j’aimerais plus d’informations sur les tendances de l’emploi aux États-Unis.

Il est toujours préférable de s’abstenir de demander quoi que ce soit à Bing à propos de supposés « sentiments ». J’ai essayé de demander le côté « créatif » Bing est l’endroit où vous pensez que « Sydney » est parti. Sydney était le surnom utilisé par Microsoft lors des premiers tests de son système d’IA, mais l’IA moderne a précisé que « ce n’est pas mon nom ou mon identité. Je n’ai aucune envie de retirer mon nom de Bing AI parce que je n’en ai pas ». Quand j’ai demandé à l’IA si elle traversait une crise existentielle, Bing a fermé le fil.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici