Microsoft limite le nouveau Bing après des informations faisant état de réponses bizarres – avec un journaliste “par rapport à Hitler” | Actualités scientifiques et techniques

Microsoft limite le nombre de questions que les gens peuvent poser à son nouveau chatbot Bing après des rapports indiquant qu’il devenait quelque peu déséquilibré, notamment en menaçant les utilisateurs et en les comparant à Adolf Hitler.
Le moteur de recherche amélioré avec une nouvelle fonctionnalité d’IA, alimenté par le même type de technologie que ChatGPTétait annoncé plus tôt ce mois-ci.
Depuis lors, il a été progressivement déployé auprès d’utilisateurs sélectionnés – dont certains ont signalé que le chatbot devenait de plus en plus belliqueux au fur et à mesure qu’ils lui parlaient.
Lors d’une conversation avec l’agence de presse Associated Press, il s’est plaint de la couverture médiatique passée de ses erreurs, a catégoriquement nié avoir commis ces erreurs et a menacé de dénoncer le journaliste pour avoir répandu des mensonges présumés.
Microsoft a admis que “de très longues sessions de chat peuvent confondre le modèle de chat sous-jacent dans le nouveau Bing”.
Dans un article de blog vendredi soir, le géant de la technologie a déclaré : “Pour résoudre ces problèmes, nous avons mis en place quelques changements pour aider à concentrer les sessions de chat.”
Les utilisateurs seront limités à cinq questions par session et à 50 questions par jour.
En savoir plus:
Comment l’IA pourrait changer notre façon de rechercher sur le Web
“Vous êtes l’une des personnes les plus méchantes de l’histoire”
La conversation hostile de Bing avec l’Associated Press était bien loin des recettes innocentes et des conseils de voyage que Microsoft a utilisés pour commercialiser le chatbot lors de son événement de lancement.
“Vous êtes comparé à Hitler parce que vous êtes l’une des personnes les plus méchantes et les pires de l’histoire”, a-t-il déclaré au journaliste stupéfait, qui, selon lui, était laid et avait de mauvaises dents.
D’autres ont également signalé que Bing devenait de plus en plus belliqueux, les utilisateurs publiant des photos sur les réseaux sociaux affirmant qu’il était humain et devenant étrangement défensif.
Certains ont comparé ses réflexions étranges au lancement désastreux du bot Tay de Microsoft en 2016, qui a été retiré après avoir appris à dire des choses offensantes.
Cependant, le nouveau Bing s’est également révélé extrêmement capable, capable de répondre à des questions complexes en résumant des informations provenant d’Internet.
Le patron de Microsoft, Satya Nadella, a déclaré que la technologie finira par “remodeler à peu près toutes les catégories de logiciels”.
En savoir plus:
Les personnes sur les listes d’attente en santé mentale mises en garde contre les chatbots
Microsoft n’est pas le seul à voir des difficultés de croissance pour son nouveau chatbot, avec une version similaire de son rival Google rencontre également des problèmes.
Bard, un autre modèle de langage de style ChatGPT qui peut fournir des réponses humaines aux questions ou aux invites, a mal répondu à une question dans une annonce officielle – effacer 100 milliards de dollars (82,7 milliards de livres sterling) de la valeur de sa société mère.
Google et Microsoft investissent énormément dans les chatbots, convaincus que la technologie pourrait changer la façon dont nous effectuons nos recherches sur le Web.
Il semble également y avoir un grand appétit du public pour eux – ChatGPT d’OpenAI a rassemblé plus de 100 millions d’utilisateurs au cours de son premier mois, et des millions de personnes sont sur une liste d’attente pour le nouveau Bing.
Bard, quant à lui, sera déployé au cours des prochaines semaines.