Le chatbot Bard de Google peut maintenant vérifier ses réponses

Le chatbot Bard de Google peut maintenant vérifier ses réponses

Google a annoncé que son chatbot Bard aidera à l’avenir les utilisateurs à reconnaître les fausses déclarations dans les réponses du système d’IA,⁣ qui sont actuellement encore peu fiables. Les réponses⁣ de Bard, tout ​comme celles du chatbot​ ChatGPT, sont souvent ⁢rédigées dans un anglais impeccable et semblent être autoritaires. ‌Cependant, ces deux‍ systèmes ont ⁢été connus pour ‌générer des déclarations ⁤qui⁣ semblent factuelles⁤ mais ​qui sont‌ totalement fausses.

Pour remédier à ce problème, Bard propose⁢ désormais un bouton “vérification double” avec le ‌logo coloré de Google,‌ a annoncé le responsable de Google, Jack Krawczyk, à​ Mountain View⁤ mardi.‌ Les parties de la réponse dont Bard est très sûr seront alors mises ‌en évidence en vert. Les passages ⁢où Bard a découvert des sources‍ en ligne pouvant réfuter cette déclaration ou ⁢où ​aucune source pertinente ‍n’a pu être ⁤trouvée seront colorés en⁣ orange.

“La recherche Google n’a pas trouvé de ⁤contenu​ pertinent”, peut alors vous avertir le chatbot. “Envisagez de faire des⁣ recherches supplémentaires⁣ pour évaluer la déclaration.” ⁣De temps en temps, ​Bard peut également vous fournir ⁤des liens vers ‌des sources qui⁢ contredisent directement les propres déclarations⁤ de l’IA.

Pour chaque phrase écrite, Google effectue une recherche pour ‌voir s’il existe du contenu confirmant ou réfutant une⁢ déclaration, a déclaré Krawczyk, affirmant⁣ que Bard est le premier modèle de⁣ langage IA à admettre volontairement quand il n’est pas⁣ sûr de quelque⁣ chose. Les vérifications sont disponibles dans le ​monde entier, mais initialement uniquement ‍en anglais.

Le service d’IA de Google a toujours‌ le problème ‌de fournir parfois des informations complètement fausses ou fabriquées. Ces erreurs, appelées “hallucinations”,⁣ sont liées au fonctionnement de l’IA. ​Au lieu de rechercher des ⁣faits auprès d’une source fiable, le⁤ service⁢ s’appuie sur un modèle ⁤de ⁢langage (LLM) pour estimer mot par mot comment une phrase devrait probablement ‌se poursuivre.

L’instabilité⁣ de Bard a été examinée depuis son lancement, et les ⁣actions de Google ont chuté après qu’un expert spatial ait signalé une erreur factuelle concernant le télescope James ⁢Webb ‌dans la démonstration du ​nouveau chatbot IA de ⁢Google.

Dans une autre innovation ⁤annoncée​ mardi, Google souhaite permettre ‍aux utilisateurs ⁤de connecter des fichiers ⁣et des informations de leur vie personnelle à l’IA de​ Bard. Cela signifie que vous pouvez laisser Bard traiter vos e-mails ‍et autres⁢ fichiers enregistrés dans‌ les services Google⁣ tels que Gmail et les serveurs⁢ cloud de Google.

En donnant un exemple, Krawczyk a déclaré que Bard pourrait maintenant être utile en aidant les⁢ parents à suivre ⁤les nombreux‍ e-mails qui leur sont envoyés ‍pour préparer la rentrée⁢ scolaire. Remplir des ​formulaires et trouver des informations clés telles ⁤que les heures ‍d’arrivée et de ramassage font partie des choses que Bard​ peut désormais gérer pour ‌les parents, s’ils ‍lui donnent accès à Gmail. Krawczyk affirme ⁣que ​cela⁢ pourrait transformer 20 minutes de travail en 20 secondes.

Cette fonction⁤ est également⁢ disponible dans le monde entier, mais encore une fois, uniquement en⁤ anglais⁤ au début. D’autres langues seront cependant prises en charge dès que possible.

Le ⁣fait de confier des ​e-mails privés à une IA est une⁣ pensée terrifiante pour certains, c’est pourquoi Google a souligné que la‍ liaison de Bard avec⁢ votre contenu personnel peut être‍ révoquée à tout moment.

Share this post :

Facebook
Twitter
LinkedIn
Pinterest

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Create a new perspective on life

Your Ads Here (365 x 270 area)
Latest News
Categories

    Subscribe our newsletter

    Purus ut praesent facilisi dictumst sollicitudin cubilia ridiculus.