Google a annoncé que son chatbot Bard aidera à l’avenir les utilisateurs à reconnaître les fausses déclarations dans les réponses du système d’IA, qui sont actuellement encore peu fiables. Les réponses de Bard, tout comme celles du chatbot ChatGPT, sont souvent rédigées dans un anglais impeccable et semblent être autoritaires. Cependant, ces deux systèmes ont été connus pour générer des déclarations qui semblent factuelles mais qui sont totalement fausses.
Pour remédier à ce problème, Bard propose désormais un bouton “vérification double” avec le logo coloré de Google, a annoncé le responsable de Google, Jack Krawczyk, à Mountain View mardi. Les parties de la réponse dont Bard est très sûr seront alors mises en évidence en vert. Les passages où Bard a découvert des sources en ligne pouvant réfuter cette déclaration ou où aucune source pertinente n’a pu être trouvée seront colorés en orange.
“La recherche Google n’a pas trouvé de contenu pertinent”, peut alors vous avertir le chatbot. “Envisagez de faire des recherches supplémentaires pour évaluer la déclaration.” De temps en temps, Bard peut également vous fournir des liens vers des sources qui contredisent directement les propres déclarations de l’IA.
Pour chaque phrase écrite, Google effectue une recherche pour voir s’il existe du contenu confirmant ou réfutant une déclaration, a déclaré Krawczyk, affirmant que Bard est le premier modèle de langage IA à admettre volontairement quand il n’est pas sûr de quelque chose. Les vérifications sont disponibles dans le monde entier, mais initialement uniquement en anglais.
Le service d’IA de Google a toujours le problème de fournir parfois des informations complètement fausses ou fabriquées. Ces erreurs, appelées “hallucinations”, sont liées au fonctionnement de l’IA. Au lieu de rechercher des faits auprès d’une source fiable, le service s’appuie sur un modèle de langage (LLM) pour estimer mot par mot comment une phrase devrait probablement se poursuivre.
L’instabilité de Bard a été examinée depuis son lancement, et les actions de Google ont chuté après qu’un expert spatial ait signalé une erreur factuelle concernant le télescope James Webb dans la démonstration du nouveau chatbot IA de Google.
Dans une autre innovation annoncée mardi, Google souhaite permettre aux utilisateurs de connecter des fichiers et des informations de leur vie personnelle à l’IA de Bard. Cela signifie que vous pouvez laisser Bard traiter vos e-mails et autres fichiers enregistrés dans les services Google tels que Gmail et les serveurs cloud de Google.
En donnant un exemple, Krawczyk a déclaré que Bard pourrait maintenant être utile en aidant les parents à suivre les nombreux e-mails qui leur sont envoyés pour préparer la rentrée scolaire. Remplir des formulaires et trouver des informations clés telles que les heures d’arrivée et de ramassage font partie des choses que Bard peut désormais gérer pour les parents, s’ils lui donnent accès à Gmail. Krawczyk affirme que cela pourrait transformer 20 minutes de travail en 20 secondes.
Cette fonction est également disponible dans le monde entier, mais encore une fois, uniquement en anglais au début. D’autres langues seront cependant prises en charge dès que possible.
Le fait de confier des e-mails privés à une IA est une pensée terrifiante pour certains, c’est pourquoi Google a souligné que la liaison de Bard avec votre contenu personnel peut être révoquée à tout moment.




