Sommaire
ChatGPT, Google Bard soucis de confidentialité
Les chatbots d’IA peuvent mettre en péril la confidentialité de vos données personnelles et exposer vos conversations. Un précédent exemple de ce problème a été mis en lumière avec ChatGPT, et aujourd’hui, c’est Google Bard qui est concerné. Les conversations avec Google Bard se sont retrouvées indexées sur Google, ce qui a permis à quiconque de les consulter.
Des conversations entre des utilisateurs et Google Bard ont été rendues publiques sur Google. Le moteur de recherche a indexé ces conversations pendant un certain temps, même si les utilisateurs n’avaient jamais autorisé leur indexation sur un moteur de recherche. Cette situation a suscité une nouvelle controverse concernant les chatbots d’IA et la vie privée.
Des Conversations avec Google Bard Exposées
C’est Gagan Ghotra, un consultant en SEO, qui a attiré l’attention sur ce problème le 26 septembre en publiant une capture d’écran montrant qu’il était possible de trouver toutes les conversations avec Google Bard partagées par les utilisateurs via une recherche sur Google. Pourtant, les utilisateurs n’avaient jamais donné leur autorisation pour que ces conversations soient indexées par un moteur de recherche.
En réalité, Bard propose une fonctionnalité permettant de créer un lien vers une conversation. Cette fonctionnalité est utile pour partager des expériences avec des proches ou des collègues. En théorie, en utilisant des mots-clés, il était possible de trouver des conversations sur des sujets spécifiques, et le contenu de ces conversations aurait pu aider à identifier ceux qui avaient généré les réponses de Bard.
Réponse de Google et Correction
En réponse à cette situation, le compte Google SearchLiaison, dédié au moteur de recherche, a répondu sur X que “Bard permet aux gens de partager des discussions s’ils le souhaitent. Nous n’avons pas non plus l’intention que ces discussions partagées soient indexées par la recherche Google. Nous travaillons actuellement à empêcher leur indexation.” Depuis, les recherches similaires ne renvoient plus à aucune page, ce qui signifie que le problème a été résolu.
Des Précédents Problèmes de Confidentialité avec les Chatbots
Ce n’est pas la première fois que les chatbots posent des problèmes de confidentialité. En avril dernier, Samsung avait découvert une fuite d’informations confidentielles due à ChatGPT. Qui avait été utilisé par des ingénieurs de l’entreprise. Des mesures avaient été prises pour prévenir de telles fuites potentielles. Précédemment, en août, une faille avait permis d’obtenir une réponse aléatoire de ChatGPT, issue de la conversation d’un autre utilisateur. La protection des données personnelles de ChatGPT avait été si problématique que l’Italie l’avait interdit sur son territoire pendant un mois, avant de le réautoriser.
Recommandations pour Protéger Votre Confidentialité
La recommandation que nous pouvons faire est de ne jamais partager d’informations personnelles avec les chatbots tels que Google Bard, ChatGPT, Bing Chat, et autres. D’abord, parce que les liens de partage des discussions, qu’ils soient sur ChatGPT ou sur Bard, sont publics. Cela signifie que n’importe qui peut consulter le contenu en utilisant simplement l’adresse URL.