-+ 0.00%
-+ 0.00%
-+ 0.00%

Un expert en IA de Google met en garde les utilisateurs contre les risques de cybersécurité et demande la protection des données sensibles contre les chatbots publics

Benzinga·12/14/2025 05:31:01
Diffusion vocale

Un professionnel de la sécurité de Google AI a partagé des conseils essentiels sur la manière dont les utilisateurs peuvent protéger leurs données personnelles et professionnelles lorsqu'ils utilisent des chatbots IA.

Traitez les chatbots basés sur l'IA comme une carte postale publique pour éviter les fuites de données

À propos de l'essor de l'IA dans la vie quotidienne, Harsh Varshney, qui a travaillé au sein des équipes de confidentialité de Google et de sécurité de Chrome AI, a déclaré : « Les modèles d'IA utilisent les données pour générer des réponses utiles », a rapporté Business Insider.

« Nous, les utilisateurs, devons protéger nos informations privées afin que les entités nuisibles, telles que les cybercriminels et les courtiers en données, ne puissent pas y accéder. »

Ils ont insisté sur le fait d'éviter le partage des numéros de sécurité sociale, des informations de carte de crédit, des adresses personnelles ou des dossiers médicaux avec des outils d'IA publics, qui peuvent stocker des données pour la formation future des modèles.

Utilisez l'IA d'entreprise et supprimez régulièrement l'historique

L'ingénieur a également souligné l'importance d'utiliser des outils d'IA de niveau entreprise pour les conversations professionnelles confidentielles.

« Une fois, j'ai été surprise qu'un chatbot Gemini d'entreprise ait pu me communiquer mon adresse exacte », ont-ils déclaré, expliquant comment les fonctionnalités de mémoire à long terme peuvent conserver les informations précédemment partagées.

Ils ont recommandé de supprimer régulièrement l'historique des discussions et d'utiliser les modes temporaires ou « navigation privée » pour minimiser les risques.

Enfin, ils ont conseillé de s'en tenir à des plateformes d'IA bien connues et de revoir les paramètres de confidentialité pour empêcher l'utilisation des conversations dans les modèles de formation, pour des raisons de commodité et de sécurité.

Voir aussi : Ronald Reagan « n'aimait pas les droits de douane », déclare l'économiste Paul Krugman : il a souligné à plusieurs reprises « les vertus du libre-échange »

Risques génératifs liés à la confidentialité liés à l'IA : quelles plateformes protègent vos données ?

Plus tôt cette année, une recrudescence des préoccupations en matière de confidentialité est apparue à mesure que l'IA générative et les grands modèles linguistiques sont devenus largement utilisés.

Un rapport d'Incogni a révélé que Le Chat de Mistral AI était classé parmi les plus sûrs, suivi de ChatGPT et Grok, grâce à des politiques de confidentialité claires et à des options de désinscription.

À l'inverse, Meta AI de Meta Platforms Inc. (NASDAQ : META), Gemini d'Alphabet Inc. (NASDAQ : GOOG) (NASDAQ : GOOGL) et Copilot de Microsoft Corp. (NASDAQ : MSFT) ont été les plus dynamiques en matière de collecte de données, manquant souvent de transparence.

Les applications mobiles ont reflété ces tendances, Le Chat, Pi AI et ChatGPT présentant les risques les plus faibles, tandis que Meta AI collectait des données sensibles telles que les e-mails et les localisations.

Les utilisateurs ont été invités à revoir les paramètres de confidentialité pour protéger leurs informations personnelles.

Lire la suite :

Avertissement : Ce contenu a été partiellement produit à l'aide d'outils d'IA et a été révisé et publié par les éditeurs de Benzinga.