La révolution de l’intelligence artificielle (IA) a vu naître une vague d’outils utilisés à des fins de créativité ou de productivité, y compris des robots conversationnels, des générateurs d’images et des recherches alimentées par l’IA. Ces technologies sont souvent soigneusement présentées, tout comme un cadeau dans un emballage impeccable. Il ne manque que le chou sur le dessus!
Le fait d’avoir tout en un seul endroit a poussé des millions de personnes à se tourner vers des plateformes comme ChatGPT et Gemini. Les gens ont commencé à utiliser ces plateformes pour les aider avec leurs finances, que ce soit pour demander des conseils en planification successorale, des suggestions pour établir un budget ou pour discuter d’idées de placements.
Par contre, ces outils ne sont pas sans inconvénient. Quand les gens utilisent l’IA, ils et elles agissent parfois comme s’il s’agissait d’une relation amicale ou amoureuse, divulguant leurs secrets les plus profonds et les plus sombres, y compris les détails de leur situation financière. Pourtant, supprimer ses renseignements personnels de ces plateformes est souvent difficile, voire impossible.
Oui, l’IA peut être intrigante et même utile, mais il est essentiel de faire preuve de prudence. Penchons-nous sur cette préoccupation et sur la manière de protéger vos renseignements personnels lorsque vous utilisez l’IA.
L’IA collecte-t-elle vos données?
Chaque système d’IA est différent, mais la plupart collectent diverses données vous concernant. ChatGPT, Gemini et les autres plateformes d’IA les plus populaires ont un appétit débordant pour les données. Elles utilisent de grands modèles de langage (LLM) pour répondre à ces questions qui nous tiennent à cœur. Cependant, les grands modèles de langage nécessitent d’énormes quantités de données pour créer de meilleurs modèles.
En raison de ce besoin de données, la plupart des outils d’IA stockent vos discussions par défaut et, dans de nombreux cas, votre localisation et d’autres renseignements. Les renseignements recueillis par l’IA peuvent comprendre :
- Vos requêtes et vos conversations
- Les données provenant de votre appareil, notamment les données de localisation et les numéros de téléphone
- Vos intérêts et préférences
John Licato, un professeur associé du Bellini College of Artificial Intelligence, Cybersecurity and Computing de la University of South Florida, affirme que la collecte de données par les IA est probable. « Si un produit d’IA est hébergé par un tiers (comme ChatGPT, qui est accessible via un navigateur Web), on peut supposer qu’il collecte des données. »
Certains outils d’IA vous permettent de désactiver le partage des données personnelles, mais cette option n’est pas toujours offerte. En cas de doute, il est préférable de limiter les renseignements que l’on partage.
Est-il sécuritaire de communiquer des renseignements personnels à ChatGPT ou à d’autres IA?
Partager trop de renseignements avec l’IA peut s’avérer problématique. Parfois, vous devrez faire part de détails précis avec l’IA pour obtenir une réponse satisfaisante à votre question. Cependant, il n’y a aucune garantie que vos renseignements personnels seront en sécurité sur ces plateformes.
« Demander à l’IA de choisir quels restaurants visiter pendant mes vacances en Thaïlande est une chose, mais jamais je ne lui donnerais mes renseignements de carte de crédit, mon nom ou mon adresse », souligne Joe Warnimont, analyste principal chez HostingAdvice. Selon M. Warnimont, cela est dû au fait que l’on ne sait pas comment l’entreprise à l’origine de l’outil utilise ces renseignements ou qui y a accès.
Un rapport du Stanford Human-Centered Artificial Intelligence (HAI) met en évidence une étude selon laquelle les données d’entraînement peuvent être récupérées à partir de ChatGPT et d’autres modèles. En d’autres termes, quelqu’un pourrait accéder à vos renseignements sans votre consentement ou votre connaissance. Bien que ces outils soient utiles, il n’est pas prudent de leur confier trop de renseignements personnels.
Les recherches faites avec Perplexity ou d’autres IA sont-elles privées?
Perplexity et d’autres outils de recherche par IA ne sont pas complètement confidentiels, comme c’est le cas pour la plupart des outils utilisant l’IA. Certains prétendent avoir à cœur le respect de vos données personnelles, mais un rapide coup d’œil à leur politique en matière de protection des renseignements personnels permet de voir qu’ils ont tous des points en commun.
La politique de protection des renseignements personnels de Perplexity indique qu’elle collecte vos données d’entrée et de sortie lors de l’utilisation du service. Ce contenu « peut constituer ou contenir des renseignements personnels ». Il peut être stocké, reproduit ou publié si vous le rendez accessible au public ou si vous le partagez avec des tiers.
L’utilisation de la recherche par IA soulève souvent les mêmes préoccupations que les autres outils utilisant l’IA. « Perplexity et d’autres moteurs de recherche basés sur l’IA utilisent de grands modèles de langage pour effectuer leur traitement de données complexes, tout comme d’autres systèmes populaires d’IA sous forme de clavardage, comme ChatGPT », explique M. Licato.
Quatre façons de se protéger lors de l’utilisation de l’IA
Les outils d’IA collectent souvent une pléthore de renseignements vous concernant par défaut. Voici les mesures à prendre pour utiliser ces outils en toute sécurité.
Consultez la politique de protection des renseignements personnels de la plateforme
Les politiques de protection des renseignements personnels de ces outils décrivent ce qu’ils stockent. Les politiques d’OpenAI et de Google contiennent une section indiquant qu’elles collectent les conversations et les fichiers que vous partagez, comme les photos, les captures d’écran ou les fichiers audio.
ChatGPT dit qu’elle collecte votre emplacement, notamment à l’aide des données du GPS de votre appareil. Google utilise un langage plus vague, disant que « les renseignements sur votre emplacement incluent la région générale où se trouve votre appareil ». Cependant, il est également indiqué que votre adresse IP ainsi que les adresses de votre domicile et de votre lieu de travail figurant dans votre compte Google sont collectées.
Les deux entreprises collectent de nombreux renseignements vous concernant. Avant d’utiliser un outil d’IA, vous devez comprendre quelles données les entreprises qui développent ces outils collectent et être à l’aise avec le stockage potentiel de ces données.
Évitez de communiquer des informations sensibles
Un principe fondamental lors de l’utilisation de l’IA est d’éviter de partager des informations sensibles lorsque cela est possible. Bien qu’il puisse parfois sembler utile ou nécessaire de partager des renseignements précis, il vaut mieux communiquer le moins de détails possible. Les précisions comme votre numéro de téléphone, votre date de naissance et votre adresse sont des renseignements que l’IA n’a pas besoin de connaître.
Vous pourriez parfois fournir à une IA des renseignements de base, comme votre profession ou comment vous vous sentez ce jour-là. Faire part de cela à l’IA ne représente pas un risque énorme pour la sécurité de vos renseignements personnels, mais n’oubliez pas qu’elle peut sauvegarder vos conversations et vos fichiers. Si vous ne voulez pas que le public sache quoi que ce soit à votre sujet, il est préférable de le garder pour vous.
Kee Jefferys, co-fondateur de Session, une application de messagerie axée sur la protection des renseignements personnels, recommande d’utiliser des noms génériques. « Si vous utilisez fréquemment des outils d’IA, envisagez d’anonymiser les informations sensibles dans vos requêtes, propose M. Jefferys. Pour ce faire, les données personnelles ou permettant de vous identifier peuvent être remplacées par des renseignements génériques ou de remplacement. »
Donc, si vous demandez à l’IA des conseils pour un problème au travail par exemple, M. Jefferys suggère d’utiliser des noms génériques comme « Entreprise X » ou « Fondateur X » au lieu de noms réels.
Ajustez vos paramètres
Les outils d’IA ont généralement des paramètres que vous pouvez ajuster, bien que certains vous donnent plus de contrôle que d’autres. Par exemple, Gemini limite ce que vous pouvez modifier. Vous pouvez choisir d’enregistrer ou non certains types d’information, comme vos préférences alimentaires ou la langue que vous souhaitez utiliser. Vous pouvez également contrôler la durée pendant laquelle vous souhaitez enregistrer les activités de Gemini dans Google Apps.
ChatGPT a plus d’options de personnalisation, y compris certaines liées à la protection des renseignements personnels. Vous pourriez par exemple choisir de ne pas permettre que l’IA utilise vos données pour l’entraînement de ses modèles. Vous pouvez également désactiver la fonction de mémoire, ce qui signifie qu’elle ne « se souviendra » pas des détails vous concernant lors de futures interactions. Pour plus de sécurité, vous pouvez activer l’authentification multifacteur (AMF) et fermer rapidement les sessions restées ouvertes sur tous les autres appareils que vous possédez.
Pratiquez de bonnes habitudes en matière de sécurité
De bonnes habitudes en matière de protection de vos renseignements personnels peuvent vous permettre de rester en sécurité en ligne ou lorsque vous utilisez l’IA. Par exemple, utilisez des mots de passe difficiles à décoder et l’AMF pour protéger vos comptes. Un gestionnaire de mots de passe peut vous aider à utiliser des mots de passe robustes et efficaces sans avoir à vous souvenir d’une longue suite de caractères complexe.
Rappelez-vous que les outils d’IA stockent parfois des renseignements à notre sujet, y compris des détails sensibles. Le fait de sécuriser votre compte permet d’éviter que des personnes non autorisées n’accèdent à vos renseignements.
Cet article a été écrit par Bob Haegele de la publication Kiplinger et sa diffusion a été autorisée par DiveMarketplace d’Industry Dive. Pour toute question sur les droits de reproduction, écrivez à legal@industrydive.com.