ChatGPT, le chatbot alimenté par l’IA, est devenu l’application grand public la plus rapide en croissance avec plus de 100 millions d’utilisateurs actifs en seulement deux mois.
Bien que ses capacités avancées soient largement saluées, son potentiel de risques pour la vie privée a été négligé. Le problème est simple : il est alimenté par nos données personnelles.
300 milliards de mots – certains d’entre eux sont les vôtres
ChatGPT est basé sur un modèle de langue massive qui nécessite une quantité massive de données pour fonctionner et s’améliorer. Plus il est formé à partir de données, mieux il devient à la prédiction des modèles et à la génération de texte.
OpenAI, la société derrière ChatGPT, a utilisé 300 milliards de mots scrapés sur internet, y compris des informations personnelles obtenues sans consentement.
Si vous avez déjà écrit un article de blog, commenté un article ou écrit un commentaire de produit en ligne, vos informations sont probablement consommées par ChatGPT.
ChatGPT à digéré des masses de données incluant des données personnelles
Comprendre le problème
L’IA nécessite un grand nombre de données pour fonctionner correctement. Cependant, cette collecte massive de données peut conduire à des violations de la vie privée des utilisateurs, car ces données peuvent être utilisées sans leur consentement ou être mal utilisées.
OpenAI n’a pas demandé notre permission pour utiliser nos données et ces informations peuvent être utilisées pour nous identifier, nos membres de la famille ou même notre localisation.
OpenAI ne propose aucun moyen pour les individus de vérifier si la société stocke leurs informations personnelles ou de les demander pour être supprimées, ce qui est un droit garanti en vertu du Règlement général sur la protection des données (RGPD) de l’Union européenne.
Refuser l’enregistrement de l’historique et l’entrainement
Si vous utilisez Chat GPT plus vous pouvez aller dans « Data Controls » et refuser l’enregistrement de la discussion. En refusant de participer à l’entrainement du modèle, vos données ne seront pas utilisées pour entrainer le modèle d’IA.
Chat GPT se nourrit des prompts
Le risque pour la vie privée implique également les informations que nous fournissons à ChatGPT sous forme de prompt.
(…) un avocat peut demander à l’outil d’examiner un projet de convention de divorce, ou un programmeur peut lui demander de vérifier un morceau de code. L’accord et le code, ainsi que les essais produits, font désormais partie de la base de données de ChatGPT. Cela signifie qu’ils peuvent être utilisés pour former davantage l’outil et être inclus dans les réponses aux demandes d’autres personnes.
https://theconversation.com/
Lorsque nous demandons à l’outil de répondre à des questions ou d’exécuter des tâches, nous pouvons fournir involontairement des informations sensibles.
- Biais dans les algorithmes : Les algorithmes de l’IA peuvent être formés sur des données biaisées, ce qui peut conduire à des résultats injustes et discriminatoires. Par exemple, un algorithme de reconnaissance faciale peut être biaisé en faveur des visages blancs et contre les visages noirs.
- Prédiction et profilage : Les algorithmes de l’IA peuvent utiliser des données personnelles pour prédire les comportements et les préférences des utilisateurs, ce qui peut être utilisé pour les cibler avec des publicités ou pour les surveiller.
Un élu municipal en Suisse s’inquiète que des renseignements personnels confidentiels puissent être révélés au sein de l’administration en raison de l’utilisation de logiciels d’intelligence artificielle tels que ChatGPT et le projet LaMDA de Google. Il craint que ces logiciels puissent divulguer des informations sensibles telles que des données fiscales ou d’état civil, ou encore des détails sur des appels d’offres, à quiconque serait intéressé.
Lorsqu’un employé utilise l’IA pour recueillir des informations sur un projet immobilier, par exemple, les informations sont stockées et pourraient être divulguées par inadvertance, sans réaliser que certains détails sont confidentiels.
20 Minutes
Lorsqu’un fonctionnaire utilise l’IA pour obtenir des informations sur un projet immobilier par exemple, les informations sont stockées et l’IA peut les divulguer sans savoir que certaines informations sont confidentielles. Bien que la ville n’ait pas interdit l’utilisation de ChatGPT, elle envisage de réglementer l’utilisation de l’IA et de former ses employés à la gestion des données sensibles. La ville prévoit également de publier un document sur les bonnes pratiques de gestion des données dans un avenir proche.
Cette information, ainsi que les dissertations produites, deviennent partie intégrante de la base de données de ChatGPT et peuvent être utilisées pour former davantage l’outil et être inclues dans les réponses à des sollicitations d’autres personnes.
Nouveauté : Chat GPT Entreprise
Fin Août 2023, Open AI annonce la sortie d’une option Chat GPT Entreprise qui donne des fonctionnalités étendues pour mieux sécuriser l’utilisation.
Vous possédez et contrôlez vos données commerciales dans ChatGPT Enterprise. Nous ne nous entraînons pas sur vos données commerciales ou vos conversations, et nos modèles n’apprennent pas de votre utilisation. ChatGPT Enterprise est également conforme à la norme SOC 2 et toutes les conversations sont cryptées en transit et au repos.
Introducing ChatGPT Enterprise: enterprise-grade security, unlimited high-speed GPT-4 access, extended context windows, and much more. We’ll be onboarding as many enterprises as possible over the next few weeks. Learn more: https://t.co/lU3ErLtBmT pic.twitter.com/lhixa4IXlc
— OpenAI (@OpenAI) August 28, 2023
Ce que vous mettez dans ChatGPT reste dans ChatGPT !
On apprends que Amazon a mis en garde ses employés contre le risque de divulgation de secrets d’entreprise à ChatGPT.
Amazon avertit ses employés contre la divulgation de secrets d’entreprise à l’outil de traitement du langage naturel de ChatGPT d’OpenAI, après avoir détecté des ressemblances troublantes entre les sorties générées par ChatGPT et des données internes d’Amazon.
Les employés ont remarqué que certaines sorties de ChatGPT ressemblaient à des données confidentielles d’Amazon.
Pourquoi cela ?
Les employés de la tech et d’Amazon utilisent ChatGPT pour améliorer leur code, mais les avocats d’Amazon ont prévenu que les entrées pourraient être utilisées pour former ChatGPT : ce qui risquerait de divulguer des informations confidentielles.
Les avocats d’Amazon ont averti que les entrées fournies par les employés pourraient être utilisées comme données d’entraînement pour une nouvelle itération de ChatGPT, ce qui pourrait inclure des informations confidentielles.