Les trois principaux problèmes de confidentialité dans l'IA : exposition des invites, manque de confidentialité dans les modèles d'IA personnalisés, utilisation de données privées pour entraîner les systèmes d'IA.
Découvrez les trois problèmes les plus importants en matière de protection des données dans le domaine de l'intelligence artificielle (IA) dans cet article. Découvrez comment les données personnelles sont utilisées lors de l'utilisation de systèmes d'IA et les risques que cela pose pour la vie privée. Découvrez également comment les entreprises et les plateformes comme ChatGPT gèrent les violations de données et comment les réseaux d'infrastructure décentralisés peuvent permettre le contrôle des données personnelles. L'article est rédigé par Chris Were, PDG de Verida, un réseau décentralisé de données et d'identité.
Les trois principaux problèmes de confidentialité dans l'IA : exposition des invites, manque de confidentialité dans les modèles d'IA personnalisés, utilisation de données privées pour entraîner les systèmes d'IA.
L'IA (Intelligence Artificielle) a suscité un enthousiasme frénétique parmi les consommateurs et les entreprises, motivés par la conviction que les LLM (Large Language Models) et des outils comme ChatGPT transformeront notre façon d'étudier, de travailler et de vivre. Cependant, des problèmes de confidentialité existent car de nombreux utilisateurs ne réfléchissent pas à la manière dont leurs informations personnelles sont utilisées et à l'impact que cela pourrait avoir sur leur vie privée.
Il existe d’innombrables exemples de violations de données liées à l’IA. En mars 2023, OpenAI a temporairement mis ChatGPT hors ligne après qu'un bug « important » ait permis aux utilisateurs de voir l'historique des conversations d'étrangers. La même erreur a rendu publiques les informations de paiement des abonnés, notamment les noms, adresses e-mail et numéros partiels de carte de crédit.
En septembre 2023, 38 téraoctets de données Microsoft ont été accidentellement publiés par un employé, ce qui a amené les experts en cybersécurité à avertir que des attaquants pourraient injecter du code malveillant dans les modèles d'IA. Les chercheurs ont également pu manipuler les systèmes d’IA pour révéler des enregistrements confidentiels. Ces violations de données mettent en évidence les défis que l’IA doit surmonter pour devenir une force fiable et digne de confiance dans nos vies.
Un autre problème est le manque de transparence des systèmes d’IA. Gemini, le chatbot de Google, admet ouvertement que toutes les conversations sont examinées par des évaluateurs humains. On craint que les informations introduites dans les systèmes d’IA puissent être réutilisées et distribuées à un public plus large. Des entreprises comme OpenAI font déjà face à plusieurs poursuites judiciaires alléguant que leurs chatbots ont été formés sur du matériel protégé par le droit d'auteur.
Un autre problème de confidentialité est que les modèles d’IA personnalisés formés par les organisations ne sont pas totalement privés lorsqu’ils existent au sein de plateformes comme ChatGPT. Il n’existe aucun moyen de savoir si les entrées sont utilisées pour former ces systèmes massifs ou si les informations personnelles pourraient être utilisées dans les futurs modèles.
Une autre préoccupation est que les données privées sont utilisées pour entraîner les systèmes d’IA. Il est à craindre que les systèmes d’IA tirent leur intelligence d’innombrables sites Web. Pour certaines de ces sources, on pourrait faire valoir que les propriétaires de ces informations avaient une attente raisonnable en matière de confidentialité.
Il est important de noter que l’IA a déjà un fort impact sur notre vie quotidienne. De nombreux outils et applications que nous utilisons quotidiennement sont déjà fortement influencés par l’IA et réagissent à notre comportement. Cela présente à la fois des opportunités et des risques dans le domaine de la protection des données.
Pour protéger la confidentialité dans l’IA, la décentralisation pourrait jouer un rôle important. Les réseaux d'infrastructure physique décentralisés (DePIN) peuvent garantir que les utilisateurs peuvent profiter pleinement des avantages de l'IA sans compromettre leur vie privée. Les entrées cryptées peuvent fournir des résultats plus personnels, tandis que les LLM de confidentialité pourraient garantir aux utilisateurs un contrôle total sur leurs données à tout moment et leur protection contre toute utilisation abusive.
Cependant, il existe un risque que les régulateurs ne soient pas en mesure de suivre le rythme effréné de l’industrie de l’IA. Les consommateurs doivent donc protéger leurs propres données et surveiller la manière dont elles sont utilisées. Il faut également tirer les leçons des scandales liés à la protection des données de ces dernières années.
Dans l’ensemble, l’IA aura un impact indélébile sur nos vies à tous dans les années à venir. Cependant, il est crucial que les questions de confidentialité soient résolues afin de maintenir la confiance dans la technologie tout en tirant pleinement parti de ses avantages.