Tři hlavní problémy ochrany soukromí v AI – vystavení výzev, nedostatek soukromí u vlastních modelů AI, použití soukromých dat k trénování systémů AI.
V tomto článku se dozvíte tři nejdůležitější problémy ochrany dat v oblasti umělé inteligence (AI). Přečtěte si, jak se při používání systémů umělé inteligence používají osobní údaje a jaká rizika pro soukromí to představuje. Přečtěte si také, jak společnosti a platformy jako ChatGPT řeší narušení dat a jak mohou decentralizované sítě infrastruktury umožnit kontrolu nad osobními údaji. Článek napsal Chris Were, generální ředitel společnosti Verida, decentralizované sítě dat a identit.
Tři hlavní problémy ochrany soukromí v AI – vystavení výzev, nedostatek soukromí u vlastních modelů AI, použití soukromých dat k trénování systémů AI.
AI (Umělá inteligence) vyvolala frenetické vzrušení mezi spotřebiteli i podniky – poháněno přesvědčením, že LLM (velké jazykové modely) a nástroje jako ChatGPT změní způsob, jakým studujeme, pracujeme a žijeme. Existují však obavy o ochranu soukromí, protože mnoho uživatelů nezvažuje, jak jsou jejich osobní údaje používány a jaký dopad to může mít na jejich soukromí.
Příkladů narušení dat AI bylo nespočet. V březnu 2023 OpenAI dočasně přepnula ChatGPT do režimu offline poté, co „významná“ chyba vedla k tomu, že uživatelé mohli vidět historii konverzací cizích lidí. Stejná chyba vedla k tomu, že byly veřejně dostupné platební údaje předplatitele, včetně jmen, e-mailových adres a částečných čísel kreditních karet.
V září 2023 zaměstnanec omylem zveřejnil 38 terabajtů dat společnosti Microsoft, což způsobilo, že odborníci na kybernetickou bezpečnost varovali, že útočníci mohou do modelů umělé inteligence vložit škodlivý kód. Výzkumníkům se také podařilo manipulovat se systémy AI, aby odhalili důvěrné záznamy. Tyto úniky dat zdůrazňují výzvy, které musí umělá inteligence překonat, aby se stala spolehlivou a důvěryhodnou silou v našich životech.
Dalším problémem je nedostatečná transparentnost systémů umělé inteligence. Gemini, chatbot společnosti Google, otevřeně přiznává, že všechny konverzace jsou kontrolovány lidskými recenzenty. Existuje obava, že informace vkládané do systémů umělé inteligence by mohly být přepracovány a distribuovány širšímu publiku. Společnosti jako OpenAI již čelí několika žalobám, které tvrdí, že jejich chatboti byli vyškoleni na materiálech chráněných autorským právem.
Dalším problémem ochrany soukromí je, že vlastní modely umělé inteligence vyškolené organizacemi nejsou zcela soukromé, pokud existují na platformách, jako je ChatGPT. Neexistuje způsob, jak zjistit, zda se vstupy používají k trénování těchto masivních systémů, nebo zda by osobní informace mohly být použity v budoucích modelech.
Dalším problémem je, že soukromá data se používají k výcviku systémů AI. Existuje obava, že systémy umělé inteligence odvodily svou inteligenci z bezpočtu webových stránek. U některých z těchto zdrojů by se dalo tvrdit, že vlastníci těchto informací přiměřeně očekávali soukromí.
Je důležité si uvědomit, že umělá inteligence již má silný dopad na náš každodenní život. Mnoho nástrojů a aplikací, které používáme každý den, je již silně ovlivněno umělou inteligencí a reagují na naše chování. To představuje příležitosti i rizika v oblasti ochrany dat.
Pro ochranu soukromí v AI by mohla hrát důležitou roli decentralizace. Decentralizované sítě fyzické infrastruktury (DePIN) mohou zajistit, že uživatelé mohou plně využívat výhod AI, aniž by ohrozili jejich soukromí. Šifrované vstupy mohou poskytovat osobnější výsledky, zatímco LLM na ochranu soukromí mohou uživatelům zajistit, aby měli vždy plnou kontrolu nad svými daty a byli chráněni před zneužitím.
Existuje však riziko, že regulační orgány nebudou schopny držet krok s krkolomnou rychlostí průmyslu AI. Spotřebitelé proto potřebují chránit svá vlastní data a sledovat, jak jsou využívána. Je třeba se také poučit ze skandálů v oblasti ochrany údajů z posledních let.
Celkově bude mít AI v nadcházejících letech nesmazatelný dopad na všechny naše životy. Je však zásadní, aby se otázky ochrany soukromí řešily, aby byla zachována důvěra v technologii a zároveň byly plně využity její výhody.