Trzy najważniejsze problemy związane z prywatnością w sztucznej inteligencji – eksponowanie podpowiedzi, brak prywatności w niestandardowych modelach sztucznej inteligencji, wykorzystywanie prywatnych danych do szkolenia systemów sztucznej inteligencji.
Poznaj trzy najważniejsze zagadnienia ochrony danych w obszarze sztucznej inteligencji (AI) w tym artykule. Dowiedz się, w jaki sposób dane osobowe są wykorzystywane podczas korzystania z systemów sztucznej inteligencji i jakie stwarza to ryzyko dla prywatności. Przeczytaj także, jak firmy i platformy takie jak ChatGPT radzą sobie z naruszeniami danych i jak zdecentralizowane sieci infrastrukturalne mogą umożliwić kontrolę nad danymi osobowymi. Artykuł został napisany przez Chrisa Were, dyrektora generalnego Verida, zdecentralizowanej sieci danych i tożsamości.
Trzy najważniejsze problemy związane z prywatnością w sztucznej inteligencji – eksponowanie podpowiedzi, brak prywatności w niestandardowych modelach sztucznej inteligencji, wykorzystywanie prywatnych danych do szkolenia systemów sztucznej inteligencji.
AI (sztuczna inteligencja) wywołała gorączkowe podekscytowanie zarówno wśród konsumentów, jak i firm, napędzane przekonaniem, że LLM (modele wielkojęzykowe) i narzędzia takie jak ChatGPT zmienią sposób, w jaki uczymy się, pracujemy i żyjemy. Istnieją jednak obawy dotyczące prywatności, ponieważ wielu użytkowników nie zastanawia się, w jaki sposób wykorzystywane są ich dane osobowe i jaki wpływ może to mieć na ich prywatność.
Istnieją niezliczone przykłady naruszeń danych AI. W marcu 2023 r. OpenAI tymczasowo wyłączyło ChatGPT po tym, jak „znaczący” błąd spowodował, że użytkownicy mogli zobaczyć historię rozmów nieznajomych. Ten sam błąd spowodował, że informacje o płatnościach abonenta, w tym nazwiska, adresy e-mail i częściowe numery kart kredytowych, stały się publicznie dostępne.
We wrześniu 2023 r. pracownik przypadkowo opublikował 38 terabajtów danych firmy Microsoft, co spowodowało, że eksperci ds. cyberbezpieczeństwa ostrzegli, że osoby atakujące mogą wstrzyknąć złośliwy kod do modeli sztucznej inteligencji. Naukowcom udało się także manipulować systemami sztucznej inteligencji w celu ujawnienia poufnych zapisów. Te naruszenia danych uwydatniają wyzwania, jakie musi pokonać sztuczna inteligencja, aby stać się niezawodną i godną zaufania siłą w naszym życiu.
Kolejnym problemem jest brak przejrzystości w systemach AI. Gemini, chatbot Google, otwarcie przyznaje, że wszystkie rozmowy są sprawdzane przez weryfikatorów. Istnieją obawy, że informacje wprowadzane do systemów sztucznej inteligencji mogą zostać ponownie wykorzystane i rozpowszechnione wśród szerszego grona odbiorców. Firmy takie jak OpenAI stoją już w obliczu kilku procesów sądowych, w których zarzucają, że ich chatboty zostały przeszkolone w oparciu o materiały chronione prawem autorskim.
Innym problemem związanym z prywatnością jest to, że niestandardowe modele sztucznej inteligencji trenowane przez organizacje nie są całkowicie prywatne, jeśli istnieją na platformach takich jak ChatGPT. Nie ma sposobu, aby dowiedzieć się, czy dane wejściowe są wykorzystywane do szkolenia tych ogromnych systemów i czy w przyszłych modelach można będzie wykorzystać dane osobowe.
Innym problemem jest to, że prywatne dane są wykorzystywane do szkolenia systemów sztucznej inteligencji. Istnieje obawa, że systemy sztucznej inteligencji czerpały inteligencję z niezliczonych stron internetowych. W przypadku niektórych z tych źródeł można argumentować, że właściciele tych informacji mieli uzasadnione oczekiwania co do prywatności.
Należy zauważyć, że sztuczna inteligencja już teraz wywiera silny wpływ na nasze codzienne życie. Wiele narzędzi i aplikacji, z których korzystamy na co dzień, jest już pod silnym wpływem sztucznej inteligencji i reaguje na nasze zachowanie. Stwarza to zarówno szanse, jak i zagrożenia w obszarze ochrony danych.
Aby chronić prywatność w sztucznej inteligencji, decentralizacja może odegrać ważną rolę. Zdecentralizowane sieci infrastruktury fizycznej (DePIN) mogą zapewnić użytkownikom pełne wykorzystanie zalet sztucznej inteligencji bez narażania ich prywatności. Szyfrowane dane wejściowe mogą zapewnić bardziej spersonalizowane wyniki, podczas gdy LLM zapewniające prywatność mogą zapewnić użytkownikom pełną kontrolę nad swoimi danymi przez cały czas i ochronę przed niewłaściwym wykorzystaniem.
Istnieje jednak ryzyko, że organy regulacyjne nie będą w stanie nadążać za zawrotnym tempem rozwoju branży sztucznej inteligencji. Dlatego konsumenci muszą chronić swoje dane i monitorować sposób ich wykorzystania. Należy także wyciągnąć wnioski ze skandali związanych z ochroną danych, które miały miejsce w ostatnich latach.
Ogólnie rzecz biorąc, w nadchodzących latach sztuczna inteligencja będzie miała niezatarty wpływ na życie nas wszystkich. Jednakże niezwykle istotne jest zajęcie się kwestiami prywatności, aby utrzymać zaufanie do technologii i jednocześnie w pełni wykorzystać jej zalety.