Топ три проблема с поверителността в AI - показване на подкани, липса на поверителност в персонализирани AI модели, използване на лични данни за обучение на AI системи.

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Научете трите най-важни въпроса за защита на данните в областта на изкуствения интелект (AI) в тази статия. Научете как се използват лични данни при използване на AI системи и рисковете за поверителността, които това крие. Прочетете също как компании и платформи като ChatGPT се справят с нарушенията на данните и как децентрализираните инфраструктурни мрежи могат да позволят контрол върху личните данни. Статията е написана от Крис Уър, главен изпълнителен директор на Verida, децентрализирана мрежа за данни и идентичност.

Топ три проблема с поверителността в AI - показване на подкани, липса на поверителност в персонализирани AI модели, използване на лични данни за обучение на AI системи.

AI (Изкуствен интелект) генерира неистово вълнение както сред потребителите, така и сред бизнеса - водени от вярата, че LLM (модели с големи езици) и инструменти като ChatGPT ще трансформират начина, по който учим, работим и живеем. Съществуват обаче опасения за поверителността, тъй като много потребители не обмислят как се използва тяхната лична информация и какво въздействие може да има това върху тяхната поверителност.

Има безброй примери за нарушения на данните за AI. През март 2023 г. OpenAI временно извади ChatGPT офлайн, след като „значителен“ бъг доведе до това потребителите да могат да виждат историята на разговорите на непознати. Същата грешка доведе до това, че информацията за плащане на абонатите, включително имена, имейл адреси и частични номера на кредитни карти, стана публично достъпна.

През септември 2023 г. 38 терабайта данни на Microsoft бяха публикувани случайно от служител, което накара експертите по киберсигурност да предупредят, че нападателите могат да инжектират злонамерен код в AI модели. Изследователите също са успели да манипулират AI системи, за да разкрият поверителни записи. Тези нарушения на данните подчертават предизвикателствата, които AI трябва да преодолее, за да се превърне в надеждна и надеждна сила в живота ни.

Друг проблем е липсата на прозрачност в AI системите. Gemini, чатботът на Google, открито признава, че всички разговори се преглеждат от рецензенти. Съществува опасение, че информацията, въведена в системите за изкуствен интелект, може да бъде преназначена и разпространена до по-широка аудитория. Компании като OpenAI вече са изправени пред няколко съдебни дела, в които се твърди, че техните чатботове са били обучени на материали, защитени с авторски права.

Друг проблем с поверителността е, че персонализираните AI модели, обучени от организации, не са напълно лични, когато съществуват в платформи като ChatGPT. Няма начин да разберем дали входните данни се използват за обучение на тези масивни системи или дали личната информация може да се използва в бъдещи модели.

Друго безпокойство е, че личните данни се използват за обучение на AI системи. Съществува опасение, че AI системите са извлекли своя интелект от безброй уебсайтове. За някои от тези източници може да се твърди, че собствениците на тази информация са имали разумни очаквания за поверителност.

Важно е да се отбележи, че AI вече оказва силно влияние върху ежедневието ни. Много инструменти и приложения, които използваме всеки ден, вече са силно повлияни от AI и реагират на нашето поведение. Това създава както възможности, така и рискове в областта на защитата на данните.

За защита на поверителността в AI, децентрализацията може да играе важна роля. Децентрализираните мрежи за физическа инфраструктура (DePIN) могат да гарантират, че потребителите могат напълно да се възползват от предимствата на AI, без да компрометират поверителността си. Шифрованите входове могат да осигурят повече персонални резултати, докато LLM за поверителност могат да гарантират, че потребителите имат пълен контрол върху своите данни по всяко време и са защитени от злоупотреба.

Съществува обаче риск регулаторите да не могат да се справят с главоломната скорост на AI индустрията. Следователно потребителите трябва да защитават собствените си данни и да наблюдават как се използват. Трябва да се извлекат поуки и от скандалите за защита на данните през последните години.

Като цяло AI ще има незаличимо въздействие върху живота на всички ни през следващите години. От решаващо значение обаче е да се обърне внимание на проблемите с поверителността, за да се запази доверието в технологията, като същевременно се възползват напълно от нейните предимства.