Trys pagrindinės dirbtinio intelekto privatumo problemos – raginimų parodymas, privatumo trūkumas tinkintuose AI modeliuose, privačių duomenų naudojimas mokant dirbtinio intelekto sistemas.
Šiame straipsnyje sužinokite tris svarbiausias duomenų apsaugos problemas dirbtinio intelekto (DI) srityje. Sužinokite, kaip naudojant dirbtinio intelekto sistemas naudojami asmeniniai duomenys, ir apie tai keliamą pavojų privatumui. Taip pat skaitykite, kaip įmonės ir platformos, tokios kaip „ChatGPT“, sprendžia duomenų pažeidimus ir kaip decentralizuoti infrastruktūros tinklai gali įgalinti asmens duomenų kontrolę. Straipsnį parašė Chrisas Were'as, „Verida“, decentralizuoto duomenų ir tapatybės tinklo, generalinis direktorius.
Trys pagrindinės dirbtinio intelekto privatumo problemos – raginimų parodymas, privatumo trūkumas tinkintuose AI modeliuose, privačių duomenų naudojimas mokant dirbtinio intelekto sistemas.
AI (dirbtinis intelektas) sukėlė beprotišką jaudulį tiek tarp vartotojų, tiek tarp įmonių – tai paskatino tikėjimas, kad LLM (didelių kalbų modeliai) ir įrankiai, tokie kaip ChatGPT, pakeis mūsų mokymosi, darbo ir gyvenimo būdą. Tačiau kyla susirūpinimas dėl privatumo, nes daugelis vartotojų neatsižvelgia į tai, kaip naudojama jų asmeninė informacija ir kokią įtaką tai gali turėti jų privatumui.
Buvo daugybė AI duomenų pažeidimų pavyzdžių. 2023 m. kovo mėn. „OpenAI“ laikinai pašalino „ChatGPT“ neprisijungus, nes dėl „reikšmingos“ klaidos vartotojai galėjo matyti nepažįstamų žmonių pokalbių istorijas. Dėl tos pačios klaidos abonento mokėjimo informacija, įskaitant vardus, el. pašto adresus ir dalinius kredito kortelių numerius, tapo viešai prieinama.
2023 m. rugsėjį darbuotojas netyčia paskelbė 38 terabaitus „Microsoft“ duomenų, todėl kibernetinio saugumo ekspertai perspėjo, kad užpuolikai gali įterpti kenkėjišką kodą į AI modelius. Tyrėjai taip pat sugebėjo manipuliuoti AI sistemomis, kad atskleistų konfidencialius įrašus. Šie duomenų pažeidimai išryškina iššūkius, kuriuos AI turi įveikti, kad taptų patikima ir patikima jėga mūsų gyvenime.
Kita problema yra AI sistemų skaidrumo trūkumas. Gemini, „Google“ pokalbių robotas, atvirai pripažįsta, kad visus pokalbius peržiūri recenzentai. Kyla susirūpinimas, kad į AI sistemas tiekiama informacija gali būti perskirta ir išplatinta platesnei auditorijai. Tokios įmonės kaip „OpenAI“ jau susiduria su keliais ieškiniais, teigiančiais, kad jų pokalbių robotai buvo apmokyti naudoti autorių teisių saugomą medžiagą.
Kita privatumo problema yra ta, kad pritaikyti AI modeliai, kuriuos rengia organizacijos, nėra visiškai privatūs, kai egzistuoja tokiose platformose kaip „ChatGPT“. Nėra jokio būdo žinoti, ar įvestis yra naudojamos mokant šias didžiules sistemas, ar asmeninė informacija gali būti naudojama būsimuose modeliuose.
Kitas rūpestis yra tai, kad privatūs duomenys naudojami mokant dirbtinio intelekto sistemas. Baiminamasi, kad dirbtinio intelekto sistemos gavo savo intelektą iš daugybės svetainių. Kai kurių iš šių šaltinių atveju galima teigti, kad šios informacijos savininkai pagrįstai tikėjosi privatumo.
Svarbu pažymėti, kad AI jau daro didelę įtaką mūsų kasdieniam gyvenimui. Daugelis įrankių ir programų, kuriuos naudojame kiekvieną dieną, jau yra stipriai paveikti dirbtinio intelekto ir reaguoja į mūsų elgesį. Tai suteikia ir galimybių, ir pavojų duomenų apsaugos srityje.
Siekiant apsaugoti AI privatumą, decentralizacija galėtų atlikti svarbų vaidmenį. Decentralizuoti fizinės infrastruktūros tinklai (DePIN) gali užtikrinti, kad vartotojai galėtų visapusiškai pasinaudoti AI privalumais nepakenkdami savo privatumui. Šifruota įvestis gali suteikti daugiau asmeninių rezultatų, o privatumo LLM gali užtikrinti, kad vartotojai visą laiką galėtų visiškai kontroliuoti savo duomenis ir būtų apsaugoti nuo netinkamo naudojimo.
Tačiau yra rizika, kad reguliavimo institucijos nesugebės neatsilikti nuo didžiulio AI pramonės greičio. Todėl vartotojai turi apsaugoti savo duomenis ir stebėti, kaip jie naudojami. Taip pat reikia pasimokyti iš pastarųjų metų duomenų apsaugos skandalų.
Apskritai ateinančiais metais dirbtinis intelektas turės neišdildomą įtaką mūsų visų gyvenimui. Tačiau labai svarbu, kad būtų sprendžiamos privatumo problemos, siekiant išlaikyti pasitikėjimą technologija ir visapusiškai pasinaudoti jos teikiamais privalumais.