TechSpot praznuje 25. obletnico. TechSpot pomeni tehnično analizo in nasvet, ki mu lahko zaupate.
Vroči krompir: Pravica do pozabe (RTBF), znana tudi kot pravica do izbrisa v skladu z evropsko uredbo o varstvu podatkov, daje posameznikom pooblastilo, da od tehnoloških korporacij zahtevajo trajen izbris njihovih osebnih podatkov. Vendar ko gre za LLM in klepetalne robote z umetno inteligenco, tehnologija še ni zagotovila jasnih rešitev za uporabnike, ki želijo videti, da njihova digitalna osebnost izgine s sveta.
Nova študija, ki so jo izvedli raziskovalci iz poslovne enote Data61, ki je oddelek avstralske Nacionalne znanstvene agencije, specializirane za umetno inteligenco, robotiko in kibernetsko varnost, skuša oceniti posledice vse večje priljubljenosti velikih jezikovnih modelov (LLM) in klepetalnic, ki temeljijo na klepetalnicah. storitve pravice do pozabe (RTBF). Študija ugotavlja, da je tehnologija presegla meje, ki jih postavlja obstoječi pravni okvir.
Pravica do pozabe ni omejena na evropsko uredbo GDPR, saj se lahko na podobne zakone sklicujejo državljani Kanade (CCPA), Japonske (APPI) in drugih držav. Postopki RTBF so bili zasnovani predvsem z mislijo na internetne iskalnike, zaradi česar je podjetjem, kot so Google, Microsoft in druga tehnološka podjetja, razmeroma enostavno identificirati in izbrisati določene podatke iz svojih lastniških spletnih indeksov.
Ko pa gre za LLM, postanejo stvari bistveno bolj zapletene. Po mnenju avstralskih raziskovalcev algoritmi, ki temeljijo na strojnem učenju, niso tako enostavni kot iskalniki. Poleg tega postane določanje, kateri osebni podatki so bili uporabljeni za usposabljanje modelov umetne inteligence, in ugotavljanje pripisovanja takih podatkov določenim posameznikom izjemno zahtevno.
Po mnenju raziskovalcev lahko uporabniki pridobijo vpogled v svoje osebne podatke v okviru teh modelov LLM samo „z pregledom izvirnega nabora podatkov o usposabljanju ali morda s pozivom k modelu.” Vendar se lahko podjetja, ki stojijo za storitvami chatbota, odločijo, da ne bodo razkrila svojega nabora podatkov o usposabljanju, in sodelovanje s chatbotom ne zagotavlja, da bo besedilni izhod zagotovil natančne informacije, ki jih iščejo uporabniki, ki jih zanima postopek RTBF.
Poleg tega imajo klepetalni roboti možnost ustvarjanja izmišljenih odgovorov, imenovanih „halucinacije”, zaradi česar so interakcije na podlagi hitrega odziva nezanesljivo sredstvo za dostop do osnovnih podatkov znotraj klepetalnega robota. Raziskovalci poudarjajo, da LLM shranjujejo in obdelujejo informacije „na popolnoma drugačen način” v primerjavi s pristopom indeksiranja, ki ga uporabljajo iskalniki.
Te nastajajoče in vse bolj priljubljene storitve umetne inteligence predstavljajo nove izzive za pravico do pozabe (RTBF). Vendar je pomembno upoštevati, da LLM niso izvzeti iz spoštovanja pravic do zasebnosti. Za obravnavo tega raziskovalci predlagajo različne rešitve za odstranjevanje podatkov iz modelov usposabljanja AI, kot so med drugim tehnika SISA »odvajanje od učenja stroja«, odvajanje od učenja induktivnega grafa in približno brisanje podatkov.
Večja podjetja, ki trenutno delujejo v industriji LLM, prav tako poskušajo obravnavati vprašanje skladnosti RTBF. OpenAI, verjetno najvidnejši igralec v sodobnih generativnih storitvah umetne inteligence, uporabnikom ponuja obrazec, s katerim lahko zahtevajo odstranitev svojih osebnih podatkov iz izhodov ChatGPT. Vendar posebna obravnava teh zahtev ostaja nejasna.