ne-pisite-nista-ai-chatbot-u-ako-zelite-da-to-ostane-tajna

Dok se tehnološki sektor utrkuje u razvoju i primeni novih moćnih AI chatbot-a, njihovo široko usvajanje je izazvalo novi skup zabrinutosti za privatnost podataka među nekim kompanijama, regulatorima i posmatračima industrije.

Neke kompanije, uključujući JPMorgan Chase (JPM), suzbile su korišćenje ChatGPT-a od strane zaposlenih, najpoznatijeg AI chatbot-a koji je prvi pokrenuo BigTech-ovu trku u naoružanju AI, zbog zabrinutosti za usklađenost u vezi sa korišćenjem softvera treće strane od strane zaposlenih.

To je samo povećalo zabrinutost za privatnost kada je OpenAI, kompanija koja stoji iza ChatGPT-a, otkrila da mora privremeno da stavi alat van mreže 20. marta kako bi ispravila grešku koja je nekim korisnicima omogućila da vide teme iz istorije ćaskanja drugih korisnika.

Ista greška, sada ispravljena, takođe je omogućila „nekim korisnicima da vide ime i prezime drugog aktivnog korisnika, adresu e-pošte, adresu za plaćanje, poslednje četiri cifre (samo) broja kreditne kartice i datum isteka kreditne kartice, “, izjavili su iz OpenAI-a u postu na blogu.

I samo prošle nedelje, regulatori u Italiji izdali su privremenu zabranu ChatGPT-a u zemlji, navodeći zabrinutost za privatnost nakon što je OpenAI otkrio kršenje.

Pročitajte još:

„Razmatranja privatnosti sa nečim poput ChatGPT-a ne mogu se preceniti“, rekao je Mark MekKreri, kopredsedavajući prakse privatnosti i sigurnosti podataka u advokatskoj firmi Fox Rothschild LLP.

To je kao crna kutija.

Sa ChatGPT-om, koji je predstavljen javnosti krajem novembra, korisnici mogu da generišu eseje, priče i tekstove pesama jednostavnim kucanjem pitanja.

Google i Microsoft su od tada predstavili i AI alate, koji rade na isti način i pokreću ih veliki jezički modeli koji su obučeni na ogromnim količinama onlajn podataka.

Kada korisnici unose informacije u ove alate, MekKreri je rekao: „Ne znate kako će se to onda koristiti. To izaziva posebno veliku zabrinutost za kompanije. Kako sve više i više zaposlenih nehajno usvaja ove alate kako bi im pomoglo sa radnim imejlovima ili beleškama sa sastanaka.

Stiv Mils, glavni službenik za etiku veštačke inteligencije u Boston Consulting Group, rekao je da je najveća briga za privatnost koju većina kompanija ima oko ovih alata „nenamerno otkrivanje osetljivih informacija“.

„Imate sve ove zaposlene koji rade stvari koje mogu izgledati veoma bezazleno, kao što je: ’Oh, mogu da iskoristim ovo da rezimiram beleške sa sastanka’“, rekao je Mils.

Ali lepljenjem beleški sa sastanka u prompt, odjednom, potencijalno, otkrivate čitavu gomilu osetljivih informacija.

Ako se podaci koje ljudi unose koriste za dalju obuku ovih AI chatbot alata, kao što su mnoge kompanije koje stoje iza alata izjavile, onda ste „izgubili kontrolu nad tim podacima, a neko drugi ih ima“, dodao je Mils.

OpenAI, kompanija koju podržava Microsoft iza ChatGPT-a, kaže u svojoj politici privatnosti da prikuplja sve vrste ličnih podataka od ljudi koji koriste njegove usluge.

Kaže da može da koristi ove informacije za poboljšanje ili analizu svojih usluga, za sprovođenje istraživanja, za komunikaciju sa korisnicima i za razvoj novih programa i usluga, između ostalog.

Politika privatnosti navodi da može da pruži lične podatke trećim licima bez daljeg obaveštenja korisnika, osim ako to ne zahteva zakon. Ako se politika privatnosti od više od 2.000 reči čini malo neprozirnom, to je verovatno zato što je ovo prilično postalo norma industrije u doba interneta.

OpenAI takođe ima poseban dokument o uslovima korišćenja, koji stavlja većinu tereta na korisnika da preduzme odgovarajuće mere kada ga koriste.

OpenAI je takođe objavio novi post na blogu u sredu u kojem je izneo svoj pristup bezbednosti veštačke inteligencije.

Ne koristimo podatke za prodaju naših usluga, oglašavanje ili pravljenje profila ljudi, koristimo podatke da bismo naše modele učinili korisnijim ljudima – navodi se u blogu.

ChatGPT, na primer, poboljšava se daljom obukom u razgovoru sa ljudima.

Google-ova politika privatnosti, koja uključuje njegov alat Bard, je isto tako dugotrajna i ima dodatne uslove usluge za svoje generativne AI korisnike.

Kompanija navodi da da bismo pomogli u poboljšanju Bard-a i istovremeno zaštitili privatnost korisnika, „mi biramo podskup razgovora i koristimo automatizovane alate za uklanjanje informacija koje mogu da identifikuju”.

„Ove primere razgovora mogu da pregledaju obučeni recenzenti i čuvaju ih do 3 godine, odvojeno od vašeg Google naloga“, navodi kompanija u odvojenim čestim pitanjima za Bard.

Kompanija takođe upozorava: „Ne uključujte informacije koje se mogu koristiti za identifikaciju vas ili drugih u vašim Bard razgovorima.“

Često postavljana pitanja takođe navode da se Bard razgovori ne koriste u reklamne svrhe i „jasno ćemo saopštiti sve promene ovog pristupa u budućnosti“.

Google je takođe rekao da korisnici mogu „lako da izaberu da koriste Bard bez čuvanja svojih razgovora na svom Google nalogu“.

Korisnici Bard-a takođe mogu pregledati svoju istoriju ili izbrišite Bard razgovore.

„Takođe imamo postavljene zaštitne ograde dizajnirane da spreče Bard da uključi lične podatke u svoje odgovore“, rekao je Google.

Pratite Portal Dnevni Puls na TelegramuFejsbuku, Tviteru, Gab-u i Viberu!

Dnevni Puls/Mediji