da-li-su-tehno-titani-spremni-za-borbu-protiv-halucinacija-chatbot

Tehno titani su loše pripremljeni za borbu protiv „halucinacija“ koje generišu platforme veštačke inteligencije, upozorili su stručnjaci iz industrije u komentarima za Fox News, ali same korporacije kažu da preduzimaju korake da osiguraju tačnost unutar platformi.

AI chatbot-ovi, kao što su ChatGPT i Google’s Bard, ponekad mogu da izbace netačne dezinformacije ili besmisleni tekst, koje nazivaju „halucinacije“.

A da li su tehno titani spremni na ovu borbu?

„Kratak odgovor je ne, korporacije i institucije nisu spremne za promene koje dolaze ili izazove koji su pred nama“, rekao je stručnjak za veštačku inteligenciju Stiven Vu, predsednik Nacionalnog instituta za veštačku inteligenciju i robotiku Američkog udruženja advokata i akcionar pravne grupe Silicijumske doline.

Često su „halucinacije“ iskrene greške tehnologije koja, uprkos obećanjima, i dalje ima mane.

Tehno titani su trebalo da budu otvorene sa potrošačima o ovim nedostacima, rekao je jedan stručnjak.

„Mislim da ono što kompanije mogu da urade, i što su trebale da urade od samog početka… jeste da jasno stave ljudima do znanja da je to problem“, Irina Raiku, direktorka programa za internet etiku u Markula centru za primenjenu etiku na Univerzitetu Santa Klara u Kaliforniji.

Ovo nije trebalo da bude nešto što korisnici moraju sami da shvate. Trebalo bi da učine mnogo više da edukuju javnost o implikacijama ovoga.

Velikim jezičkim modelima, kao što je onaj koji stoji iza ChatGPT-a, potrebne su milijarde dolara i godine za obuku, rekao je izvršni direktor Amazona Endi Džesi za CNBC prošle nedelje.

U izgradnji Amazonovog sopstvenog temeljnog modela Titan, kompanija je bila „zaista zabrinuta“ za tačnost i proizvodnju visokokvalitetnih odgovora, rekao je Bratin Saha, potpredsednik AVS-a.

U međuvremenu, otkriveno je da druge velike generativne AI platforme, kao što su OpenAI ChatGPT i Google Bard, daju pogrešne odgovore na ono što se čini kao jednostavna činjenična pitanja.

U jednom objavljenom primeru od Bard-a, program je netačno tvrdio da je svemirski teleskop Džejms Veb „snimio prve slike planete van Sunčevog sistema“.

Što je zapravo laž.

Google je preduzeo korake da obezbedi tačnost svojih platformi, kao što je dodavanje jednostavnog načina za korisnike da „guglaju“ nakon umetanja upita u Bard chatbot.

Microsoft-ov Bing Chat, koji je zasnovan na istom velikom jezičkom modelu kao i ChatGPT, takođe se povezuje sa izvorima gde korisnici mogu pronaći više informacija o svojim upitima, kao i omogućava korisnicima da „sviđaju“ ili „ne sviđaju“ odgovore koje daje bot.

„Razvili smo bezbednosni sistem koji uključuje filtriranje sadržaja, operativni nadzor i otkrivanje zloupotrebe kako bismo obezbedili sigurno iskustvo pretraživanja za naše korisnike“, rekao je portparol Microsoft-a.

Takođe smo preduzeli dodatne mere u iskustvu ćaskanja tako što smo sistemu dali tekst iz najboljih rezultata pretrage i uputstva za uzemljenje svojih odgovora u rezultate pretrage. Korisnicima se takođe daje eksplicitno obaveštenje da su u interakciji sa AI sistemom i savetuje se da proverite veze do materijala da biste saznali više.

U drugom primeru, ChatGPT je izvestio da je pokojni senator Al Gor stariji bio „glasni pristalica zakona o građanskim pravima“. U stvari, senator se glasno protivio i glasao protiv Zakona o građanskim pravima iz 1964.

Uprkos koracima koje su tehno titani preduzeli da zaustave dezinformacije, stručnjaci su bili zabrinuti zbog mogućnosti da ih u potpunosti spreče.

Pročitajte još:

„Ne znam da li je to moguće da se popravi“, rekao je za Fox News Kristofer Aleksander, glavni službenik za komunikacije Liberty Blockchain-a, sa sedištem u Juti.

Na kraju dana, mašina ili ne, stvorili su ga ljudi i sadržaće ljudsku slabost… Nije nepogrešiv, nije svemoguć, nije savršen.

Kris Vinfild, osnivač tehničkog biltena „Razumevanje AI“, rekao je: „Kompanije ulažu u istraživanje za poboljšanje modela veštačke inteligencije, prečišćavanje podataka o obuci i kreiranje petlji povratnih informacija korisnika“.

Nije savršeno, ali ovo pomaže u poboljšanju performansi AI i smanjenju halucinacija.

Ove „halucinacije“ bi mogle da izazovu pravne probleme tehnološkim kompanijama u budućnosti, upozorio je Aleksandar.

„Jedini način na koji ćemo zaista ozbiljno sagledati ovo je da će biti tuženi za toliko novca da će ih dovoljno zaboleti i postaće im briga“, rekao je on.

Etička odgovornost tehno titana kada su u pitanju „halucinacije“ chatbot-a je „moralno siva zona“, rekao je Ari Lajtman, profesor na Univerzitetu Karnegi Melon u Pitsburgu.

Uprkos tome, Lajtman je rekao da je stvaranje traga između izvora chatbot-a i njegovog izlaza važno da bi se osigurala transparentnost i tačnost.

Vu je rekao da bi spremnost sveta za nove tehnologije veštačke inteligencije bila naprednija da nije kolosalnih poremećaja izazvanih panikom kovida.

Pratite Portal Dnevni Puls na TelegramuFejsbuku, Tviteru, Gab-u i Viberu!

Dnevni Puls/Mediji