Nema sumnje da je GPT-4, najnovije unapređenje motora veštačke inteligencije koji je kreirala kompanija OpenAI, inovativan i pre svega u trendu. Može da napiše pesmu u stilu bilo kog pesnika, navede progresiju akorda i vremenski potpis za jednostavnu melodiju, obezbedi recept u sedam koraka za sendvič od kikirikija, putera i želea i napiše politički vodvilj u dva čina. Pa ipak, sve što nudi je naš odraz, posredovano algoritmima koji su dobili ogromne količine materijala koje su kreirala ljudska bića.
Akronim GPT znači „generativni unapred obučeni transformator”. Koristeći sve vrste digitalizovanog sadržaja preuzetog sa interneta, GPT koristi tehnike dubokog učenja da pronađe obrasce, uključujući reči koje će se verovatno pojaviti zajedno, usvaja činjenice, upija gramatiku i uči rudimentarnu logiku.
„Obučen sam za veliki skup podataka teksta, što mi omogućava da generišem ljudske odgovore na osnovu unosa koji primam”, njegove su reči.

Međutim, niti razume šta ti odgovori znače, niti uči iz iskustva, a njegova baza znanja se zaustavlja u septembru 2021. godine (pa je tako abortus i dalje ustavno pravo u SAD).

Zavodljivac pun samopouzdanja i omaški
Jedna od najuočljivijih karakteristika GPT-4 je samopouzdanje sa kojim odgovara na upite. Ovo je i karakteristika i greška. Kao što programeri GPT-4 ističu u tehničkom izveštaju koji je pratio njegovo izdanje „ponekad može napraviti jednostavne greške u rasuđivanju koje izgleda da nisu u skladu sa kompetencijom u toliko mnogo domena, ili je previše lakoveran u prihvatanju očigledno lažnih izjava korisnika i može sigurno pogrešiti u svojim predviđanjima”.

Kada je Din Buonomano, neuronaučnik sa Univerziteta u Los Anđelesu upitao GPT-4 „Koja je treća reč ove rečenice?”, odgovor je bio „treća”. Ovi primeri mogu izgledati trivijalno, ali kognitivni naučnik Geri Markus napisao je na Tviteru da „ne mogu da zamislim kako bi trebalo da postignemo etičko i bezbednosno ‘usklađivanje’ sa sistemom koji ne može da razume reč ‘treći’ čak ni sa milijardama primera”.

Prethodnik GPT-4, GPT-3, bio je obučen na 45 terabajta tekstualnih podataka, što je, prema njegovom nasledniku, ekvivalent broja reči za oko devedeset miliona romana.
To je uključivalo unose na Vikipediji, članke iz novina i časopisa, uputstva za upotrebu, diskusije i postove sa društvenih mreža, knjige i bilo koji drugi tekst koji su njegovi programeri mogli da pribave, obično bez obaveštavanja autora ili kompenzacije.

Nejasno je koliko je još terabajta podataka korišćeno za GPT-4, ili odakle su oni došli, jer OpenAI, uprkos svom nazivu, samo u tehničkom izveštaju kaže da je GPT-4 prethodno obučen „korišćenjem podataka sa interneta i podacima licenciranim od dobavljača trećih strana”.

Ovaj izveštaj ne sadrži dalje detalje o arhitekturi, hardveru, konstrukciji skupa podataka, metodu obuke i slično.

„Posebno sam zabrinut da bi ovi modeli mogli da se koriste za dezinformacije velikih razmera. Sada kada postaju sve bolji u pisanju kompjuterskog koda, mogli bi da se koriste za ofanzivne sajbernapade. Postojaće i drugi ljudi koji ne postavljaju neke od bezbednosnih ograničenja koje mi postavljamo. Društvo ima ograničeno vreme da smisli kako da reaguje na to, kako da to reguliše, kako da se nosim sa tim”, rekao je nedavno za Ej-Bi-Si njuz jedan od direktora OpenAI Sem Altman.

Ni veličina skupa podataka za obuku veštačke inteligencije (AI) ne sprečava ga da izbacuje sadržaj mržnje. Metin AI četbot „Galaktika”, trebalo je da bude u stanju da „sumira akademske radove, rešava matematičke probleme, generiše članke sa Vikipedije, piše naučni kod, beleži molekule i proteine i još mnogo toga”.

Ali dva dana nakon što je demo lansiran, kompanija je bila prinuđena da ga ukloni, jer su istraživači mogli da iskoriste „Galaktiku” da kreiraju unose u Vikipediju koji promovišu antisemitizam i veličaju samoubistvo, kao i lažne naučne članke, uključujući i onaj koji se zalaže za prednosti ishrane smrvljenim staklom. Slično, GPT-3, kada je to bio zatraženo, imao je tendenciju da ponudi rasističke i seksističke komentare. Sve to zato što su mnogi podaci uneti sa diskusija na društvenim mrežama i stavova koji su tamo izneti.

Kako bi izbegao ovaj problem, prema pisanju Tajma, OpenAI je angažovao kompaniju za spoljne poslove koja je angažovala izvođače u Keniji da etiketiraju podli, uvredljivi i potencijalno ilegalni materijal koji bi zatim bio uključen u podatke o obuci kako bi kompanija mogla da napravi alat za otkrivanje toksičnih informacija pre nego što stigne do korisnika.

Tajm je izvestio da su neki od materijala „sa slikovitim detaljima opisivali situacije kao što su seksualno zlostavljanje dece, ubistvo, samoubistvo, mučenje, samopovređivanje i incest”.

Izvođači su rekli da je trebalo da pročitaju i obeleže između 150 i 250 pasusa teksta u smeni od devet sati. Bili su plaćeni ne više od dva dolara na sat i ponuđena im je grupna terapija kako bi im se pomoglo da se izbore sa psihološkim pritiskom koju je posao nosio. Autsorsing kompanija je osporila te podatke, ali je posao bio toliko uznemirujući da je ugovor raskinut osam meseci ranije.

Gutači energije, ekološki neopravdani
Prema povelji OpenAI-a, njegova misija je „da obezbedi da veštačka opšta inteligencija (AGI), pod tim podrazumevamo visoko autonomne sisteme koji nadmašuju ljude u većini ekonomski vrednih poslova, od koristi celom čovečanstvu”.

Ostavljajući po strani pitanje da li je AGI ostvariv, da li će prenošenje rada mašinama koristiti celom čovečanstvu, jasno je da AI pravi štetu čitavom čovečanstvu upravo sada. Prema članku objavljenom u jednom naučnom časopisu veštačka inteligencija zahteva tone energije koja emituje ugljenik.

„Dok je ljudsko biće odgovorno za pet tona ugljen-dioksida (CO2) godišnje, obuka velikog neuralnog jezičkog modela košta 284 tone. Pored toga, pošto je računarska snaga potrebna za obuku najvećih modela porasla 300.000 puta za šest godina, možemo samo očekivati da će se posledice ovih modela na životnu sredinu povećati”, stoji u članku.

Meta, Gugl i mnoštvo manjih tehnoloških kompanija takođe su u nasumičnoj trci da izgrade sopstveni model veštačke inteligencije. Guglov novi AI četbot, objavljen prošle nedelje delimično je obučen za privatne e-poruke korisnika g-mejla. Gugl je to demantovao i rekao da je u toku rani eksperiment. U međuvremenu, Majkrosoft, koji je navodno uložio deset milijardi dolara u OpenAI i koristi GPT-4 u svom pretraživaču a sada ga dodaje u vord i eksel, nedavno je otpustio ceo tim za AI-etiku. To su bili ljudi koji su bili odgovorni da osiguraju da AI gradi odgovorno.

Lako je biti zaveden veštačkom inteligencijom GPT-4. Može da položi ispit, zna da kodira, uskoro će moći da pogleda fotografiju sadržaja vašeg frižidera i predloži recepte. Ali uskoro će takođe moći da generiše besprekorne „lažnjake” i kreira slike od teksta uključujući i one seksualnog zlostavljanja dece. To je moćna, seizmička tehnologija koja ima kapacitet da poboljša naš život ali i da ga umanji. Bez zaštitnih ograda i nadzora, njegove štete mogu lako da se umnože.

Ostavite odgovor

Vaša adresa e-pošte neće biti objavljena. Neophodna polja su označena *

Pre slanja komentara, pogledajte i upoznajte se sa uslovima i pravima korišćenja.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

The reCAPTCHA verification period has expired. Please reload the page.