Uz pomoć veštačke inteligencije, danas je, ne samo moguće, nego i jako jednostavno, napraviti lažni, ali realističan sadržaj, postaviti ga na društvene mreže i privući milion klikova.

Još je i zabavno.

Tako je na primer, nalog na TikTok-u na kojem, između ostalog, generisani Tom Kruz, u ljubičastom odelu peva „Tiny Dancer“ pravoj Paris Hilton koja drži igračku psa u rukama, stigao do više od pet miliona pratilaca.

Osim sve te popularnosti koje AI generisani sadržaj može steći, to manipulisanje tehnologijom predstavlja i veliku promenu za tradicionalna shvatanja i navike. Ljudi su vekovima slike, video i audio zapise smatrali dokazima da se nešto stvarno dogodilo. Danas, to ne mora ništa da znači, piše The Economist.

Danas je onima koji se igraju tehnologijom, ali i „pravim prevarantima“ dovoljno i nekoliko sekundi da uz pomoć aplikacije za editovanje zvuka oponašaju nečiji glas. Na internetu postoje i sumnjivi proizvodi, i generisane, lažne izjave političara, koje je takođe neki „virtuelni umetnik“ kreirao.

Ipak, koren osnovnog problema je ostao isti.

Od štamparije do interneta, nove tehnologije su često olakšavale širenje neistina, poluistina ili upotrebu istina u lažnom kontekstu.

Ljudi se trude da prepoznaju prevare. Tako na primer neki umeju da u generisanom mejlu prepoznaju pravopisne greške koje im ukazuju na opasnost.

U skorije vreme, postalo je poznato da su slike generisane veštačkom inteligencijom, ako su ruke ljudi na njima čudne ili nepravilne (ako su asimetrične ili imaju više prstiju). Lažni video i audio sadržaji ponekad su nesinhronizovani.

Međutim, problem je u tome što je „lažnjake“ sve teže uočiti. AI se stalno unapređuje, a računarska snaga i podaci postaju sve brojniji.

Iako postoje softveri za otkrivanje lažnih podataka, oni ne mogu da identifikuju kompjuterski generisan sadržaj.

Na kraju će veštačka inteligencija sigurno biti u stanju da napravi snimak događaja koji izgleda potpuno autentično, kao da se stvarno desio.

Očekivanja za budućnost i nisu baš tako optimistična.

AI bi mogao da se koristi i za to da se nečija fotografija pretvori u pornografsku, i da se zatim koristi za ucenu te osobe. FBI je već upozorio na mogućnost da se ovo desi.

Neko će možda naprativi snimak predsednika ili premijera neke zemlje koji najavljuju nuklearni udar. To bi moglo da dovede čitav svet do ivice sukoba. Prevarantima koji se lažno predstavljaju kao nečiji rođaci kako bi od toga imali koristi takođe može biti olakšan posao.

Ali i društva će svakako biti primorana da se prilagode svetu AI prevara. Jednostavno, navike i pogledi društva će se promeniti.

Ljudi će naučiti da slike, audio ili video zapisi ne dokazuju i ne znače ništa, da nisu nikakav dokaz da se nešto dogodilo.

Online sadržaj se više neće verifikovati, tako da će ono ko je nešto postavio, postati jednako važno kao i ono što je objavljeno.

Pod pretpostavkom da bi pouzdani izvori mogli da nastave da se bezbedno identifikuju (preko URL-ova, adresa e-pošte i platformi društvenih mreža), reputacija i poreklo sadržaja će postati važniji nego ikad.

Možda zvuči čudno, ali to je ovo pravilo je važilo skoro u čitavoj istoriji: Era pouzdanog, masovno proizvedenog sadržaja bila je izuzetak.

Ostavite odgovor

Vaša adresa e-pošte neće biti objavljena. Neophodna polja su označena *

Pre slanja komentara, pogledajte i upoznajte se sa uslovima i pravima korišćenja.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

The reCAPTCHA verification period has expired. Please reload the page.