Bitlsi su još jednom oduševili milione fanova širom sveta novom pesmom, sve zahvaljujući veštačkoj inteligenciji (AI) uz pomoć koje su kombinovani delovi starog snimka, a kvalitet zvuka je poboljšan. Pored radosti zbog poslednje pesme Bitlsa „Now and Then“, postoji i tamnija strana korišćenja veštačke inteligencije – kreiranje deepfake snimaka i slika. Srećom, oni trenutno nisu mnogo razvijeni ni rasprostranjeni, kao što nisu ni alati za njihovo kreiranje, ali potencijal za korišćenje u prevarama je izuzetno visok, a tehnologija stalno napreduje.

Open AI je nedavno predstavio Audio API model koji može da generiše ljudski govor na osnovu unetog teksta. Ovaj Open AI softver je do sada najbliži pravom ljudskom govoru i u budućnosti može postati nov alat u rukama sajber kriminalaca. Audio API može da reprodukuje zadati tekst glasom, dok korisnik može da bira kojom će se od predloženih glasovnih opcija tekst izgovoriti. Open AI model, ovakav kakav je sada, ne može se koristiti za kreiranje deepfake glasova, ali ukazuje na brzi razvoj tehnologija za generisanje glasa.

Danas praktično ne postoje uređaji koji mogu proizvesti deepfake glas visokog kvaliteta koji se ne razlikuje od pravog ljudskog govora. Međutim, u poslednjih nekoliko meseci je objavljeno više alata za generisanje ljudskog glasa. Ranije su za njihovo korišćenje bile potrebne osnovne veštine programiranja, ali s vremenom postaju sve jednostavniji. U bliskoj budućnosti možemo očekivati modele koji će ponuditi i kvalitet rezultata i jednostavnost upotrebe.

Iako upotreba veštačke inteligencije u prevarama nije uobičajena, već imamo primere „uspešnih“ slučajeva. Sredinom oktobra američki investitor Tim Draper upozorio je svoje pratioce na Tviteru da prevaranti mogu koristiti njegov glas za iznude. Tim je rekao da su zahtevi u kojima neko traži novac njegovim glasom rezultat veštačke inteligencije, koja očigledno postaje sve pametnija.

Kako da se zaštitite?

U ovom trenutku deepfake glasovi se ne posmatraju kao moguća sajber pretnja. Vrlo retko se koriste u zlonamerne svrhe, pa se tehnologije zaštite sporo pojavljuju. Za sada je najbolji način zaštite da pažljivo slušate šta vam sagovornik govori preko telefona. Ako je snimak lošeg kvaliteta, ima šumova, a glas zvuči robotski, to je dovoljno da ne verujete informacijama koje čujete.

Još jedan dobar način da proverite „ljudskost“ sagovornika je da ga pitate nešto neočekivano. Na primer, pitanje koja mu je omiljena boja ostaviće ga u nedoumici ukoliko je reč o glasovnom modelu, jer to nije ono što žrtve prevare obično pitaju. Čak i ako napadač ručno bira i reprodukuje odgovor, vremensko kašnjenje u odgovoru jasno će ukazati na prevaru.

Još jedna sigurna opcija je instaliranje pouzdanog i sveobuhvatnog bezbednosnog rešenja. Iako ne mogu 100 posto otkriti deepfake glasove, mogu pomoći korisnicima da izbegnu sumnjive sajtove, plaćanja i preuzimanja zlonamernog softvera tako što štite brauzere i proveravaju sve datoteke na računaru.

„Osnovni savet u ovom trenutku je da ne preuveličavate pretnju i ne tražite deepfake glasove tamo gde ih nema. Za sada, dostupna tehnologija verovatno još nije dovoljno moćna da stvori glas koji čovek ne bi mogao prepoznati kao veštački. Ipak, morate biti svesni mogućih pretnji i spremni na činjenicu da će napredne deepfake prevare postati nova realnost u bliskoj budućnosti“, komentariše Dmitrij Anikin, viši naučnik za podatke u kompaniji Kaspersky.

Više informacija o glasovnim deepfake snimcima dostupno je na ovom linku

Ostavite odgovor

Vaša adresa e-pošte neće biti objavljena. Neophodna polja su označena *

Pre slanja komentara, pogledajte i upoznajte se sa uslovima i pravima korišćenja.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

The reCAPTCHA verification period has expired. Please reload the page.