Ljudi širom svijeta ostali su u nevjerici nakon što je predstavljena nova verzija vještačke inteligencije, Sora 2, revolucionarni AI model koji iz običnog teksta može generisati video-snimke bilo čega što mu napišete.
Ono što je posebno zastrašujuće jeste činjenica da su videozapisi koje stvara toliko realistični da je gotovo nemoguće prepoznati šta je stvarno, a šta vještački generisano.
Samo nekoliko dana nakon objave, Sora 2 je postala globalni fenomen, a broj videozapisa koje je stvorila više se ne može ni pratiti. Internet je preplavljen sadržajem koji izgleda stvarno ali zapravo nije.
Brojni YouTuberi snimili su reakcije na videozapise koje je generisala Sora 2, a najveću pažnju privukao je poznati američki kreator Asmongold, koji je ostao šokiran mogućnostima novog AI modela.
On je upozorio da ova tehnologija može biti izuzetno opasna, posebno za poznate ličnosti:
“Zamislite da neko napravi video u kojem vrijeđate određenu rasu ili narod, iako to nikada niste rekli. Takvi videozapisi izgledaju toliko stvarno da se više ne može dokazati šta je istina, a šta laž.”
Asmongold je dodao da Sora 2 otvara novu eru manipulacije, u kojoj će “bilo ko moći biti prikazan u bilo čemu, bez ikakvog stvarnog dokaza”.
Snimci generisani pomoću Sora 2 toliko su uvjerljivi da čak ni stručnjaci ne mogu sa sigurnošću reći da li je video stvaran ili vještački stvoren. Ova činjenica izazvala je lavinu rasprava o budućnosti medija, istine i povjerenja na internetu.
U nastavku možete pogledati reakciju Asmongolda i primjere videa kreiranih pomoću Sora 2 koji su šokirali svijet.
Pišu: Dnevne Vijesti.