Nedavno je u hrvatskoj časna sestra rekla kako je napadnuta od strane migrant što je pokrenulo LAVINU negativnih komentara I emocja. Ljudi su se uspaničarili i bili spremni na radikalne poteze sve da bi na kraju to sve bila jedna velika LAŽ koju je sama časna pokrenula. U situacijama pout ove možemo napraviti parelelu s nečim što se zove Deepfake, točnija LAŽNA ISTINA koja može dovesti do stvarnih I velikih problema. Deepfake tehnologija napreduje toliko brzo da više nije pitanje “može li prevariti”, nego “koliko brzo i koliko uvjerljivo”. Ljudi moraju usporiti, provjeriti izvor i razmišljati prije nego povjeruju videu ili glasu.
Zašto je ovo bitno
AI deepfakes u 2026. godini postali su mainstream tehnologija. Video, glas i fotografije mogu se generirati u par minuta, i to u kvaliteti koja je prije tri godine bila nezamisliva. Prema istraživanju Sensity AI (2025.), količina detektiranih deepfake materijala raste 900% godišnje.
To znači:
- svatko može postati meta
- politički izbori su ranjiviji nego ikad
- reputacija tvrtki može pasti u 24 sata
- poslovne prevare postaju sofisticirane
Poduzetnici i građani više ne mogu reagirati refleksno. Potrebno je razviti digitalni instinkt.
Kako deepfake funkcionira
Deepfake koristi dva dijela modela:
1. Generator – stvara novi lažni sadržaj (glas, text, video, lice)
2. Discriminator – pokušava otkriti je li sadržaj lažan
Trening modela ide: generator vara, discriminator razotkriva. I tako milijun puta, dok video ne postane nevjerojatno uvjerljiv.
Današnji modeli (GPT-5.1, Sora, Runway 3, ElevenLabs Voice Engine) omogućuju:
- hiperrealističan video
- kloniranje glasa od 15 sekundi
- mijenjanje lica u realnom vremenu
- kreiranje lažnih izjava javnih osoba
Kako prepoznati deepfake (6 brzih signala)
1) Previše savršena slika
Ako video izgleda kao reklama, ali nije reklama – zastani.
2) Glas bez emocija ili s čudnim pauzama
AI zna pričati glatko, ali još uvijek ponekad zvuči “preuredno”.
3) Lice izgleda kao da ne trepće normalno
Najčešći vizualni glitch.
4) Pozadina izgleda “generički”
Često nema prirodne dubine ili malih nesavršenosti.
5) Poruka manipulira hitnošću
Ako video govori: “Reagiraj odmah!”, vjerojatno želi izbjeći da razmisliš.
6) Ne postoji izvor
Ako se ne može pronaći originalni izvor — zaustavi se.
Mini vodič: Kako se zaštititi u 30 sekundi
1. Uspori reakciju – ako je hitno, gotovo sigurno je manipulacija.
2. Traži drugi izvor – službeni kanal, medij, provjerena objava.
3. Provjeri datum – deepfake često koristi stare vizuale.
4. Nazovi osobu direktno – glas koji čuješ ne mora biti njihov.
5. Postavi internu proceduru u firmi – osobito oko financija.
Ovo je osnovni digitalni “AI imunitet”.


