Deepfake

2022.08.11. 18:00

Másik ember arcával bejelentkezni egy élő videóhívásba

Rémes távlatokat nyit meg a következő nagy biztonsági fenyegetés: a mesterséges intelligenciának és a mély tanulási algoritmusoknak köszönhetően egyre könnyebb egy másik ember arcával nézni bele a kamerába.

Forrás: Shutterstock

Mint ismert, nemrég orosz hackerek deepfake technológiával beszéltek Vitalij Klicsko kijevi polgármester nevében és arcával a berlini és madridi polgármesterekkel. Berlin polgármestere hosszabb beszélgetés után csak akkor kezdett gyanakodni, amikor az ál-Klicsko néhány nagyon szokatlan dolgot mondott Ukrajna megszállásával kapcsolatban. Amikor a hívás megszakadt, a polgármesteri hivatal felvette a kapcsolatot Ukrajna berlini nagykövetével, és kiderült, hogy akárkivel is beszéltek, az nem az igazi Klicsko volt.

A hackerekkel más európai polgármesterek is beszéltek, s mindegyik esetben úgy tűnik, hogy deepfake technológiával, mesterséges intelligencia által generált hamis videóval társalogtak, amely úgy nézett ki, mintha valódi emberi beszélne – írja a ZDNet alapján a G Data.

Mindez jól jelzi, hogy a deepfake technológia egyre fejlettebb és gyorsabb. Az incidens ugyanakkor arra is figyelmeztet, hogy

új fenyegetés jelent meg, nemcsak a polgármesterek, hanem mindannyiunk számára.

Deepfake segítségével például felvehető vállalati vezetők identitása, így a gazdasági osztályon dolgozó, utalásokat végző munkatársakat téveszthetik meg a hackerek.Ha a dolgozó elhiszi, hogy a főnökével beszél, nem valószínű, hogy megtagadja a kérést.

A technológiával a cég üzleti partnereinek, alvállalkozóinak adhatják ki magukat a hackerek, és utalásokat irányíthatnak át a saját számláikra.

A home office korában a deepfake segítségével a

kiberbűnözők informatikai állásokra jelentkezhetnek, így olyan szerepkörökhöz juthatnak a cégnél, amelyekben hozzáférhetnek a vállalat adataihoz, üzleti titkaihoz.

A deepfake segítségével hamis videók gyárthatóak, amelyek felhasználhatóak egy politikus vagy vállalatvezető lejáratásához, vagy hamis propaganda terjesztéséhez.

Általános szabály, hogy minél több nyilvános videó található meg valakiről, annál könnyebb az azonosságát ellopni, meghamisítani. Az FBI már tanácsot adott ki a deepfake videók felismeréséhez: érdemes figyelni a videó ugrálását, általános hibáit, a beszélő fejének és törzsének egymáshoz viszonyított mozgását, az ajakmozgást, a kapcsolódó hangokat, több szereplő esetében az arcok közötti szinkronizálási problémákat.

A közeljövőben valószínűleg szükség lesz arra, hogy a cégek és a politikai szervezetek új szabályokat dolgozzanak ki az online találkozókon, a távmunka megbeszéléseken történő hitelesítésre vonatkozóan.

Minél jobban a tudatában vagyunk a kockázatoknak, annál könnyebb lesz védekezni a támadások ellen.

Borítóképünk illusztráció (Shutterstock)

Hírlevél feliratkozás
Ne maradjon le a feol.hu legfontosabb híreiről! Adja meg a nevét és az e-mail-címét, és mi naponta elküldjük Önnek a legfontosabb híreinket!