Az ESET kiberbiztonsági szakértői szerint a csalók a jövőben egyre gyakoribbá váló telefonos átverések során a mesterséges intelligenciára (MI) támaszkodva súlyos érzelmi és anyagi károkat okozhatnak az áldozatoknak.
Minden szülő legrosszabb rémálma felvenni egy ismeretlen számról érkező hívást és azt hallani, hogy a gyermeke segítségért kiált. Aztán az állítólagos “emberrabló” szól bele a telefonba, és váltságdíjat követel, ellenkező esetben soha többé nem láthatjuk a gyermekünket. Sajnos mindez nem egy hollywoodi film forgatókönyve, hanem egy valóságos példa arra, hogy a csalók a legmodernebb technológiát használva meddig képesek elmenni, hogy pénzt zsaroljanak ki áldozataiktól. A módszer egyúttal rámutat a MI hangklónozási technológiájának fejlettségére is, amely ma már elegendő meggyőző erővel bír ahhoz, hogy akár még a legközelebbi családtagokat is átverhessék vele. Azonban minél többen ismerik ezeket a csalásokat, és minél többen tudják, hogy mire kell odafigyelniük, annál kisebb a valószínűsége, hogy a telefonos csalók sikerrel járjanak. A szlovák ESET biztonsági szakértői szerint a virtuális emberrablások jellemzően több alapvető elemből, szakaszból épülnek fel.
A virtuális emberrablások menete
- A csalók potenciális áldozatokat keresnek, akiket felhívhatnak és megpróbálhatnak pénzt zsarolni tőlük. Ez a szakasz is optimalizálható a mesterséges intelligencia eszközeinek használatával.
- A bűnözők azonosítják az “emberrablás” célpontját – valószínűleg az első lépésben azonosított személy gyermekét a közösségi médiában vagy más, nyilvánosan elérhető információk alapján.
- A csalók ezután kitalálnak egy képzeletbeli szituációt, ügyelve arra, hogy az a lehető a legmegrázóbb legyen azon személy számára, akit fel akarnak hívni. Minél nagyobb az ijedtség, annál kevésbé fogunk racionális döntéseket hozni. A jól kivitelezett social engineering manipulációs kísérletekhez hasonlóan a csalók emiatt siettetik is az áldozat döntéshozatalát.
- A bűnözők ezután további kutatásokat végezhetnek, hogy lássák, melyik időpont a legalkalmasabb a hívásra. Az információ forrása ezúttal is a közösségi média, illetve egyéb nyilvánosan elérhető adat lehet. Az a céljuk, hogy olyan időpontban vegyék fel velünk a kapcsolatot, amikor a szeretteink, rokonaink otthonuktól távol tartózkodnak, ideális esetben nyaralnak, mint az Jennifer DeStefano lánya esetében történt.
- Ezután elkészítik a hamis hangmásolatokat, amiket a hívás során használnak. A csalók egy egyszerűen hozzáférhető szoftver segítségével hangfelvételt készítenek a célpont “hangjával”, amellyel megpróbálják meggyőzni az áldozatot arról, hogy elrabolták a rokonát. Egyéb, közösségi médiából szerzett információkat is felhasználhatnak a biztosabb meggyőzés érdekében, például olyan részleteket említenek az “elrabolt személyről”, amelyeket egy idegen nem tudhat.
- Ha bedőlünk az átverésnek, valószínűleg azt akarják majd elérni, hogy ne nyomon követhető módon adjuk át számukra a kívánt összeget, hanem például kriptopénzben fizessünk.
A virtuális emberrablás tökéletessé fejlesztése
Ennek a módszernek számos változata létezik. A legaggasztóbb probléma, hogy a ChatGPT és más MI-eszközök segítségével a virtuális emberrablások széleskörben elterjedhetnek, egyúttal a csalók könnyebben megtalálhatják az ideális áldozatokat. A hirdetők és a marketingesek évek óta alkalmaznak viselkedéselemző technikákat, hogy a megfelelő üzeneteket a megfelelő időben juttassák el a célcsoportokhoz.
A generatív MI (GenAI) segíthet a csalóknak ugyanebben azáltal, hogy megkeresi azokat a személyeket, akik a legnagyobb valószínűséggel fizetni fognak, ha virtuális emberrablás áldozatává válnak. Az MI lehetővé teszi a csalók számára, hogy a korábbinál jóval nagyobb léptékben tömegesen hajtsák végre akcióikat, még több kárt okozva, különösebb erőfeszítés nélkül.
Milyen jövő előtt áll a hangklónozás?
Sajnos a hangklónozási technológia már most is nyugtalanítóan meggyőző, amint azt az ESET szakértőinek nemrégiben végzett kísérlete is bizonyítja. A módszer egyre inkább hozzáférhető a csalók számára. Egy tavaly májusi hírszerzési jelentés figyelmeztetett a szövegről beszédre alakítás technológiáját alkalmazó eszközökkel való visszaélésre, emellett a kiberbűnözők körében egyre nagyobb érdeklődés mutatkozik a hangklónozó szolgáltatások (VcaaS, Voice Cloning-as-a-Service) iránt. Amennyiben ez utóbbi elterjed, minden támadó számára lehetővé válik az ilyen jellegű csalások végrehajtása, különösen, ha a GenAI-eszközökkel együtt használják.
A dezinformáció mellett a deepfake technológiát üzleti e-mailek feltörésére és szexuális tartalmú zsaroló átverésekre (sextortion) is használhatják. Mindez azt jelenti, hogy egy hosszú út elején járunk.
Hogyan maradjunk biztonságban?
A jó hír az, hogy már egy kis tájékozottsággal is nagy lépést tehetünk általánosságban a deepfake, különösen pedig a virtuális emberrablás okozta veszély csökkentéséért. A vállalatoknak érdemes szakértői tréningeket tartani a témában, de saját magunk is minimalizálhatjuk annak az esélyét, hogy áldozattá váljunk, és bedőljünk egy csalók által indított hívásnak. A virtuális emberrablás sajnos terjedőben van. Viszont, ha naprakészek maradunk a legújabb csalásokkal összefüggésben, jó eséllyel időben felismerhetjük és elháríthatjuk a támadásokat, mielőtt azok komoly károkat okozhatnának.
Így védekezhetsz |