Egyre súlyosabb probléma a deepfake

2023 márciusában a Twittert elárasztották a mesterséges intelligencia által generált, deepfake fotók, amelyeken Donald Trump volt elnök ellenáll a letartóztatásnak és megpróbál elmenekülni a rendőrség elől, mielőtt a héten New Yorkban vádat emelnének ellene. A kitalált képek – amelyeket több mint 4 milliószor tekintettek meg – úgy tűnik, Trumpot legalább öt New York-i rendőrrel kiabálva és dulakodva ábrázolják. A zavaróan realisztikusnak tűnő képek közül sokat széles körben megosztottak a Twitter-felhasználók, akik hamisan állították, hogy azok valódiak.

Egyre komolyabb kihívást jelent a deepfake technológia terjedése — derül ki a Deloitte TMT Predictions 2025 friss jelentéséből. A mesterséges intelligenciával (AI) generált megtévesztő képek, videók és hangfelvételek ma már szinte megkülönböztethetetlenek a valós tartalmaktól, aláásva ezzel a digitális térbe vetett bizalmat.

A deepfake probléma súlyosságát jól mutatja, hogy a Deloitte 2024-es Connected Consumer Study felmérése szerint a válaszadók fele érzékeli az online információk megbízhatóságának romlását. Az AI-technológiákat ismerők kétharmada pedig attól tart, hogy ezeket egyre gyakrabban használják manipulációra, miközben egyre kevesebben képesek felismerni a gépi úton generált tartalmakat.

Milliárdos védekezési költségek

A deepfake-ek kiszűrésére fordított összegek meredeken emelkednek: 2023-ban a technológiai és közösségimédia-platformok összesen 5,5 milliárd dollárt költöttek a védekezésre, és a becslések szerint ez az összeg 2026-ra elérheti a 15,7 milliárdot is. A Deloitte szerint a védekezés nem csupán a nagy techcégek feladata — a fogyasztóknak, hirdetőknek és tartalomkészítőknek is aktív szerepet kell vállalniuk a küzdelemben.

Technológia kontra deepfake

A védekezési technológiák között megjelentek a deep learning alapú rendszerek, amelyek természetellenes ajakmozgást, hangszín-ingadozást vagy fényvisszaverődési hibákat keresnek. Bár ezek a megoldások egyre fejlettebbek, mégsem hibátlanok: jelenlegi állapotukban legfeljebb kilencven százalékos pontosságot érnek el, miközben a deepfake-generáló AI-modellek egyre szélesebb körben hozzáférhetők.

A tartalmak eredetének hitelesítésére szolgáló megoldások, például digitális vízjelek és titkosított metaadatok szintén segíthetnek, de ezek bevezetése és egységesítése komoly iparági összefogást igényel. Ezt szolgálja a Deloitte csatlakozása A tartalom eredetiségéért és hitelességéért kolaícióhoz (Coalition for Content Provenance and Authenticity – C2PA) kezdeményezéshez is, amely egységes szabványokat dolgoz ki a digitális tartalmak nyomon követésére.

Kihívás a szabályozás és a közösség számára is

Bár a közösségi platformok egy része már bevezetett intézkedéseket, például személyazonosság-ellenőrzést vagy hitelesítési díjakat, a kérdés továbbra is nyitott: ki viselje a biztonság költségeit? A platformok, az alkotók vagy a felhasználók?

A szakértők szerint a technológiai védekezés önmagában nem elegendő. Az EU és az USA már megkezdte a félrevezető AI-tartalmak szabályozását, de hosszú távon globális, egységes fellépésre lesz szükség. Emellett kulcsfontosságú a digitális tudatosság fejlesztése is, hogy a felhasználók képesek legyenek kritikusan értékelni a látott és hallott tartalmakat.

A deepfake-ek elleni küzdelem a következő évek egyik legfontosabb digitális kihívása lesz — és azok a vállalatok, amelyek képesek átlátható, biztonságos és hiteles online környezetet biztosítani, komoly versenyelőnyhöz juthatnak a bizalomért folyó harcban.

English summary

Deepfake technology presents a growing online challenge, eroding digital trust as AI-generated deceptive content becomes harder to detect. Spending on detection is rising significantly, reaching a projected $15.7 billion by 2026. While detection technologies and content authentication methods are developing, they aren’t perfect. Combating deepfakes demands collaborative efforts from platforms, users, and regulators, alongside increased digital literacy, to foster a more trustworthy online environment.


Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük

Fel!