AI rágalmak: Konzervatív aktivista fogta perbe a Metát

A konzervatív aktivista, Robby Starbuck beperelte a Metát, mivel a közösségi médiaóriás mesterséges intelligencia chatbotja hamis állításokat terjesztett róla, beleértve azt is, hogy részt vett a 2021. január 6-i amerikai Capitolium elleni zavargásban.

Starbuck, aki a vállalati DEI programok támadásáról ismert, azt mondta, 2024 augusztusában fedezte fel a Meta AI által terjesztett állításokat, amikor a Harley-Davidson motorkerékpár-gyártó „woke DEI” politikái ellen lépett fel. Egy kereskedő elégedetlen volt vele, és közzétett egy képernyőképet a Meta AI-tól, hogy megtámadja őt – mondta egy Twitteren (X) közzétett bejegyzésében. Ez a képernyőkép tele volt hazugságokkal. Nem akartam elhinni, hogy valóságos, ezért magam is ellenőriztem. Még rosszabb volt, amikor megnéztem. Azóta hamis vádak folyamatos áradatával szembesülök, amelyek mélyen károsítják a jellememet és a családom biztonságát – tette hozzá.

A politikai kommentátor elmondta, hogy a január 6-i zavargások idején Tennessee-ben tartózkodott. A kedden Delaware állam legfelsőbb bíróságán benyújtott kereset több mint ötmillió dollár kártérítést követel. E-mailes nyilatkozatában a Meta szóvivője azt mondta, hogy modelljeik folyamatos fejlesztésének részeként már kiadtak frissítéseket, és ezt a jövőben is folytatni fogják — olvasható Sarah Parvini, az Associated Press mesterséges intelligenciával foglalkozó munkatársának cikkében.

Nem ez az első eset

Starbuck pere csatlakozik azon hasonló esetek sorához, amelyekben emberek bepereltek AI platformokat a chatbotok által szolgáltatott információk miatt. 2023-ban egy georgiai konzervatív rádiós műsorvezető rágalmazási pert indított az OpenAI ellen, azt állítva, hogy a ChatGPT hamis információkat közölt azzal, hogy ő megkárosította és sikkasztotta a Second Amendment Foundation, egy fegyverjogi csoport pénzeszközeit.

James Grimmelmann, a Cornell Tech és a Cornell Law School digitális és információs jog professzora szerint „semmi alapvető ok nincs arra”, hogy az AI-cégeket ne lehessen felelősségre vonni ilyen esetekben. A technológiai vállalatok nem kerülhetik el a rágalmazást „pusztán egy felelősségkizáró nyilatkozat ráhelyezésével” – mondta. Nem lehet azt mondani, hogy „Minden, amit mondok, megbízhatatlan lehet, ezért ne higgyetek nekem. És mellesleg, ez a fickó egy gyilkos.” Ez segíthet csökkenteni annak mértékét, hogy kijelentést teszünk, de egy általános felelősségkizárás nem old meg mindent – tette hozzá. Semmi nem zárná ki kategorikusan egy ilyen AI-rendszer kimeneteit.

A techcégek szerint vagy együttélünk a hazugságokkal, vagy le kellene állniuk

Grimmelmann szerint van néhány hasonlóság a technológiai vállalatok által az AI-val kapcsolatos rágalmazási és szerzői jogi jogsértési ügyekben felhozott érvek között, mint például az újságok, szerzők és művészek által indítottak. A vállalatok gyakran azt mondják, hogy nincsenek abban a helyzetben, hogy felügyeljenek mindent, amit egy AI csinál, és azt állítják, hogy kompromittálniuk kellene a technológia hasznosságát, vagy teljesen le kellene állítaniuk, „ha felelősségre vonnának minket minden káros, jogsértő kimenetért, amit produkál.” Úgy vélem, ez egy őszintén nehéz probléma, hogyan lehet megakadályozni, hogy az AI olyan módon „hallucináljon”, ami nem segítőkész információkat eredményez, beleértve a hamis állításokat – jelentette ki Grimmelmann. A Meta ebben az esetben ezzel szembesül. Megpróbáltak néhány javítást végrehajtani a rendszer modelljein, Starbuck pedig panaszkodott, hogy a javítások nem működtek.

Amikor Starbuck felfedezte a Meta AI által terjesztett állításokat, megpróbálta figyelmeztetni a vállalatot a hibára, és segítséget kérni a probléma kezeléséhez. A panasz szerint Starbuck felvette a kapcsolatot a Meta vezető tisztségviselőivel és jogi tanácsadóival. A periratok szerint ezután arra kérte a Metát, hogy vonja vissza a hamis információkat, vizsgálja ki a hiba okát, vezessen be védőintézkedéseket és minőség-ellenőrzési eljárásokat a hasonló károk jövőbeni megelőzése érdekében, és kommunikáljon átláthatóan az összes Meta AI-felhasználóval arról, hogy mit fognak tenni. A beadvány azt állítja, hogy a Meta nem volt hajlandó végrehajtani ezeket a változtatásokat, vagy „értelmes felelősséget vállalni a magatartásáért.” Ehelyett megengedték, hogy az AI-ja hónapokig terjesszen hamis információkat Starbuckról, végül  egészen nagyvonalúan „kijavították” a problémát azzal, hogy Starbuck nevét teljesen törölték a írásos válaszaikból – áll a keresetben.

A Meta kifejezte sajnálatát

Joel Kaplan, a Meta globális ügyekért felelős vezetője reagált egy Starbuck által az X-en közzétett videóra, amelyben felvázolta a pert, és „elfogadhatatlannak” nevezte a helyzetet. Ez egyértelműen nem az, ahogyan az AI-unknak működnie kellene – mondta Kaplan az X-en. Sajnáljuk az önnel kapcsolatos hibáinkat és azt, hogy az általunk bevezetett javítás nem orvosolta a mögöttes problémát. Kaplan elmondta, hogy együttműködik a Meta termékfejlesztési csapatával, hogy megértsék, hogyan történhetett ez, és feltárják a lehetséges megoldásokat.

Starbuck elmondta, hogy amellett, hogy hamisan azt állította róla a Meta AI, hogy részt vett a Capitolium elleni zavargásokban, hamisan azt is állította, hogy holokauszttagadó, és azt állította, hogy bűnösnek vallotta magát egy bűncselekményben, pedig soha életében nem „tartóztatták le vagy vádolták meg semmilyen bűncselekménnyel.” A Meta később „feketelistára tette” ugyan a nevem , de ez a lépés nem oldotta meg a problémát, mert a Meta hírekben említi a nevemet, ami lehetővé teszi a felhasználóknak, hogy további információkat kérjenek rólam. Bár ma én vagyok a célpont, bármikor egy önnek tetsző jelölt lehet a következő, és a Meta AI hazugságai megfordíthatják a választásokat eldöntő szavazatokat – írta Starbuck az X-en. És akár Ön is lehet a következő célpont…

English summary

Conservative activist Robby Starbuck has filed a defamation lawsuit against Meta, claiming that the social media giant’s AI chatbot spread false information about him, including his alleged participation in the January 6th Capitol riot. Starbuck discovered these claims in August 2024 while challenging Harley-Davidson’s DEI policies. The lawsuit, seeking over five million dollars in damages, alleges that Meta’s AI also falsely accused him of Holocaust denial and claimed he pleaded guilty to a crime he never committed. Meta acknowledged the issue, stating they are working on improvements to their AI models. Legal experts suggest that AI companies can be held liable for defamation. In response, Meta’s Joel Kaplan called the situation „unacceptable” and said they are addressing the problem. Starbuck warns that such AI-generated falsehoods could impact political candidates and the public.


Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük

Fel!