Hogyan készülnek a kutatók a mélyhamisított propaganda közelgő hullámára
Az AI-alapú detektorok a legjobb eszközök az AI által generált hamis videók észleléséhez.
A Washington Post a Getty Images segítségével

Egy oknyomozó újságíró videót kap egy névtelen bejelentőtől. Ez azt mutatja, hogy az elnökjelölt illegális tevékenységet vallott be. De vajon ez a videó valós? Ha igen, hatalmas hír lenne - egy életre szóló gombóc -, és teljesen megfordíthatná a közelgő választásokat. De az újságíró egy speciális eszközön futtatja a videót, amely elmondja neki, hogy a videó nem az, aminek látszik. Valójában ez egydeepfake, Egy mesterséges intelligencia felhasználásával készült videó mély tanulás.

Az újságírók a világ minden tájáról hamarosan használhatnak ilyen eszközt. Néhány év múlva egy ilyen eszközt akár mindenki használhatna a hamis tartalmak kiirtására a közösségi média hírcsatornáiban.

As kutatók akik a mélyhamisítás észlelését tanulmányozták és újságírók számára egy eszköz kifejlesztésével jövőt látunk ezeknek az eszközöknek. Pedig nem oldják meg az összes problémánkat, és csak a fegyvertár egyik részei lesznek a dezinformáció elleni szélesebb körű harcban.

A mélyhamisítások problémája

A legtöbb ember tudja, hogy nem hiszel el mindent, amit látsz. Az elmúlt néhány évtizedben a hozzáértő hírfogyasztók megszokták, hogy képszerkesztő szoftverrel manipulált képeket látnak. A videók azonban egy másik történet. A hollywoodi rendezők dollármilliókat költhetnek speciális effektusokra, hogy reális jelenetet alkossanak. De a mélyhamisítások segítségével az amatőrök néhány ezer dollár számítógépes felszereléssel és néhány hét eltöltésével szinte ugyanolyan valósághűek lehetnek.


belső feliratkozási grafika


A mélyhamisítások lehetővé teszik az emberek bevonását olyan filmjelenetekbe, ahol soha nem voltak - gondolom Tom Cruise-t, aki Iron Man-t játszik - ami szórakoztató videókat készít. Sajnos az alkotást is lehetővé teszi pornográfia beleegyezés nélkül az ábrázolt emberek közül. Eddig ezek az emberek, szinte minden nő, a legnagyobb áldozatok, ha a deepfake technológiát visszaélik.

A Deepfakes felhasználható olyan videók készítésére is, amelyeken politikai vezetők olyan dolgokat mondanak, amelyeket soha nem mondtak. A Belga Szocialista Párt közzétett egy gyenge minőségű, nem hamis, de még mindig hamis videót Trump elnök sértegette Belgiumot, amely elegendő reakciót kapott a jobb minőségű mélyhamisítások lehetséges kockázatainak bemutatásához.

{vembed Y = poSd2CyDpyA}
A kaliforniai egyetem, Berkeley Hany Farid című műve elmagyarázza, hogyan készülnek a mélyhamisítások.

Talán a legijesztőbb az összes közül, felhasználhatók létrehozásra kétség a valódi videók tartalmával kapcsolatban, azzal a javaslattal, hogy mély hamisítványok lehetnek.

Ezeket a kockázatokat figyelembe véve rendkívül értékes lenne a mélyhamisítások felismerése és egyértelmű címkézése. Ez biztosítaná, hogy a hamis videók ne tévesszék meg a nyilvánosságot, és hogy a valódi videók hitelesek legyenek.

Hamisítványok felfedezése

A mélyhamisítás felderítését mint kutatási területet kissé elkezdték Három évvel ezelőtt. A korai munka a videókon látható problémák felderítésére összpontosított, mint pl mélyhamisítások, amelyek nem villogtak. Idővel azonban a a hamisítványok jobbak lettek valós videók utánzásában, és mind az emberek, mind az észlelő eszközök számára nehezebben észrevehetőek.

A mélyhamisítás észlelési kutatásnak két nagy kategóriája van. Az első magában foglalja nézi az emberek viselkedését a videókban. Tegyük fel, hogy sok videó van híres személyről, például Obama elnökről. A mesterséges intelligencia felhasználhatja ezt a videót mintáinak megismerésére, a kézmozdulattól a beszéd szünetéig. Akkor lehet nézni egy mély hamisítványt tőle és vegye észre, hol nem egyezik azokkal a mintákkal. Ennek a megközelítésnek az az előnye, hogy akkor is működik, ha maga a videó minősége lényegében tökéletes.

{vembed Y = gsv1OsCEad0}
Az SRI International Aaron Lawson leírja a mélyhamisítások felderítésének egyik megközelítését.

Más kutatók, beleértve a csapatunkat is, összpontosítottak különbségek hogy minden mélyhamisítványnak megvan valódi videókhoz képest. A hamisított videókat gyakran úgy hozzák létre, hogy egyesítik az egyénileg létrehozott képkockákat, és videókat készítenek. Ezt figyelembe véve csapatunk módszerei kinyerik a lényeges adatokat a videó egyes képkockáinak arcaiból, majd nyomon követik azokat egyidejű képkockák készletein keresztül. Ez lehetővé teszi számunkra, hogy következetlenségeket észleljünk az információáramlás egyik keretből a másikba. Hasonló megközelítést alkalmazunk a hamis hangfelismerő rendszerünknél is.

Ezeket a finom részleteket az emberek nehezen látják, de megmutatják, hogy a mélyhamisítások nem egészen milyenek még tökéletes. Az ilyen detektorok bárki számára működhetnek, nem csak néhány világvezetőnek. Végül is előfordulhat, hogy mindkét típusú mélyfake -érzékelőre szükség lesz.

A legújabb észlelő rendszerek nagyon jól teljesítenek a kifejezetten az eszközök értékelésére összegyűjtött videókon. Sajnos még a legjobb modellek is rosszul találhatók az interneten talált videók. Ezeknek az eszközöknek a hatékonyabbá és hasznosabbá fejlesztése a következő kulcsfontosságú lépés.

Ki használjon mélyhamis detektorokat?

Ideális esetben egy mélyreható ellenőrző eszköznek mindenki számára elérhetőnek kell lennie. Ez a technológia azonban a fejlesztés korai szakaszában van. A kutatóknak fejleszteniük kell az eszközöket, és meg kell védeniük őket a hackerek ellen, mielőtt széles körben elengednék őket.

Ugyanakkor a mélyhamisítások eszközei mindenki számára elérhetőek, akik meg akarják bolondítani a nyilvánosságot. A pálya szélén ülni nem lehet. Csapatunk számára az egyensúly az újságírókkal való együttműködés volt, mert ők jelentik az első védelmi vonalat a téves információk elterjedése ellen.

A történetek közzététele előtt az újságíróknak ellenőrizniük kell az információkat. Rendelkeznek már bevált módszerekkel, például ellenőrzik a forrásokat, és több embert is felkérnek a legfontosabb tények ellenőrzésére. Így az eszközt a kezükbe adva több információt adunk nekik, és tudjuk, hogy nem fognak egyedül a technológiára támaszkodni, tekintettel arra, hogy hibázhat.

A detektorok megnyerhetik a fegyverkezési versenyt?

Biztató látni a csapatokat Facebook és a microsoft befektetés a technológiába a mélyhamisítások megértése és felderítése érdekében. Ez a terület további kutatást igényel, hogy lépést tudjon tartani a mélyfake technológiák fejlődésével.

Az újságíróknak és a közösségi média platformjainak ki kell deríteniük, hogyan lehet a legjobban figyelmeztetni az embereket a mélyhamisításokra, amikor észlelik őket. Kutatások bebizonyították az emberek emlékeznek a hazugságra, de nem az a tény, hogy hazugság volt. Ugyanez igaz a hamis videókra is? Egyszerűen a „Deepfake” felirat a címbe nem elegendő bizonyos fajta dezinformáció elleni küzdelemhez.

A Deepfakes itt marad. A dezinformáció kezelése és a nyilvánosság védelme minden eddiginél nagyobb kihívást jelent, mivel a mesterséges intelligencia egyre erősebb lesz. Egy növekvő kutatóközösség részei vagyunk, amely vállalja ezt a fenyegetést, amelynek észlelése csak az első lépés.A beszélgetés

A szerzőkről

John Sohrawardi, számítástechnikai és informatikai doktorandusz, Rochester Műszaki Intézet és Matthew Wright, a számítástechnikai biztonság professzora, Rochester Műszaki Intézet

Ezt a cikket újra kiadják A beszélgetés Creative Commons licenc alatt. Olvassa el a eredeti cikkben.