Még akkor is, ha úgy gondolja, hogy jó az arcok elemzésében, a kutatás azt mutatja sokan nem tudják megbízhatóan megkülönböztetni a valódi arcokról készült fényképeket a számítógéppel készített képektől. Ez különösen problematikus most, amikor a számítógépes rendszerek valósághű képeket tudnak készíteni nem létező emberekről.
Nemrég egy hamis LinkedIn-profil egy számítógéppel generált profilképpel került a hírbe, mert az sikeres kapcsolatban áll az Egyesült Államok tisztviselőivel és más befolyásos személyekkel például a hálózati platformon. A kémelhárítás szakértői azt mondják, hogy a kémek rendszeresen fantomprofilokat készítenek ilyen képekkel. külföldi célpontokhoz juthat el a közösségi médián keresztül.
Ezek a mély hamisítványok egyre szélesebb körben elterjednek a mindennapi kultúrában, ami azt jelenti, hogy az embereknek jobban tisztában kell lenniük azzal, hogyan használják őket a marketingben, a reklámokban és a közösségi médiában. A képeket rosszindulatú célokra is felhasználják, például politikai propagandára, kémkedésre és információs hadviselésre.
Ezek elkészítése magában foglalja az úgynevezett mély neurális hálózatot, egy számítógépes rendszert, amely utánozza az agy tanulási módját. Ezt úgy „kiképezték”, hogy egyre nagyobb, valódi arcokat tartalmazó adathalmazoknak teszik ki.
Valójában két mély neurális hálózat áll egymással szemben, versengve a legvalósághűbb képek előállításáért. Ennek eredményeként a végtermékeket GAN képeknek nevezik, ahol a GAN a Generative Adversarial Networks rövidítése. A folyamat új képeket generál, amelyek statisztikailag megkülönböztethetetlenek a képzési képektől.
Az iScience-ben megjelent tanulmányunkban, megmutattuk, hogy ha nem tudjuk megkülönböztetni ezeket a mesterséges arcokat a valóditól, az hatással van online viselkedésünkre. Kutatásunk azt sugallja, hogy a hamis képek alááshatják a másokba vetett bizalmunkat, és alaposan megváltoztathatják az online kommunikációnkat.
Kollégáimmal azt találtuk, hogy az emberek a GAN-arcokat még valóságosabbnak látják, mint a valódi arcokról készült valódi fényképeket. Bár még nem világos, hogy miért van ez, ez a megállapítás igen kiemeli a technológia legújabb fejlesztéseit mesterséges képek előállítására használják.
És találtunk egy érdekes kapcsolatot a vonzerővel is: a kevésbé vonzónak minősített arcokat valódibbnak is értékelték. A kevésbé vonzó arcokat inkább tipikusnak és a tipikus arc referenciaként használható amelyhez képest minden arcot értékelnek. Ezért ezek a GAN-arcok valóságosabbnak tűnnének, mert jobban hasonlítanak az emberek által a mindennapi életből épített mentális sablonokhoz.
De ha ezeket a mesterséges arcokat hitelesnek látjuk, az hatással lehet a bizalom általános szintjére is, amelyet ismeretlen emberek körére kiterjesztünk – ez a fogalom „társadalmi bizalom” néven ismert.
Gyakran túl sokat olvasunk a látott arcokba, és a az általunk kialakított első benyomások irányítják társas interakcióinkat. Egy második kísérletben, amely a legfrissebb tanulmányunk részét képezte, azt tapasztaltuk, hogy az emberek nagyobb valószínűséggel bíznak az általuk korábban valódinak ítélt arcok által közvetített információkban, még akkor is, ha azokat mesterségesen generálták.
Szerezd meg a legújabb e-mailben
Nem meglepő, hogy az emberek jobban bíznak azokban az arcokban, amelyeket valódinak hisznek. De azt tapasztaltuk, hogy a bizalom megromlott, miután az embereket tájékoztatták a mesterséges arcok lehetséges jelenlétéről az online interakciókban. Ezután összességében alacsonyabb szintű bizalmat mutattak – függetlenül attól, hogy az arcok valódiak-e vagy sem.
Ez az eredmény bizonyos szempontból hasznosnak tekinthető, mert gyanakvóbbá tette az embereket egy olyan környezetben, ahol hamis felhasználók működhetnek. Más szemszögből nézve azonban fokozatosan erodálhatja kommunikációnk természetét.
Általában szoktunk műteni alapfeltevés, hogy más emberek alapvetően igazak és megbízhatóak. Az álprofilok és más mesterséges online tartalmak számának növekedése felveti a kérdést, hogy jelenlétük és a róluk szerzett ismereteink mennyire változtathatják meg ezt az „igazság alapértelmezett” állapotát, ami végül alááshatja a társadalmi bizalmat.
Alapbeállításaink megváltoztatása
Az átmenet egy olyan világba, ahol a valóságos megkülönböztethetetlen a nemtől, a kulturális tájat is elmozdíthatja az elsődlegesen igazmondásból a mesterséges és megtévesztő világba.
Ha rendszeresen megkérdőjelezzük az interneten tapasztaltak valóságtartalmát, akkor szükség lehet arra, hogy szellemi erőfeszítéseinket az üzenetek feldolgozásától a hírnök személyazonosságának feldolgozásáig fordítsuk át. Más szóval, a rendkívül valósághű, mégis mesterséges online tartalmak széles körben elterjedt használata megkövetelheti tőlünk, hogy másként gondolkodjunk – olyan módon, ahogyan nem is számítottunk rá.
A pszichológiában a „valóságfigyelésnek” nevezett kifejezést használjuk arra vonatkozóan, hogyan tudjuk helyesen azonosítani, hogy valami a külső világból vagy az agyunkból érkezik-e. A hamis, mégis rendkívül valósághű arcokat, képeket és videohívásokat előállító technológiák fejlődése azt jelenti, hogy a valóság megfigyelésének a saját ítéleteinktől eltérő információkon kell alapulnia. Egyúttal szélesebb körű vitára is szükség van arról, hogy az emberiség megengedheti-e még mindig az igazságot.
Kulcsfontosságú, hogy az emberek kritikusabbak legyenek a digitális arcok értékelésekor. Ez magában foglalhatja a fordított képkeresések használatát annak ellenőrzésére, hogy a fotók valódiak-e, óvakodni kell a kevés személyes adatot vagy sok követőt tartalmazó közösségi média profiloktól, és tudatában lenni annak, hogy a mélyhamisítási technológia aljas célokra használható fel.
Ezen a területen a következő határt a hamis digitális arcok észlelésére szolgáló algoritmusok fejlesztése kell, hogy képezzék. Ezeket azután be lehetne ágyazni a közösségi média platformokba, hogy segítsenek megkülönböztetni az igazit a hamistól, amikor új kapcsolatokról van szó.
A szerzőről
Manos Tsakiris, pszichológia professzor, az Érzéspolitikai Központ igazgatója, Royal Holloway Egyetem, London
Ezt a cikket újra kiadják A beszélgetés Creative Commons licenc alatt. Olvassa el a eredeti cikk.