chat GPT
Prominens informatikusok és más technológiai ipar nevesek egy csoportja a mesterséges intelligencia technológiájának hat hónapos szüneteltetését kéri. (Shutterstock)

Informatikusok és technológiai iparági vezetők nemrégiben írt nyílt levele a mesterséges intelligencia fejlesztésének hat hónapos betiltását követelve több mint széleskörű figyelmet kapott az interneten. Még a kanadai innovációs miniszter, François-Philippe Champagne is válaszolt a levélre a Twitteren.

A Future of Life Institute nonprofit szervezet által közzétett levélben arra kérték az összes mesterségesintelligencia-laboratóriumot, hogy hagyják abba a GPT-4-nél, a ChatGPT mögött álló modellnél erősebb mesterséges intelligencia rendszerek képzését. A levél azt állítja, hogy a mesterséges intelligencia egy „ellenőrzés nélküli versenybe van zárva annak érdekében, hogy egyre erősebb digitális elméket fejlesszenek ki és alkalmazzanak, amelyeket senki – még az alkotóik sem – nem tud megérteni, előre jelezni vagy megbízhatóan irányítani”.

A levél azt feltételezi, hogy a mesterséges intelligencia „hatalmas digitális elmékké” válik vagy válhat – a az AI fejlődésének longtermista értelmezése hogy figyelmen kívül hagyja az AI-ról ma folyó fontos vitákat a jövőbeli aggodalmak helyett.

Hosszú távú gondolkodás és mesterséges intelligencia

A longtermizmus az az a meggyőződés, hogy a mesterséges intelligencia hosszú távú vagy egzisztenciális kockázatokat jelent az emberiség jövőjére nézve, mivel ellenőrizhetetlen szuperintelligenciává válik.


belső feliratkozási grafika


A szuperintelligens mesterséges intelligencia miatti aggodalmak általában a sci-fi dolgai. AI fantáziák egyike a sok félelemnek a Szilícium-völgyben ami oda vezethet sötét jóslatok. De mint a Torment Nexus mém, ezek az aggodalmak jelentős befektetést jelentenek, nem pedig óvatosságot. A legtöbb nagy technológiai cég rendelkezik levágták felelős AI-csapataikat.

A ChatGPT nyilvánvalóan nem a szuperintelligencia felé vezető út. A nyílt levél a mesterséges intelligencia nyelvi technológiáját, például a ChatGPT-t kognitív áttörésnek tekinti – olyasvalamit, amely lehetővé teszi, hogy az AI versenyezzen az emberekkel az általános feladatokban. De ez csak egy vélemény.

Sokan másnak tekintik a ChatGPT-t, annak GPT-4 modelljét és más nyelvtanulási modelleket "sztochasztikus papagájok" amelyek csupán megismétlik az interneten tanultakat, így azok megjelenik intelligens az emberek számára.

A szuperintelligencia vakfoltjai

A longtermizmusnak közvetlen politikai következményei vannak, amelyek a szuperintelligenciát helyezik előtérbe a sürgetőbb dolgokkal szemben, mint pl Az AI hatalmi egyensúlyhiánya. A longtermizmus néhány híve még a szuperintelligencia leállítását célzó szabályozást is sürgetőbbnek tekintik, mint a klímavészhelyzet kezelését.

Az AI-politikai következmények azonnaliak, nem is olyan távoliak. Mivel a GPT-4-et a teljes interneten betanítják, és kifejezetten kereskedelmi céljai vannak, kérdéseket vet fel a tisztességes kezeléssel és a méltányos használattal kapcsolatban.

Még mindig nem tudjuk, hogy a mesterséges intelligencia által generált szövegek és képek szerzői jogvédelem alá esnek-e, hiszen gépek és állatok szerzői joggal nem rendelkezhet.

Ami pedig az adatvédelmi kérdéseket illeti, a ChatGPT megközelítését nehéz megkülönböztetni egy másik AI-alkalmazástól, Clearview AI. Mindkét AI modellt a nyílt interneten gyűjtött hatalmas mennyiségű személyes információ felhasználásával képezték ki. Az olasz adatvédelmi hatóság nemrég tiltotta be a ChatGPT-t adatvédelmi aggályai miatt.

Ezeket a közvetlen kockázatokat nem említi a nyílt levél, amely a vad filozófia és a technikai megoldások között ingadozik, figyelmen kívül hagyva az előttünk álló kérdéseket.

A pragmatizmus elfojtása

A levél egy régi dinamikát követ, amelyet szerzőtársammal azonosítunk a hamarosan lektorált fejezet az AI irányításáról. Hajlamosak az AI vagy egzisztenciális kockázatnak, vagy valami hétköznapi és technikai dolognak tekinteni.

A két véglet közötti feszültség a nyílt levélben látható. A levél azzal kezdődik, hogy „a fejlett mesterséges intelligencia mélyreható változást jelenthet a földi élet történetében”, mielőtt „erőteljes állami finanszírozást kérne a mesterséges intelligencia-biztonsági kutatásokhoz”. Ez utóbbi azt sugallja, hogy a mesterséges intelligencia társadalmi ártalmai pusztán technikai projektek, amelyeket meg kell oldani.

E két végletre való összpontosítás kiszorítja azokat a fontos hangokat, amelyek megpróbálják pragmatikusan megvitatni a mesterséges intelligencia fent említett közvetlen kockázatait, valamint munkaügyi kérdések és így tovább.

A nyílt levélre fordított figyelem Kanadában különösen problematikus, mivel két másik levél is, amelyeket a művészek és a polgári szabadságjogi szervezetek, nem kaptak ugyanannyi figyelmet. Ezek a levelek reformokra és a mesterséges intelligencia irányításának szilárdabb megközelítésére szólítanak fel az általa érintettek védelme érdekében.

Szükségtelen elterelés az AI-törvény felé

A nyílt levélre adott kormányzati válaszok hangsúlyozták, hogy Kanadának vannak jogszabályai – a mesterséges intelligenciáról és adatokról szóló törvény (AIDA). A mesterséges intelligencia hosszú távú kockázatait arra használják fel, hogy az AIDA-hoz hasonlóan most siettessék a jogszabályokat.

Az AIDA fontos lépés a megfelelő mesterségesintelligencia-irányítási rendszer felé, de meg kell tennie jobb konzultálni az AI által érintettekkel végrehajtása előtt. Nem lehet elsietni, hogy válaszoljon a vélt hosszú távú félelmekre.

A levélben az AI-jogszabályozás siettetésére irányuló felszólítás végül ugyanannak a néhány cégnek az előnyére válhat, amelyek ma az AI-kutatást irányítják. A konzultációra, a nyilvános műveltség javítására és a mesterséges intelligencia által érintettek meghallgatására való idő hiányában az AIDA azt kockáztatja, hogy az AI elszámoltathatóságát és auditálását olyan intézményekre hárítja át, amelyek már jó helyzetben vannak ahhoz, hogy hasznot húzzanak a technológiából, piacot teremtve egy új AI-audit iparág számára.

Lehet, hogy az emberiség sorsa nem dől el, de a mesterséges intelligencia jó kormányzása minden bizonnyal igen.A beszélgetés

A szerzőről

Fenwick McKelvey, az információs és kommunikációs technológiai politika docense, Concordia Egyetem

Ezt a cikket újra kiadják A beszélgetés Creative Commons licenc alatt. Olvassa el a eredeti cikk.