A mesterséges intelligencia most utánozhatja az emberi viselkedést, és hamarosan veszélyesen jó leszEz az arc csak a számítógép bitjeinek összeszerelése? PHOTOCREO Michal Bednarek / Shutterstock.com

Amikor a mesterséges intelligencia rendszerek kreatívakká válnak, nagyszerű dolgokat hozhatnak létre - és félelmeteseket. Vegyünk például egy AI programot, amely lehetővé teszi a webfelhasználók zenét komponálnak valamint egy virtuális Johann Sebastian Bach azáltal, hogy jegyzeteket ír be egy olyan programba, amely Bach-szerű harmóniákat generál, hogy azok megfeleljenek.

A Google üzemelteti, az alkalmazás drew nagy dicséret amiért úttörő és szórakoztató játék. Ez is vonzott kritika, és aggályokat vetett fel az AI veszélyei miatt.

Tanulmányom, hogyan a feltörekvő technológiák befolyásolják az emberek életét megtanított arra, hogy a problémák túlmutatnak a kétségkívül nagy aggodalmakon hogy algoritmusok valóban zenét létrehozni vagy általában a művészet. Néhány panasz csekélynek tűnt, de valójában nem volt olyan, mint a Google intelligenciája az alapvető szabályok megszegése zeneszerzés.

Valójában a számítógépek utánzása a tényleges emberek viselkedését zavaró és potenciálisan káros lehet.


belső feliratkozási grafika


A megszemélyesítés technológiái

A Google programja Bach zeneműveinek 306 jegyzetét elemezte, összefüggéseket talált a dallam és a harmóniát adó hangok között. Mivel Bach betartotta az összetétel szigorú szabályait, a program hatékonyan megtanulta ezeket a szabályokat, így azokat akkor is alkalmazhatta, amikor a felhasználók saját jegyzeteiket adták meg.

 A Google Doodle csapata elmagyarázza a Bach programot.

{youtube}XBfYPp6KF2g{/youtube}

Maga a Bach alkalmazás új, de a mögöttes technológia nem az. Képzett algoritmusok felismeri a mintákat és készíts valószínűségi döntések régóta léteznek. Ezen algoritmusok egy része annyira összetett, hogy az emberek nem mindig érted hogyan hoznak döntéseket vagy hoznak egy adott eredményt.

Az AI rendszerek nem tökéletesek - sokan támaszkodnak nem reprezentatív adatok vagy az egész népesség emberi elfogultságok befolyásolják. Nem teljesen világos akik jogi szempontból felelősek lehetnek amikor egy AI rendszer hibát követ el vagy problémát okoz.

Most azonban a mesterséges intelligencia technológiái eléggé fejlõdnek ahhoz, hogy közelítsék az egyének írás- vagy beszédstílusát, sőt az arckifejezéseket is. Ez nem mindig rossz: Egy meglehetősen egyszerű mesterséges intelligencia megadta Stephen Hawkingnak kommunikációs képesség hatékonyabban másokkal, megjósolva azokat a szavakat, amelyeket a legjobban használ.

Összetettebb programok, amelyek utánozzák az emberi hangokat segíteni a fogyatékossággal élő embereket -, de felhasználható a hallgatók megtévesztésére is. Például a lantfarkúmadár-félék, egy hangutánzó program, kiadták a szimulált beszélgetés Barack Obama, Donald Trump és Hillary Clinton között. Lehet, hogy valódinak hangzik, de ez a csere soha nem történt meg.

A jótól a rosszig

2019 februárjában az OpenAI nonprofit vállalat létrehozott egy olyan programot, amely a szöveget generálja gyakorlatilag nem különböztethető meg a szövegtől emberek írták. „Stílusú” beszédet képes írni John F. Kennedy, JRR Tolkien aA Lord of the Rings”Vagy egy hallgató ír iskolai feladat az amerikai polgárháborúról.

Az OpenAI szoftvere által generált szöveg annyira hihető, hogy a vállalat választotta hogy ne engedje el maga a program.

Hasonló technológiák képesek szimulálni a fényképeket és videókat. 2018 elején például Jordan Peele színész és filmrendező készített egy videót, amely megmutatta, hogy Barack Obama volt amerikai elnök azt mondja: amit Obama valójában soha nem mondott figyelmeztetni a nyilvánosságot e technológiák által jelentett veszélyekre.

Vigyázzon, milyen videóknak hisz.

{youtube}cQ54GDm1eL0{/youtube}

2019 elején a hamis aktfotó Alexandria Ocasio-Cortez, az Egyesült Államok képviselője online keringett. Kidolgozott videók, gyakran „deepfakes, ”Várhatóan egyre inkább használt választási kampányokban.

A kongresszus tagjai elkezdték vizsgálni ezt a kérdést a 2020-as választások előtt. Az Egyesült Államok Védelmi Minisztériuma tanítja a nyilvánosságot hogyan lehet észrevenni a doktorált videókat és audio. A hírszervezetek, mint Reuters képezni kezdik az újságírókat a mélyhamisítások észlelésére.

Véleményem szerint azonban még ennél is nagyobb aggodalom marad: Lehet, hogy a felhasználók nem tudnak elég gyorsan tanulni ahhoz, hogy megkülönböztessék a hamis tartalmat, mivel az AI technológia kifinomultabbá válik. Például, amikor a nyilvánosság kezdi tudomásul venni a mélyhamisításokat, az AI-t már használják még fejlettebb megtévesztésekre. Vannak olyan programok, amelyek képesek generálni hamis arcok és a hamis digitális ujjlenyomatok, hatékonyan létrehozzák az egész ember gyártásához szükséges információkat - legalábbis a vállalati vagy kormányzati nyilvántartásokban.

A gépek folyamatosan tanulnak

Jelenleg elegendő potenciális hiba van ezekben a technológiákban, hogy esélyt adjon az embereknek a digitális koholmányok észlelésére. A Google Bach zeneszerzője elkövetett néhány hibát egy szakértő észlelhette. Például, amikor megpróbáltam, a program lehetővé tette, hogy belépjek párhuzamos ötödik, egy zenei intervallum, amelyet Bach szorgalmasan kerülte. Az alkalmazás is megszegte a zenei szabályokat ellenpontot a dallamok rossz kulcsban történő harmonizálásával. Hasonlóképpen, az OpenAI szöveggeneráló programja alkalmanként olyan kifejezéseket írt, minta víz alatt bekövetkező tüzek”Ennek semmi értelme nem volt összefüggéseikben.

Amint a fejlesztők alkotásaikon dolgoznak, ezek a hibák ritkábbak lesznek. Az AI technológiák hatékonyan fejlődnek és tanulnak. A javult teljesítmény számos társadalmi haszonnal járhat - ideértve a jobb egészségügyi ellátást is, mivel az AI programok segítenek demokratizálja az orvoslás gyakorlatát.

Ha a kutatóknak és a vállalatoknak szabadságot adunk a felfedezésre, hogy megkaphassuk ezeket a pozitív eredményeket az mesterséges intelligencia-rendszerektől, ez azt jelenti, hogy megnyílik annak a kockázata, hogy fejlettebb módszereket fejlesszenek ki a megtévesztés és más társadalmi problémák előidézésére. A mesterséges intelligencia-kutatás súlyosan korlátozó lehet megfékezni ezt a haladást. De előnyös technológiákat ad növekedési hely nem kis költséggel jár - és a visszaélések lehetősége - akár pontatlan „Bach-szerű” zene készítéséhez, akár milliók megtévesztéséhez - valószínűleg nőni fog olyan módon, amelyet az emberek még nem tudnak előre látni.A beszélgetés

A szerzőről

Ana Santos Rutschman, a jogi adjunktus, Saint Louis Egyetem

Ezt a cikket újra kiadják A beszélgetés Creative Commons licenc alatt. Olvassa el a eredeti cikk.

Kapcsolódó könyvek

at InnerSelf Market és Amazon