Shutterstock/Valentyn640

1956-ban egy éves londoni utazás során, a húszas évei elején a matematikus és elméleti biológus, Jack D. Cowan meglátogatta Wilfred Taylort és furcsa újtanuló gép”. Megérkezésekor megdöbbentette a „hatalmas apparátusbank”, amivel szembe kellett néznie. Cowan csak bámulni tudott, és nézte, „a gép teszi a dolgát”. Úgy tűnt, hogy „asszociatív memóriasémát” hajtott végre – úgy tűnt, hogy képes megtanulni kapcsolatokat találni és adatokat visszakeresni.

Úgy nézhetett ki, mint az áramköri blokkok, amelyeket kézzel forrasztottak össze vezetékek és dobozok tömegében, de Cowan szemtanúja volt egy neurális hálózat korai analóg formája – a mai legfejlettebb mesterséges intelligencia előfutára, beleértve a sokat tárgyaltak ChatGPT azzal a képességével, hogy szinte bármilyen parancsra reagálva írott tartalmat generál. A ChatGPT mögöttes technológia egy neurális hálózat.

Miközben Cowan és Taylor állva nézték a gép működését, valójában fogalmuk sem volt arról, hogy pontosan hogyan tudja végrehajtani ezt a feladatot. Taylor rejtélyes gépagyára a válasz valahol az „analóg neuronjaiban”, a gépmemória által keltett asszociációkban, és ami a legfontosabb, abban, hogy az automatizált működését nem igazán lehetett teljes mértékben megmagyarázni, megtalálható. Évtizedekbe telne, amíg ezek a rendszerek megtalálják a céljukat, és feloldják ezt az erőt.

A neurális hálózat kifejezés a rendszerek széles skáláját foglalja magában, mégis központilag, az IBM szerint, ezek a „neurális hálózatok – más néven mesterséges neurális hálózatok (ANN-ok) vagy szimulált neurális hálózatok (SNN-ek) – a gépi tanulás egy részhalmazát képezik, és a mély tanulási algoritmusok középpontjában állnak. Lényeges, hogy magát a kifejezést, valamint azok formáját és szerkezetét az emberi agy ihlette, utánozva azt a módot, ahogy a biológiai neuronok jeleket adnak egymásnak.

A kezdeti szakaszban maradhatott némi kétely értékükkel kapcsolatban, de az évek múlásával a mesterséges intelligencia divatja határozottan a neurális hálózatok felé fordult. Manapság gyakran úgy értelmezik, hogy az AI jövője. Nagy hatással vannak ránk és arra, hogy mit jelent embernek lenni. hallottuk ezek az aggodalmak a közelmúltban felhívással, hogy szüneteltesse az új mesterséges intelligencia fejlesztéseket hat hónapos időszakra, hogy meggyőződhessen azok következményeiről.


belső feliratkozási grafika


Minden bizonnyal hiba lenne elvetni a neurális hálózatot, mivel az kizárólag fényes, szemet gyönyörködtető új eszközökről szól. Már jól beépültek az életünkbe. Vannak, akik gyakorlatiasságukban erősek. Már 1989-ben egy Yann LeCun által vezetett csapat az AT&T Bell Laboratories-nél visszaszaporítási technikákat használt, hogy kiképezzen egy rendszert felismeri a kézzel írt irányítószámokat. A legutóbbi a Microsoft közleménye hogy a Bing-kereséseket mesterséges intelligencia hajtja majd, így ez lesz a „webes másodpilóta”, azt szemlélteti, hogy az általunk felfedezett dolgok és hogyan értjük őket egyre inkább az ilyen típusú automatizálás termékei lesznek.

Hatalmas adatok felhasználása a minták megtalálásához Az AI-t hasonlóképpen meg lehet tanítani olyan dolgokra, mint például a gyors képfelismerés – ami azt eredményezi, hogy ezek beépülnek arcfelismerő, például. Ez a minták azonosításának képessége számos más alkalmazáshoz vezetett, mint pl tőzsdék előrejelzése.

A neurális hálózatok megváltoztatják azt is, ahogyan értelmezzük és kommunikálunk. Fejlesztette az érdekes című Google Brain Team, Google Translate a neurális hálózat másik kiemelkedő alkalmazása.

Nem akarsz sakkozni vagy Shogit sem játszani. A szabályok megértése, valamint a stratégiák és az összes rögzített mozgás felidézése azt jelenti, hogy kivételesen jók a játékokban (bár úgy tűnik, a ChatGPT küzdj Wordle-lel). Az emberi Go játékosokat (a Go egy köztudottan trükkös stratégiai társasjáték) és a sakk nagymestereket zavaró rendszerek a következők: neurális hálózatokból készült.

De hatókörük messze túlmutat ezeken az eseteken, és folyamatosan bővül. A szabadalmak keresése, amely csak a „neurális hálózatok” kifejezés pontos említésére korlátozódik, 135,828 XNUMX eredményt ad. Ezzel a gyors és folyamatos terjeszkedéssel egyre csökken az esélye annak, hogy teljes mértékben meg tudjuk magyarázni az AI hatását. Ezeket a kérdéseket vizsgáltam kutatásom során és az új könyvem az algoritmikus gondolkodásról.

A „kiismerhetetlenség” titokzatos rétegei

Ha visszatekintünk a neurális hálózatok történetére, valami fontosat árul el azokról az automatizált döntésekről, amelyek meghatározzák jelenünket, vagy azokról, amelyeknek a jövőben még mélyebb hatása lesz. Jelenlétük azt is jelzi, hogy idővel valószínűleg még kevésbé fogjuk megérteni az AI döntéseit és hatásait. Ezek a rendszerek nem egyszerűen fekete dobozok, nem csupán egy rendszer rejtett részei, amelyeket nem lehet látni vagy megérteni.

Ez valami más, valami, ami ezeknek a rendszereknek a céljaiban és kialakításában gyökerezik. Régóta törekszik a megmagyarázhatatlanra. Minél átláthatatlanabb, annál hitelesebbnek és fejlettebbnek gondolják a rendszert. Nem csak a rendszerek bonyolultabbá válásáról vagy a hozzáférést korlátozó szellemi tulajdon ellenőrzéséről van szó (bár ezek is hozzátartoznak). Ehelyett azt mondjuk, hogy az őket mozgató szellemiség sajátos és beágyazott érdeke a „kiismerhetetlenség”. A rejtély még a neurális hálózat formájába és diskurzusába is bele van kódolva. Mélyen halmozott rétegekkel érkeznek – innen ered a mély tanulás kifejezés –, és ezeken a mélységeken belül vannak a még titokzatosabban hangzó „rejtett rétegek”. E rendszerek titkai mélyen a felszín alatt vannak.

Jó esély van rá, hogy minél nagyobb hatást gyakorol a mesterséges intelligencia az életünkre, annál kevésbé fogjuk megérteni, hogyan és miért. Napjainkban erős nyomást gyakorolnak az AI-ra, ami megmagyarázható. Szeretnénk tudni, hogyan működik, és hogyan jut el a döntésekhez és az eredményekhez. Az EU-t annyira aggasztják a potenciálisan „elfogadhatatlan kockázatok”, sőt „veszélyes” alkalmazások, hogy jelenleg is halad új mesterséges intelligencia törvény célja, hogy „globális mércét” állítson fel „biztonságos, megbízható és etikus mesterséges intelligencia fejlesztésére”.

Ezek az új törvények a megmagyarázhatóság igényén fognak alapulni, ezt követelve „A magas kockázatú mesterségesintelligencia-rendszerek esetében a kiváló minőségű adatok, a dokumentáció és a nyomon követhetőség, az átláthatóság, az emberi felügyelet, a pontosság és a robusztusság követelményei feltétlenül szükségesek az MI által az alapvető jogokra és biztonságra vonatkozó kockázatok mérsékléséhez”. Ez nem csak olyan dolgokról szól, mint az önvezető autók (bár a biztonságot biztosító rendszerek az EU magas kockázatú mesterséges intelligencia kategóriájába tartoznak), hanem az is aggodalomra ad okot, hogy a jövőben olyan rendszerek jelennek meg, amelyek hatással lesznek az emberi jogokra.

Ez része a mesterséges intelligencia átláthatóságára irányuló szélesebb körű felhívásoknak, hogy tevékenységét ellenőrizni, auditálni és értékelni lehessen. Egy másik példa a Királyi Társaságé politikai eligazítás a megmagyarázható AI-ról amelyben rámutatnak arra, hogy „a politikai viták világszerte egyre gyakrabban látnak igényt a mesterséges intelligencia megmagyarázhatóságának valamilyen formájára, az AI-kompatibilis rendszerek tervezésébe és telepítésébe az etikai elvek beágyazására irányuló erőfeszítések részeként”.

A neurális hálózatok története azonban azt mondja nekünk, hogy a jövőben valószínűleg távolabb kerülünk ettől a céltól, mintsem közelebb kerülünk hozzá.

Az emberi agy ihlette

Ezek a neurális hálózatok összetett rendszerek lehetnek, mégis van néhány alapelvük. Az emberi agy ihlette, a biológiai és emberi gondolkodás formáit próbálják másolni vagy szimulálni. Felépítését és kialakítását tekintve olyanok, mint Az IBM is elmagyarázza, amely „bemeneti réteget, egy vagy több rejtett réteget és kimeneti réteget tartalmazó csomóponti rétegekből áll”. Ezen belül „minden csomópont vagy mesterséges neuron kapcsolódik a másikhoz”. Mivel a kimenetek létrehozásához bemenetekre és információkra van szükségük, „tanulási adatokra támaszkodnak, hogy megtanulják, és idővel javítsák pontosságukat”. Ezek a technikai részletek számítanak, de az is fontos, hogy ezeket a rendszereket az emberi agy összetettsége alapján modellezzék.

A rendszerek mögött rejlő ambíció megragadása létfontosságú annak megértéséhez, hogy ezek a technikai részletek mit jelentenek a gyakorlatban. Az a 1993 interjúTeuvo Kohonen neurális hálózatkutató arra a következtetésre jutott, hogy egy „önszerveződő” rendszer „az álmom”, amely „valami olyasmit működtet, mint amit idegrendszerünk ösztönösen csinál”. Példaként Kohonen elképzelte, hogy egy „önszerveződő” rendszer, egy olyan rendszer, amely önmagát figyeli és kezeli, „minden gép felügyeleti paneljeként használható… minden repülőgépen, sugárhajtású repülőgépen, minden atomerőműben, vagy minden egyes gépen. autó". Ez szerinte azt jelentené, hogy a jövőben „azonnal látni lehet, milyen állapotban van a rendszer”.

Az átfogó cél egy olyan rendszer létrehozása volt, amely képes alkalmazkodni a környezetéhez. Azonnali és autonóm lenne, az idegrendszer stílusában működne. Ez volt az álom, hogy olyan rendszerek legyenek, amelyek képesek önmagukat kezelni anélkül, hogy sok emberi beavatkozásra lenne szükség. Az agy, az idegrendszer és a való világ bonyolultsága és ismeretlenségei hamarosan a neurális hálózatok fejlesztésének és tervezésének alapjául szolgálnak majd.

"Valami rosszindulatú ebben"

De visszaugorva 1956-hoz és ahhoz a furcsa tanulógéphez, Cowan figyelmét az a gyakorlati megközelítés, amelyet Taylor az építés során alkalmazott, azonnal felkeltette. Nyilvánvalóan izzadt a darabok és darabok összeállítása miatt. Taylor, Cowan megfigyelte egy interjú során a saját részéről ezeknek a rendszereknek a történetében „nem elméletileg csinálta, és nem számítógépen tette”. Ehelyett szerszámokkal a kezében „valójában megépítette a hardvert”. Anyagi dolog volt, alkatrészek kombinációja, talán még mesterség is. És ez „minden analóg áramkörrel készült”, Taylor, Cowan megjegyzi, hogy „több éven keresztül megépült és játszani kellett vele”. Próba és hiba esete.

Cowan érthető módon meg akarta birkózni azzal, amit látott. Megpróbálta rávenni Taylort, hogy magyarázza el neki ezt a tanulógépet. Nem jöttek a pontosítások. Cowan nem tudta rávenni Taylort, hogy írja le neki, hogyan működik a dolog. Az analóg neuronok rejtélyek maradtak. Cowan szerint a meglepőbb probléma az volt, hogy Taylor „nem igazán értette, mi történik”. Ez nem csak egy pillanatnyi megszakadás volt a kommunikációban a két különböző szakterületű tudós között, hanem többről volt szó.

Egy interjú az 1990-es évek közepéről, visszagondolva Taylor gépére, Cowan felfedte, hogy „a publikált lapokban a mai napig nem érthető, hogyan működik”. Ez a következtetés arra utal, hogy az ismeretlen mélyen beágyazódott a neurális hálózatokba. Ezeknek az idegrendszereknek a megmagyarázhatatlansága már a közel hét évtizedes alap- és fejlődési szakaszoktól kezdve jelen van.

Ez a rejtély ma is megmarad, és az MI fejlődő formáiban keresendő. A Taylor gépezet által keltett asszociációk működésének kifürkészhetetlensége arra késztette Cowant, hogy vajon van-e benne „valami rosszindulatú”.

Hosszú és kusza gyökerek

Cowan a Taylornál tett rövid látogatására utalt, amikor néhány évvel később saját munkájának fogadtatásáról kérdezték. Cowan szerint az 1960-as években az emberek „kicsit lassúak voltak, hogy megértsék az analóg neurális hálózat értelmét”. Ez annak ellenére történt – emlékszik vissza Cowan –, hogy Taylor 1950-es években az „asszociatív emlékezetről” szóló munkája „analóg neuronokon” alapult. A Nobel-díjas idegrendszeri szakértő, – fejezte be Leon N. Cooper hogy az agymodell alkalmazása körüli fejleményeket az 1960-as években „a mély rejtélyek közé sorolták”. E bizonytalanság miatt továbbra is szkepticizmus maradt a tekintetben, hogy mit érhet el egy neurális hálózat. De a dolgok lassan változni kezdtek.

Mintegy 30 évvel ezelőtt Walter J. Freeman idegtudós, akit meglepett a „figyelemre méltó” a neurális hálózatokra talált alkalmazások köre már azt kommentálta, hogy nem tekinti őket „alapvetően újfajta gépnek”. Lassan leégtek, először a technológia jött, majd későbbi alkalmazásokat találtak rá. Ez időbe telt. Valójában, hogy megtaláljuk a neurális hálózati technológia gyökereit, még messzebbre nyúlhatunk vissza, mint Cowan látogatása Taylor titokzatos gépén.

James Anderson neurális hálózatkutató és Edward Rosenfeld tudományos újságíró megjegyezte hogy a neurális hálózatok háttere az 1940-es évekre nyúlik vissza, és néhány korai kísérlet arra, hogy – ahogy leírják – „az emberi idegrendszert megértsék, és olyan mesterséges rendszereket építsenek ki, amelyek legalább egy kicsit úgy működnek, mint mi”. Így az 1940-es években az emberi idegrendszer rejtelmei a számítógépes gondolkodás és a mesterséges intelligencia rejtelmeivé is váltak.

Összefoglalva ezt a hosszú történetet a számítástechnikai író Larry Hardesty rámutatott hogy a neurális hálózatok formájában megvalósuló mély tanulás „több mint 70 éve megy és megy ki a divatból”. Pontosabban hozzáteszi, ezeket a „neurális hálózatokat először 1944-ben javasolta Warren McCulloch és Walter Pitts, a Chicagói Egyetem két kutatója, akik 1952-ben az MIT-hez költöztek, mint az úgynevezett első kognitív tudományi tanszék alapítói”.

Máshol, 1943 néha a megadott dátum a technológia első éve. Akárhogy is, a beszámolók nagyjából 70 éve azt sugallják, hogy a neurális hálózatok divatba jöttek és kikerültek, gyakran elhanyagolták őket, de néha megragadtak, és áttértek a mainstream alkalmazásokba és vitákba. A bizonytalanság megmaradt. Azok a korai fejlesztők gyakran úgy írják le kutatásuk fontosságát, hogy figyelmen kívül hagyják, mígnem gyakran évekkel, néha évtizedekkel később találta meg célját.

Az 1960-as évektől az 1970-es évek végére haladva további történeteket találhatunk e rendszerek ismeretlen tulajdonságairól. Még akkor is, három évtized után, a neurális hálózatnak még mindig meg kellett találnia a célját. David Rumelhart, aki pszichológiai múlttal rendelkezett, és társszerzője volt egy 1986-ban megjelent könyvnek, amely később ismét a neurális hálózatok felé terelte a figyelmet, azon kapta magát, hogy együttműködik a neurális hálózatok fejlesztésében. kollégájával, Jay McClellanddal.

Amellett, hogy kollégák voltak, nemrégiben találkoztak egymással egy minnesotai konferencián, ahol Rumelhart „történetmegértésről” szóló előadása némi vitát váltott ki a küldöttek között.

A konferenciát követően McClelland visszatért egy olyan neurális hálózat kifejlesztésére, amely interaktívabbá teheti a modelleket. Itt az a fontos Rumelhart visszaemlékezése a „számítógépen való trükközés óráiról”.

Leültünk, és mindezt a számítógépben csináltuk, megépítettük ezeket a számítógépmodelleket, és egyszerűen nem értettük őket. Nem értettük, miért működnek, miért nem működnek, vagy mi a kritikus bennük.

Taylorhoz hasonlóan Rumelhart is azon kapta magát, hogy bütyköli a rendszert. Ők is létrehoztak egy működő neurális hálózatot, és ami a legfontosabb, azt sem tudták, hogyan és miért működik úgy, ahogyan működik, látszólag tanultak az adatokból és találtak asszociációkat.

Az agy utánzása – rétegről rétegre

Talán már észrevetted, hogy amikor a neurális hálózatok eredetéről beszélünk, az agy képe és az általa kiváltott bonyolultság soha nem áll távol. Az emberi agy egyfajta sablonként működött ezeknek a rendszereknek. A korai szakaszban különösen az agy – még mindig a nagy ismeretlenek egyike – modellje lett a neurális hálózat működésének.

Tehát ezeket a kísérleti új rendszereket valami olyan mintájára alakították ki, amelynek működése maga nagyrészt ismeretlen volt. Carver Mead neuroinformatikai mérnök leleplezően beszélt a „kognitív jéghegy” koncepciójáról, amelyet különösen vonzónak talált. Ez csak a tudat jéghegyének csúcsa, aminek tudatában vagyunk, és ami látható. A többi mérete és formája a felszín alatt ismeretlen marad.

A 1998, James Anderson, aki egy ideje neurális hálózatokon dolgozott, megjegyezte, hogy amikor az agy kutatásáról van szó, „a fő felfedezésünk annak a tudata, hogy valójában nem tudjuk, mi történik”.

Részletes beszámolóban a A Financial Times 2018-benRichard Waters technológiai újságíró megjegyezte, hogy a neurális hálózatok „az emberi agy működésére vonatkozó elmélet alapján készülnek, és mesterséges neuronok rétegein továbbítják az adatokat, amíg azonosítható mintázat nem jön létre”. Waters javaslata szerint ez átütő problémát okoz, mivel „ellentétben a hagyományos szoftverprogramokban alkalmazott logikai áramkörökkel, nincs mód ennek a folyamatnak a nyomon követésére, hogy pontosan meghatározzuk, miért ad egy számítógép egy adott választ”. Waters következtetése az, hogy ezeket az eredményeket nem lehet feloldani. Az agy ilyen típusú modelljének alkalmazása, amely több rétegen keresztül viszi át az adatokat, azt jelenti, hogy a választ nem lehet könnyen visszakeresni. Ennek jó része a többszörös rétegezés.

Hardesty azt is megfigyelték, hogy ezek a rendszerek „lazán az emberi agyon vannak modellezve”. Ez arra készteti a lelkesedést, hogy egyre több feldolgozási komplexitást építsünk be annak érdekében, hogy megpróbáljunk megfelelni az agynak. Ennek a célnak az eredménye egy neurális háló, amely „több ezer vagy akár millió egyszerű feldolgozó csomópontból áll, amelyek egymással sűrűn kapcsolódnak”. Az adatok ezeken a csomópontokon keresztül csak egy irányba mozognak. Hardesty megfigyelte, hogy „egy egyes csomópont az alatta lévő réteg több csomópontjához kapcsolódhat, ahonnan adatokat kap, és a felette lévő rétegben több csomóponthoz, amelyekhez adatokat küld”.

Az emberi agy modelljei a kezdetektől részei voltak annak, ahogy ezeket a neurális hálózatokat kitalálták és megtervezték. Ez különösen érdekes, ha figyelembe vesszük, hogy az agy maga is az idő rejtélye volt (és sok szempontból még mindig az).

"Az alkalmazkodás az egész játék"

Az olyan tudósok, mint Mead és Kohonen, olyan rendszert akartak létrehozni, amely valóban képes alkalmazkodni ahhoz a világhoz, amelyben találta magát. Ez reagálna a feltételeire. Mead egyértelmű volt, hogy a neurális hálózatokban az az érték, hogy elősegítik az ilyen típusú alkalmazkodást. Akkoriban és erre a törekvésre gondolva, – tette hozzá Mead hogy az adaptáció előállítása „az egész játék”. Erre az alkalmazkodásra szükség van – vélekedett – „a való világ természete miatt”, amelyről azt a következtetést vonta le, hogy „túl változó ahhoz, hogy bármit is abszolút megtegyünk”.

Ezzel a problémával különösen számolni kell, mivel szerinte „az idegrendszer már régen kitalálta”. Ezek az újítók nemcsak az agyról és annak ismeretleneiről alkotott képpel dolgoztak, hanem kombinálták ezt a „valós világról” szóló vízióval és az ezzel járó bizonytalanságokkal, ismeretlenekkel és változékonyságokkal. Mead szerint a rendszereknek reagálniuk kell és alkalmazkodniuk kell a körülményekhez nélkül utasítás.

Körülbelül az 1990-es években Stephen Grossberg – a kognitív rendszerek szakértője a matematika, a pszichológia és az orvosbiológiai mérnökök területén – azzal is érvelt hosszú távon az alkalmazkodás volt a fontos lépés. Grossberg, miközben a neurális hálózatok modellezésén dolgozott, azt gondolta magában, hogy mindez „arról szól, hogy a biológiai mérő- és vezérlőrendszerek hogyan vannak kialakítva, hogy gyorsan és stabilan, valós időben alkalmazkodjanak a gyorsan ingadozó világhoz”. Amint azt korábban Kohonen „önszerveződő” rendszerről szóló „álmánál” láthattuk, a „valós világ” fogalma válik azzá a kontextussá, amelyben a válasz és az alkalmazkodás ezekbe a rendszerekbe kódolódik. Az, hogy ezt a valós világot hogyan értik és képzelik el, kétségtelenül meghatározza, hogy ezek a rendszerek hogyan vannak kialakítva az alkalmazkodásra.

Rejtett rétegek

Ahogy a rétegek szaporodtak, a mély tanulás új mélységeket vont be. A neurális hálózat képzése olyan képzési adatok felhasználásával történik, amelyek – magyarázta Hardesty, „az alsó rétegbe – a bemeneti rétegbe – táplálják, és áthalad a következő rétegeken, összetett módon szorozva és összeadva, míg végül gyökeresen átalakulva megérkezik a kimeneti réteghez”. Minél több réteg van, annál nagyobb az átalakítás, és annál nagyobb a távolság a bemenet és a kimenet között. A grafikus feldolgozó egységek (GPU-k) fejlesztése, például a játékok terén, tette hozzá Hardesty, „lehetővé tette, hogy az 1960-as évek egyrétegű hálózatai és az 1980-as évek két-három rétegű hálózatai tíz-, 15- vagy akár 50-essé váljanak. -a mai réteghálózatok”.

A neurális hálózatok egyre mélyebbek. Valójában Hardesty szerint ez a rétegek hozzáadása az, „amire a „mély tanulás” „mélysége” utal”. Ez azért számít, javasolja, mert „jelenleg a mély tanulás a felelős a legjobban teljesítő rendszerekért a mesterséges intelligencia kutatásának szinte minden területén”.

De a rejtély még mélyebb lesz. Ahogy a neurális hálózatok rétegei egyre magasabbra halmozódnak fel, összetettségük nőtt. Ez az úgynevezett „rejtett rétegek” növekedéséhez is vezetett e mélységekben. A neurális hálózatok rejtett rétegeinek optimális számáról szóló vita folyamatban van. A médiateoretikus Beatrice Fazi írta „Mivel egy mély neurális hálózat működik, az első neuronréteg (a bemeneti réteg) és az utolsó réteg (a kimeneti réteg) között elhelyezkedő rejtett idegi rétegekre támaszkodva, a mélytanulási technikák gyakran átlátszatlanok vagy még a neuronok számára is olvashatatlanok. programozók, akik eredetileg beállították őket”.

A rétegek növekedésével (beleértve a rejtett rétegeket is) egyre kevésbé magyarázhatóak – mint kiderült ismét, azok számára is, akik létrehozták őket. Hasonlóan állítja a prominens és interdiszciplináris újmédia gondolkodó, Katherine Hayles szintén megjegyezte hogy vannak határai annak, hogy „mennyit tudhatunk a rendszerről, ami a neurális háló és a mélytanulási algoritmusok „rejtett rétegére” vonatkozó eredményre vonatkozik”.

Követve a megmagyarázhatatlant

Összességében ezek a hosszú fejlesztések részei annak, amit a technológiaszociológus Taina Bucher az „ismeretlen problémájának” nevezte. Harry Collins tudományos ismeretekkel kapcsolatos befolyásos kutatását az AI területére is kiterjesztette rámutatott arra a neurális hálókkal az a cél, hogy ezeket – legalábbis kezdetben – ember is előállítsa, de „amint megírták, a program úgymond saját életét éli; hatalmas erőfeszítés nélkül rejtélyes maradhat, hogy pontosan hogyan működik a program”. Ennek visszhangja van az önszerveződő rendszerről szóló régóta fennálló álmoknak.

Hozzáteszem, hogy az ismeretlent, sőt talán a megismerhetetlent is ezeknek a rendszereknek a legkorábbi szakaszától fogva alapvető részeként keresték. Jó esély van rá, hogy minél nagyobb hatást gyakorol a mesterséges intelligencia az életünkre, annál kevésbé fogjuk megérteni, hogyan és miért.

De ez ma sokaknak nem áll jól. Szeretnénk tudni, hogyan működik az AI, és hogyan jut el a minket érintő döntésekhez és eredményekhez. Ahogy a mesterséges intelligencia fejlődése folyamatosan formálja tudásunkat és a világról alkotott megértését, azt, hogy mit fedezünk fel, hogyan bánnak velünk, hogyan tanulunk, fogyasztunk és kölcsönhatásba lépünk, ez a megértési késztetés növekedni fog. Ami a megmagyarázható és átlátható mesterséges intelligenciát illeti, a neurális hálózatok története azt mondja, hogy a jövőben valószínűleg távolabb kerülünk ettől a céltól, mintsem közelebb kerülünk hozzá.

David Beer, Szociológia professzor, Yorki Egyetem

Ezt a cikket újra kiadják A beszélgetés Creative Commons licenc alatt. Olvassa el a eredeti cikk.