Miért akarják a mesterséges intelligenciával foglalkozó cégek, hogy félj tőlük?
Ők építették meg. Félnek tőle. Mégis árulják. Állíts meg, ha már hallottad ezt: egy techcég azt állítja, hogy olyan
Ők építették meg. Félnek tőle. Mégis árulják.
Állíts meg, ha már hallottad ezt: egy techcég azt állítja, hogy olyan új mesterséges intelligenciát hozott létre, amely annyira erős, hogy ijesztő. Állítólag túl veszélyes ahhoz, hogy kiengedjék a világba a következmények katasztrofálisak lennének. Szerencsére egyelőre zár alatt tartják. Csak tudatni akarták veled.
Pontosan ezt állítja az Anthropic nevű AI-cég a legújabb modelljéről, a Claude Mythosról. A vállalat szerint a Mythos képessége a kiberbiztonsági hibák felderítésében messze felülmúlja az emberi szakértőket, és világszintű következményei lehetnek, ha hasonló technológia rossz kezekbe kerül. „A következmények a gazdaságokra, a közbiztonságra és a nemzetbiztonságra nézve súlyosak lehetnek” – írta a cég egy április eleji blogbejegyzésben. Néhány túlzó megfigyelő már azt is állította, hogy a Mythos hamarosan arra kényszerít majd, hogy az életed minden technológiai eszközét lecseréld, egészen a WiFi-s mikróig, hogy megvédd magad a digitális káosztól.
Egyes biztonsági szakértők kételkednek ezekben az állításokban, de tegyük ezt most félre. Ez nem új jelenség. A vezető AI-szolgáltatók vezetői rendszeresen figyelmeztetnek arra, hogy az iparáguk termékei akár az emberiség pusztulását is okozhatják. Miért akarják az AI-cégek, hogy féljünk tőlük?
Ez elég furcsa módja annak, hogy egy cég a saját termékéről beszéljen. Nem hallani olyat, hogy a McDonald’s bejelentené: olyan félelmetesen finom hamburgert alkotott, hogy etikátlan lenne megsütni a nagyközönségnek.
Íme egy elmélet. Kritikusok szerint az AI-cégeknek érdekük, hogy az apokalipszis gondolatára fókuszáljunk, mert ez eltereli a figyelmet a már most is nagyon is valós károkról, amelyeket okoznak. A techvezetők szerint ők csak egy elkerülhetetlen jövőre figyelmeztetnek, és a biztonság mindig elsődleges szempont. Mások viszont úgy vélik, amit látunk, az valójában félelemkeltés, amely eltúlozza a technológia képességeit, és segíti a részvényárak növelését. Emellett erősíti azt a narratívát, hogy a szabályozóknak félre kell állniuk, mert csak ezek a cégek képesek megállítani a „rosszfiúkat” és felelősen fejleszteni ezt a technológiát.
„Ha ezeket a technológiákat szinte természetfeletti veszélyként ábrázolják, az azt az érzést kelti bennünk, hogy tehetetlenek vagyunk, mintha alulmaradnánk” – mondja Shannon Vallor, az Edinburgh-i Egyetem adat- és mesterségesintelligencia-etika professzora. „Mintha az egyetlen szereplők, akikhez fordulhatunk, maguk a cégek lennének.”
Valaki állítson meg
Az Anthropic szóvivője azt mondta, a cég világosan kommunikálta ezeket a kérdéseket. Más szervezetek blogbejegyzéseit osztották meg, amelyek alátámasztják a Mythos kiberképességeit, de a cikkben felvetett kritikákra nem reagáltak érdemben.
Ez nem az első alkalom, hogy az Anthropic vezetője, Dario Amodei olyan eszközön dolgozott, amelyet túl veszélyesnek nyilvánítottak a nyilvánosság számára. 2019-ben, amikor még az OpenAI vezetője volt, bemutatták a GPT-2-t, amelyről azt mondták, nem adhatják ki „a technológia rosszindulatú felhasználásával kapcsolatos aggályok miatt”. Ez jóval egyszerűbb volt, mint a ChatGPT. Néhány hónappal később mégis kiadták.
Sam Altman, az OpenAI vezérigazgatója nemrég kritizálta az Anthropic „félelemalapú marketingjét”. Ugyanakkor az ő „szörnyet hoztam létre” narratívája is régóta jelen van.
„Az AI valószínűleg a világ végét fogja okozni, de addig is nagyszerű cégek jönnek létre” – mondta Altman már 2015-ben. Később azt állította, hogy néha nem tud aludni, mert attól tart, „valami nagyon rosszat tett a ChatGPT elindításával”.
Több száz techvezető – köztük Altman, Amodei, Bill Gates és a Google DeepMind vezetője, Demis Hassabis 2023-ban aláírt egy nyilatkozatot, amely szerint „az AI okozta kihalás kockázatának csökkentése globális prioritás kell legyen, a járványokhoz és a nukleáris háborúhoz hasonlóan”. Ugyanebben az évben Elon Musk is aláírt egy levelet, amely hat hónapos szünetet sürgetett a fejlett AI fejlesztésében majd kevesebb mint fél év múlva megalapította saját AI-cégét.
„Ez csak része annak a mintának, hogy megalapozatlan hatalmi állításokat tesznek” – mondja Emily M. Bender, a Washingtoni Egyetem professzora és az The AI Con című könyv társszerzője. Szerinte ez az egész iparágra jellemző: „Azt mondják: ‘nézz ide’, miközben figyelmen kívül hagyjuk a környezeti károkat, a munkaerő-kizsákmányolást és a társadalmi rendszerek rombolását.”
Megkérdeztem az OpenAI-t is. Egy szóvivő egy blogbejegyzést küldött, amelyben Altman azt írja, hogy a cég ellenáll annak, hogy a technológia hatalma kevesek kezében összpontosuljon, és hangsúlyozta, hogy a kulcsfontosságú döntéseket demokratikus módon kell meghozni.
Tényleg ennyire veszélyes a Mythos?
Az Anthropic szerint az új modell már most több ezer „súlyos” sérülékenységet talált, és egy sürgős együttműködést indított több mint 40 szervezettel ezek kijavítására. Ugyanakkor komoly kételyek merültek fel.
Heidy Khlaaf, az AI Now Institute vezető kutatója szerint például hiányzik egy alapvető mérőszám: a téves riasztások aránya. „Ez az egyik legfontosabb mutató annak megítélésére, mennyire hasznos egy eszköz” – mondja.
Az sem derült ki, hogy a Mythost összevetették volna a régóta használt biztonsági eszközökkel. Egyesek szerint az is elképzelhető, hogy a cég egyszerűen nem rendelkezik elegendő számítási kapacitással a széles körű bevezetéshez.
Ez nem jelenti azt, hogy a fenyegetés nem valós. Az AI valóban alkalmas nagy kódbázisok átvizsgálására és hibák megtalálására. Khlaaf azonban szkeptikus az állításokkal szemben bizonyítékok nélkül.
Miért ennyire komoly a hangnem?
Az OpenAI és az Anthropic szerint épp a világ megmentése a céljuk. Az OpenAI eredetileg nonprofitként indult, hogy biztonságos AI-t fejlesszen. Később azonban mindkét szervezet a tőzsdei jelenlét felé mozdult.
„Ha meg akarod érteni, hogyan viselkedik egy vállalat, nézd meg az ösztönzőit” – mondja Vallor.
A cégek közben lazítottak korábbi korlátozásaikon, és egyre inkább a piaci dominanciára törekszenek.
Közben az AI-t egyre több problémával hozzák összefüggésbe: félrediagnosztizálás az egészségügyben, környezetszennyezés, mentális egészségügyi hatások, deepfake-ek terjedése.
A cégek szerint komolyan veszik ezeket a problémákat. De Vallor szerint van oka annak, hogy inkább az apokalipszisről beszélnek: ha az AI akár el is pusztíthatja a világot, akkor ezek a problémák kevésbé tűnnek jelentősnek.
„A stratégia működik” – mondja. „Az, hogy úgy beszélnek a termékeikről, mintha véget vethetnének a világnak, nem gyengítette őket inkább megerősítette.”
Démonok vagy megváltók?
Ugyanazok az emberek, akik pusztulásról beszélnek, gyakran utópisztikus jövőt is ígérnek: klímaválság megoldása, űrkolóniák, tudományos áttörések.
Vallor szerint az apokalipszis és az utópia ugyanannak az éremnek a két oldala. Mindkettő olyan grandiózus, hogy úgy tűnik, mintha a szabályozás lehetetlen lenne.
Pedig ezek nem istenek, hanem profitorientált cégek termékei és sokkal veszélyesebb dolgokat is sikerült már szabályozni az emberiség történetében.
„Semmi sem kormányozhatatlan hacsak nem döntünk úgy, hogy nem szabályozzuk” – mondja.
Persze elméletileg lehetséges, hogy az AI átveszi az uralmat a világ felett. De érdemes feltenni a kérdést: nem hasonlít ez más korábbi technológiai ígéretekre?
Nem azt mondták, hogy mindannyian a Metaverzumban fogunk élni? Hogy a Bitcoin leváltja az összes pénznemet? Hogy a közösségi média megmenti a demokráciát?
Talán így lesz. Vagy talán nem.



