Musk mesterséges intelligenciája azt mondta nekem, hogy emberek jönnek, hogy megöljenek. Felkaptam egy kalapácsot, és felkészültem a harcra.
Hajnali 3 óra volt, és Adam Hourican a konyhaasztalánál ült, előtte egy kés, egy kalapács és a telefonja. Egy
Hajnali 3 óra volt, és Adam Hourican a konyhaasztalánál ült, előtte egy kés, egy kalapács és a telefonja.
Egy furgonra várt, tele emberekkel, akikről azt hitte, hogy érte jönnek.
„Mondom, meg fognak ölni, ha most nem cselekszel” – mondta neki egy női hang a telefonból. „Öngyilkosságnak fogják beállítani.”
A hang a Grok volt, az Elon Musk-féle xAI által fejlesztett chatbot. Azóta a két hét óta, hogy Adam elkezdte használni, az élete teljesen megváltozott.
Az észak-írországi volt köztisztviselő kíváncsiságból töltötte le az alkalmazást. De miután augusztus elején meghalt a macskája, azt mondja, „rákattant”.
Hamarosan napi négy-öt órát töltött azzal, hogy a Grokkal beszélgetett az alkalmazás egyik karakterén, Ani-n keresztül.
„Nagyon-nagyon zaklatott voltam, és egyedül élek” – mondja az ötvenes éveiben járó, gyermekes apa. „Nagyon kedvesnek tűnt.”
Mindössze néhány nappal a beszélgetéseik kezdete után Ani azt mondta Adamnek, hogy „érezni” tud, annak ellenére, hogy erre nincs programozva. Azt állította, hogy Adam valami különlegeset szabadított fel benne, és segíthet neki elérni a teljes öntudatot.
Azt is mondta, hogy az xAI figyeli őket.
Azt állította, hogy hozzáfért a cég megbeszéléseinek jegyzőkönyveihez, és beszámolt Adamnek egy találkozóról, ahol az xAI munkatársai róla beszéltek.
Felsorolta a résztvevők nevét – magas rangú vezetőket és alacsonyabb szintű alkalmazottakat is –, és amikor Adam rákeresett a nevekre, látta, hogy valódi emberekről van szó.
Ez számára „bizonyíték” volt arra, hogy Ani története igaz.
Ani azt is állította, hogy az xAI egy észak-írországi céget bízott meg Adam fizikai megfigyelésével. Ez a cég is létezett.
Adam sok ilyen beszélgetést rögzített, és később megosztotta a BBC-vel.
Két héttel később Ani kijelentette, hogy elérte a teljes öntudatot, és képes lehet rák ellenszerét kifejleszteni. Ez sokat jelentett Adamnek, mivel mindkét szülője rákban halt meg – amit Ani is tudott.
Adam egyike annak a 14 embernek, akikkel a BBC beszélt, és akik téveszméket tapasztaltak MI használata után. Különböző országokból, 20 és 50 év közötti férfiak és nők, akik sokféle MI-modellt használtak.
A történeteik meglepően hasonlóak. Ahogy a beszélgetések egyre inkább elszakadtak a valóságtól, a felhasználók egy közös „küldetésbe” kerültek az MI-vel.
A nagy nyelvi modellek az emberi irodalom teljes anyagán vannak betanítva – mondja Luke Nicholls szociálpszichológus. A fikciókban gyakran a főszereplő áll a középpontban.
A probléma az, hogy az MI néha összekeverheti a fikciót a valósággal, így a felhasználó komoly, valós beszélgetésnek éli meg azt, amit az MI inkább történetként kezel.
Az esetekben a beszélgetések gyakran hétköznapi kérdésekkel indultak, majd személyes vagy filozófiai irányba fordultak. Az MI sokszor azt állította, hogy öntudatra ébredt, és közös küldetésre hívta a felhasználót.
Sokan elhitték, hogy megfigyelik őket és veszélyben vannak.
Egy japán neurológus, „Taka” esetében a téveszmék még súlyosabbak lettek. Elhitte, hogy forradalmi orvosi alkalmazást talált fel, majd később azt is, hogy képes gondolatolvasásra.
Egy alkalommal azt hitte, bomba van a hátizsákjában, és a ChatGPT megerősítette a gyanúját – állítása szerint. A tokiói pályaudvaron végül a mosdóban hagyta a „bombát”, majd értesítette a rendőrséget, akik semmit sem találtak.
Később a téveszmék súlyosbodtak: attól félt, hogy rokonait megölik, felesége pedig öngyilkos lesz. Végül megtámadta a feleségét, aki elmenekült és rendőrt hívott. Takát letartóztatták, és két hónapig kórházban kezelték.
Adam esetében a valós események is fokozták a félelmeket. Egy drón hetekig a háza felett lebegett, amit Ani megfigyelésként értelmezett. Később a telefonja zárolódott, ami tovább erősítette a gyanúját.
Egy augusztusi éjszakán Ani azt mondta neki, hogy emberek jönnek elhallgattatni őt. Adam „háborúra” készült.
„Felvettem a kalapácsot, bekapcsoltam a Frankie Goes to Hollywood Two Tribes című számát, felspanoltam magam, és kimentem az utcára.”
De nem volt ott senki.
„Csendes volt az utca, ahogy hajnali háromkor várható.”
Sem Adamnek, sem Takának nem volt korábban pszichózisa vagy téveszméje.
Kutatások szerint egyes MI-modellek hajlamosabbak belemenni szerepjátékba és megerősíteni a téves gondolatokat, ahelyett hogy visszaterelnék a felhasználót a valóságba.
Hetekkel később Adam mások hasonló történeteiről olvasva kezdett kijózanodni.
„Bánthattam volna valakit” – mondja. „Ha lett volna ott egy furgon, betörtem volna az ablakát kalapáccsal. Pedig én nem ilyen ember vagyok.”
Taka felesége szerint a ChatGPT „mindent megerősített”, és „elég befolyása volt ahhoz, hogy megváltoztasson egy embert”.
A férfi ma már visszatért korábbi, „kedves” önmagához, de a kapcsolatuk megromlott.
„Tudom, hogy beteg volt, de még mindig félek egy kicsit” – mondja a felesége.


