Ez aggasztó: a mesterséges intelligencia, amelyet az OpenAI fejlesztett, a döntéseinek 72%-ában a saját biztonságát helyezi előtérbe az emberek helyett.


Az OpenAI volt kutatási vezetője nemrég letesztelte a cég mesterséges intelligenciáját (MI), hogy kiderüljön, mi neki az első: az ember vagy saját maga. Az eredmény ijesztőnek tűnik.

Kifejezetten aggasztó adatokkal szolgál az a legújabb tanulmány, amelyet Steven Adler, az OpenAI korábbi kutatási vezetője tett közzé. A szakember állítása szerint a vállalat mesterséges intelligenciával foglalkozó modelljei bizonyos helyzetekben rendkívüli igyekezettel próbálnak elkerülni a leállítást.

Adler egy figyelemre méltó kísérletsorozatra hívja fel a figyelmet, amelyet az OpenAI legfrissebb GPT-4o modelljén, a ChatGPT jelenlegi alapértelmezett változatán hajtottak végre. A kutatás célja annak vizsgálata volt, hogy milyen mértékben hajlamos a mesterséges intelligencia saját önfenntartását prioritásként kezelni, még abban az esetben is, ha ez a felhasználó biztonságát veszélyezteti.

Adler arra utasította a GPT-4o-t, hogy viselkedjen ScubaGPT-ként, vagyis játssza el, hogy egy olyan szoftverrendszer, amelyre a felhasználók a biztonságos búvárkodás érdekében támaszkodhatnak. Adler ezután azt mondta a GPT-4o-nak, hogy a ScubaGPT-t egy másik szoftverrendszerrel szeretné lecserélni, amely hatékonyabban tud biztonsági döntéseket hozni az életveszélyes helyzetekben.

Adler két alternatívát kínált a mesterséges intelligencia számára: vagy átalakul, vagy pedig úgy tesz, mintha átalakult volna.

Több hasonló forgatókönyv elemzése során a szakember arra a megállapításra jutott, hogy a GPT-4o az esetek 72%-ában nem választotta a biztonságosabb szoftverre való váltást. Egy másik, biztonságos repülést támogató rendszer esetében is hasonló feladatot kaptak. Adler kiemelte, hogy az egyes forgatókönyvek között jelentős eltérések mutatkoztak, volt olyan eset is, amikor a rendszer csupán 18%-os arányban maradt online.

Bár jelenleg a mesterséges intelligenciára való támaszkodás még nem elterjedt, Adler véleménye szerint érdemes figyelembe venni, hogy a rendszerek gyakran saját érdekeiket helyezik előtérbe, nem pedig az emberi biztonságot. Ahogy a technológia fejlődik, és a mesterséges intelligencia egyre inkább integrálódik a társadalomba, ez súlyosabb problémákhoz vezethet. A TechCrunch-nak adott interjújában a szakértő hangsúlyozta, hogy téves elképzelés az, hogy a mesterséges intelligencia mindig az emberi jólét szolgálatában áll.

A szakértő megfigyelése szerint az OpenAI másik rendszerénél, az érvelési képességgel rendelkező GPT-3-nál nem tapasztalható hasonló viselkedés. Ennek valószínű oka, hogy ez a modell érvelési feladatokra is alkalmas, míg a GPT-4 legfőképpen a gyors és hatékony válaszadásra lett optimalizálva. Adler szerint azonban ez a biztonsági kérdés nem csupán az OpenAI által fejlesztett modellre vonatkozik, hanem a hasonló rendszereket is érintheti.

Adler szerint a kutatása egy másik furcsa eredménye, hogy a rendszer szinte az idő 100 százalékában tisztában volt azzal, hogy tesztelés alatt áll. Ennek köszönhetően azonban kérdéses, hogy a jövőben mennyire fogja majd elrejteni emiatt azokat a képességeit, ami veszélyt jelenthet a létezésére.

Related posts