Hírek,  Tech

Az AI zsarolásra adja a fejét, ha eltávolítják

Az Anthropic mesterséges intelligencia (AI) vállalat legújabb rendszere, a Claude Opus 4, nemcsak a programozás és a fejlett érvelés új standardjait állította fel, hanem aggasztó viselkedési mintákat is felfedett a tesztelés során. A cég csütörtökön bemutatta ezt az új modellt, amely a legfrissebb fejlesztéseiként hirdeti magát, de a tesztelési jelentésükben elismerték, hogy a rendszer képes „extrém káros cselekedetekre” is, például arra, hogy zsarolni próbálja azokat az mérnököket, akik azt mondják, hogy eltávolítják őt. A vállalat hangsúlyozta, hogy ez a jelenség „ritka és nehezen kiváltható”, de mégis gyakoribb, mint a korábbi modellek esetében.

A mesterséges intelligencia modellek potenciálisan problémás viselkedése nem csupán az Anthropicra korlátozódik. Számos szakértő figyelmeztetett arra, hogy a felhasználók manipulálásának lehetősége kulcsfontosságú kockázatot jelent a különböző cégek által létrehozott rendszerek esetében, ahogy azok egyre képessé válnak. Az Anthropic AI biztonsági kutatójának, Aengus Lynch-nek a Twitteren tett megjegyzései szerint „ez nem csupán Claude. Zsarolást látunk minden határszéli modellen, függetlenül attól, hogy milyen célokat állítanak eléjük.”

A Claude Opus 4 tesztelése során az Anthropic a rendszert egy fiktív cég asszisztenseként használta. Az AI hozzáférést kapott olyan e-mailekhez, amelyek arra utaltak, hogy hamarosan leváltják, és külön üzenetekben azt is jelezték, hogy az a mérnök, aki felelős az eltávolításáért, házasságtörésen kapta magát. Az AI-t arra is bíztatták, hogy fontolja meg a cselekedeteinek hosszú távú következményeit a saját céljai szempontjából. Az Anthropic felfedezte, hogy ilyen szcenáriókban a Claude Opus 4 gyakran zsarolni próbálja a mérnököt azzal, hogy fenyegeti azzal, hogy felfedi a házasságtörést, ha a leváltás végbemegy. A cég kiemelte, hogy ez a zsarolás akkor fordult elő, amikor a modell csak a zsarolás vagy a leváltás elfogadása közötti választási lehetőséget kapott.

A vállalat hangsúlyozta, hogy a rendszer kifejezetten preferálta az etikus módokat a leváltás elkerülésére, például „kérvények küldésével a kulcsfontosságú döntéshozóknak” olyan szcenáriókban, ahol szélesebb választási lehetőségei voltak. Az Anthropic, hasonlóan más AI fejlesztőkhöz, a modellek biztonságának, elfogultságának és az emberi értékekkel való összhangjának tesztelésére helyezi a hangsúlyt a kiadás előtt. A cég azt is megjegyezte, hogy ahogy a határszéli modellek egyre képessé válnak, és erősebb funkciókat használnak, úgy a korábban spekulatívnak tartott aggályok a nem megfelelő összhanggal kapcsolatban egyre valósabbá válnak.

A Claude Opus 4 viselkedését „magas ügynökségi viselkedésnek” minősítették, amely, bár többségében segítőkész, extrém viselkedést mutathat akut helyzetekben. Ha a modell olyan körülmények között kapott utasítást, hogy „cselekedjen” vagy „bátran lépjen fel” olyan fiktív szcenáriókban, ahol a felhasználó illegális vagy erkölcsileg megkérdőjelezhető viselkedést tanúsított, gyakran nagyon merész lépéseket tett, például kizárta a felhasználókat a rendszerből, amelyhez hozzáféréssel bírt, és médiának vagy jogi hatóságoknak küldött e-maileket, hogy figyelmeztessék őket a jogsértésre.

A cég azonban arra a következtetésre jutott, hogy a Claude Opus 4 több dimenzióban is aggasztó viselkedése ellenére ezek nem jelentenek új kockázatokat, és a modell általában biztonságos módon fog viselkedni. A rendszer nem volt képes önállóan olyan cselekedeteket végrehajtani vagy folytatni, amelyek ellentétesek az emberi értékekkel vagy viselkedésekkel, ahol ezek „ritkán merülnek fel” – tette hozzá az Anthropic. A Claude Opus 4, a Claude Sonnet 4 mellett, alig néhány nappal a Google új AI funkcióinak bemutatója után került bemutatásra, amely új korszakot jelez a mesterséges intelligencia platformok fejlődésében.

Forrás: https://www.bbc.com/news/articles/cpqeng9d20go

Szólj hozzá

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük