:

Szerző: Dömös Zsuzsanna

2026. március 5. 12:04

Visszaül a tárgyalóasztalhoz az Anthropic és a Pentagon

Nem zárultak le a viták az AI katonai felhasználásának kockázatairól, az Anthropic vezetője újabb tárgyalásokat kezdeményezett, miután a korábbi egyeztetések komoly konfliktusba torkolltak.

Egyelőre nincs minden szál elvarrva a Pentagon vs. AI-fejlesztők közti egyezkedésekben, hiába mondott nemet az Anthropic az Amerikai Védelmi Minisztérium által adott ultimátumra. Az AI-startup vezérigazgatója, Dario Amodei további tárgyalásokat kezdeményezett Emil Michaellel, a védelmi minisztéri kutatásért és mérnöki munkáért felelős államtitkár-helyettesével, hogy egy utolsó esélyt adjanak a kölcsönös megállapodásnak a Claude-modellek hozzáférésének feltételeiről – jelentették a Times ügyhöz közelálló anonim forrásai.

A konfliktus az AI-iparág egyik alapvető dilemmáját domborítja ki a nemzetbiztonsági igények és a technológiai fejlesztők által meghatározott etikai korlátok ütközéséről. A helyzetet tovább bonyolítja, hogy más AI-cégek, például az OpenAI már megállapodásokat kötöttek az amerikai védelmi minisztériummal, ami versenyhelyzetet teremt a beszállítók között.

Miután az Anthropic múlt hét pénteken bejelentette, hogy nem kíván korlátlan hozzáférést biztosítani hadászati célokra saját technológiájához, Pete Hegseth védelmi miniszter azzal fenyegetőzött, hogy a vállalat ellátási láncbeli kockázat minősítést kap, ezzel pedig gyakorlatilag kizárná a céget az amerikai állami szerződésekből. Mindössze pár órával utána a ChatGPT-fejlesztő OpenAI fejese, Sam Altman bejelentette a DoD-vel kötött megállapodását arról, hogy a kormány minden jogszerű célra használhassa a rendszerét, miközben a fejlesztő technikai intézkedéseket építhet be a visszaélések megelőzésére. A startup vezetője egyben felszólította a Pentagont, hogy minden AI-fejlesztőnek ugyanazokat a feltételeket kínálja.

A megállapodás látványos ellenreakciót váltott ki a felhasználókból, akik pár órán belül tömegesen törölték a ChatGPT-t, a Claude letöltései viszont kiugró görbét mutattak. 

anthropenta

Fejleszd tudásod security, ethical hacker, pentester irányba! (x)

NIS2-nek megfelelő CyberSecurity képzés az automatizált sérülékenységvizsgálatról. Scope meghatározás, felderítés, validálás, dokumentálás és riportálás. Jelentkezz most!

Fejleszd tudásod security, ethical hacker, pentester irányba! (x) NIS2-nek megfelelő CyberSecurity képzés az automatizált sérülékenységvizsgálatról. Scope meghatározás, felderítés, validálás, dokumentálás és riportálás. Jelentkezz most!

A Pentagon korábban olyan szerződéses feltételeket szeretett volna érvényesíteni, amelyek nagyobb rugalmasságot biztosítanak az AI katonai felhasználásában, de az Anthropic garanciákat kért volna arra vonatkozóan, hogy eszközeit nem használják fel belföldi tömeges megfigyelés vagy autonóm fegyverek fejlesztése céljából. A Times birtokába jutott belsős dokumentumok szerint a korábbi tárgyalások alatt a minisztérium felajánlotta, hogy elfogadja az Anthropic feltételeit az általa felállított etikai korlátokról és problémásnak ítélt felhasználási módokról, ha a tömegesen megszerzett adatok elemzését sikerülne törölni a problémásnak ítélt felhasználási módok listájáról, amit az AI-fejlesztő fő aggályként emelt ki.

Az újonnan kezdeményezett tárgyalások egyik kulcskérdése az lehet, hogy a katonai szervezetek milyen módon férhetnek hozzá az Anthropic modelljeihez úgy, hogy közben a vállalat által meghatározott biztonsági korlátok is érvényben maradjanak. A tárgyalások kimenetele nemcsak az Anthropic sorsát befolyásolhatja, de precedenst teremthet a mesterséges intelligencia katonai szabályozásával kapcsolatos kérdésekben is. A következő években ugyanis jó eséllyel egyre több technológiai cég kerül hasonló helyzetbe, amikor AI-rendszereik katonai alkalmazásának határait kell meghatározni.

A Claude jelenleg az egyetlen olyan modell, mely a szigorú előzetes teszteléseket követően integrálva lett a hadsereg titkosított rendszereibe, bár a Védelmi Minisztérium időközben zöld lámpát adott az xAI Grok-jának is az emelt szintű védelmi célú hálózatokban való működésre. A vállalat 2025-ben egy mintegy 200 millió dolláros katonai szerződést is elnyert az amerikai védelmi minisztériumtól, technológiáját pedig már több műveletben alkalmazták, a jelentések szerint az amerikai hadsereg AI-modelleket használt fel több akció elemzése és tervezése során.

Áprilisban és májusban 8 alkalmas, 24 órás online Agentic AI Software Engineering és AI Engineering képzéseket indítunk, melyek real-time követik le az aktuális technológiákat.

a címlapról