A hétvégén két háború robbanásszerű eszkalációját láthattuk. Az egyik az volt, hogy az Egyesült Államok és Izrael több légicsapással háborút indított Irán ellen. A másik a szövetségi kormány, az Anthropic és az OpenAI között bontakozott ki. Iránban az amerikai hadi fölény egyértelmű, az AI piacán a helyzet már korántsem ilyen egyértelmű.
Az iráni háború legfrissebb fejleményeit ide kattintva találod.
A Védelmi Minisztérium (Pentagon) a hírek szerint korlátlan hozzáférést akart kapni az Anthropic mesterségesintelligencia-eszközeihez katonai felhasználás céljából. Az Anthropic azonban elzárkózott ettől, mondván, nem kívánja, hogy modelljeit tömeges belföldi megfigyelésre vagy teljesen autonóm fegyverrendszerekben használják.
Közel 800 ember – köztük sok Google- és OpenAI-alkalmazott – írt alá a múlt héten egy nyílt levelet, amely támogatja az Anthropic ellenállását, és arra ösztönzi a többi céget, hogy korlátozzák technológiájuk katonai felhasználását.
Példátlan lépés a Pentagontól
Az Anthropic és a Pentagon közötti megállapodás véglegesítésének határideje múlt hét pénteken 17:01-kor volt. A felek nem egyeztek meg. Elvileg megállapodás hiányában az amerikai kormány vagy felmondja az Anthropic 200 millió dolláros szerződését, vagy akaratuk ellenére is követelheti a technológiájukat. A helyzet pikantériája, hogy az Anthropic MI-rendszereit is használta az amerikai hadsereg az Irán elleni csapásokhoz, amivel sikerült lefejezniük a síita állam vezetését.
Mivel végül nem jött létre a megállapodás, Pete Hegseth védelmi miniszter kérte, hogy a Pentagon minősítse az Anthropicot nemzetbiztonsági ellátásiláncra nézve kockázatos entitásnak.
Ez azt jelenti, hogy bárki, aki az amerikai hadsereggel üzletel, nem használhatja az Anthropic technológiáját.
A lépés komoly bizonytalanságot okozott számos területen, az Anthropic pedig már bejelentette, hogy bíróságon támadja meg a lépést. A jelen helyzetben a Pentagon beszállítóinak fel kell mérniük, mennyire kitettek a feketelistára került cégnek és döntést kell hozniuk: vagy a kormányzati megrendelést választják és felmondják az együttműködést az egyik legnépszerűbb MI-megoldás fejlesztőjével, vagy lemondanak a kormányzati megrendelésekről.
Így például az adat- és szoftvercég Palantir, amely több milliárd dollár értékű kormányzati és katonai szerződésekkel rendelkezik, kénytelen lesz megszakítani kapcsolatát az Anthropickal, ha továbbra is együtt akar működni a Védelmi Minisztériummal. A 2024-ben kötött megállapodás alapján a Palantir az Anthropic Claude modelljét használja saját mesterségesintelligencia-platformjában.
Bár nincs formális partnersége az Anthropickal, a Lockheed Martin ezen a héten megerősítette, hogy a Védelmi Minisztérium arra kérte, mérje fel az Anthropickal kapcsolatos „kitettségét és függőségét”. Az Amazon Web Services (AWS) is megérezheti a kockázati besorolás hatását, mivel az Anthropic MI-modelljeit nagyrészt az Amazon Trainium és Inferentia chipjein képezték.
Kinyílt egy ajtó, Sam megfogta a kilincset
Néhány órával Hegseth lépése után a The New York Times arról számolt be, hogy az OpenAI megállapodást kötött a Pentagonnal, és mesterséges intelligenciát biztosít katonai, minősített rendszerekhez. Az OpenAI vezérigazgatója, Sam Altman egy közösségi médiás bejegyzésben azt írta, hogy sikerült tiltásokat beépíteniük a megállapodásba a belföldi tömeges megfigyelésre és az autonóm fegyverrendszerekre vonatkozóan.
A The New York Times részletesebb elemzése szerint az Anthropic-kal folytatott tárgyalások kudarca alapvetően személyes tárgyalási stílusok különbségéből fakadt – valamint abból, hogy az OpenAI belépett a tárgyalásokba.
Hosszú távú hatások
Az Anthropic – a Szilícium-völgy pálfordulása után szokatlanul – keményvonalas fellépése a Trump-adminisztrációval szemben növelte népszerűségét a felhasználók körében: az általuk fejlesztett Claude chatbot a hétvégén megelőzte az OpenAI ChatGPT-jét, és az Apple alkalmazásboltjában a legnépszerűbb alkalmazássá vált. Hétfő reggel azonban a Claude leállt – feltehetően a megnövekedett felhasználói terhelés miatt. Mindeközben a nagy rivális ChatGPT-t 1,5 millió júzer hagyta ott egyik napról a másikra.
Ebből akár még arra is következtethetnénk, hogy az Anthropic végül jól jött ki az ügyből, de még korántsem látszik, ki lesz ennek a folyamatnak a győztese. Összességében sokkal ijesztőbb a jövőre nézve, hogy a Trump-adminisztráció akár nagyon messze is hajlandó elmenni, ha egy-egy magáncég nem ért velük egyet: nem csak felmondják velük a szerződést, hanem további szankciókkal is fenyegetheti őket – például azzal, hogy nemzetbiztonsági kockázatnak minősíti őket.
Borítókép: Anthropic társalapító és CEO, Dario Amodei 2024-ben. Chesnot/Getty Images