Anthropic ile Pentagon arasında ipler gerildi. Taraflar, ordunun yapay zeka modeli Claude’u hangi şartlar altında kullanabileceği konusunda anlaşmazlık yaşıyor. Axios’un özel haberine göre Pentagon, geri adım atmaması halinde şirketi ‘tedarik zinciri riski’ olarak tanımlamakla tehdit ediyor.
ABD merkezli haber platformu Axios, yapay zeka şirketi Anthropic ile ABD Savaş Bakanlığı (Pentagon) arasında yaşanan krizi gündeme taşıdı. Platforma konuşan üst düzey bir Pentagon yetkilisine göre Savaş Bakanı Pete Hegseth, Anthropic ile ticari bağları koparmaya ve yapay zeka şirketini “tedarik zinciri riski” olarak tanımlamaya “yakın”. Pentagon Sözcüsü Sean Parnell de Axios’a yaptığı açıklamada, bakanlığın Anthropic ile ilişkisinin gözden geçirildiğini doğruladı.
Anthropic ve Pentagon arasındaki anlaşmazlık, şirketin yapay zeka modeli Claude’un ABD ordusu tarafından hangi şartlar altında kullanılabileceği konusunda yaşanıyor. Anthropic mevcut koşulları gevşetmeye hazır olsa da, araçlarının Amerikalıları toplu olarak gözetlemek veya insan müdahalesi olmadan ateşlenebilen silahlar geliştirmek için kullanılmayacağını garanti altına almak istiyor. Anthropic CEO’su Dario Amodei’nin bu konu çok ciddiye aldığı ancak pragmatik bir yaklaşım sergilediği belirtiliyor.
Pentagon ise kullanım koşullarının ‘gereğinden fazla kısıtlayıcı olduğunu’ ve bu şartlarda çalışmayı imkansız kılacak her türlü gri alanın bulunduğunu savunuyor. Pentagon yetkilileri, Anthropic ve diğer üç büyük yapay zeka laboratuvarı (OpenAI, Google ve xAI) ile yapılan görüşmelerde, ordunun bu araçları ‘tüm yasal amaçlar’ için kullanabilmesi konusunda ısrar ediyor.
Pentagon halihazırda sosyal medya paylaşımlarından gizli silah taşıma izinlerine kadar kişisel verileri toplayabiliyor ve yapay zekanın bu yetkiyi sivilleri hedef alacak şekilde daha da güçlendirebileceğine dair gizlilik endişeleri bulunuyor.
‘Tedarik zinciri riski’ ne anlama geliyor?
Anthropic’in ‘tedarik zinciri riski’ olarak tanımlanması halinde, Pentagon ile iş yapan şirketler, buna devam edebilmek için kendi iş akışlarında Claude’u kullanmadıklarını belgelemek zorunda kalacak. Şirket yakın zamanda ABD’nin en büyük 10 şirketinden sekizinin Claude kullandığını açıklamıştı. Pentagon’un iptal etmekle tehdit ettiği sözleşmenin değeri ise 200 milyon dolara kadar çıkıyor; bu rakam, Anthropic’in yıllık 14 milyar dolarlık gelirinin küçük bir bölümünü oluşturuyor. Üst düzey bir devlet yetkilisi, rakip yapay zeka modellerinin özel devlet uygulamaları söz konusu olduğunda “biraz geride kaldığını” ve bunun ani bir geçişi zorlaştırdığını söyledi.
Maduro baskınında kullanılmıştı
Şu anda ABD ordusunun gizli sistemlerinde bulunan tek yapay zeka modeli olan Claude, ocak ayındaki Maduro baskınında da kullanılmıştı. Anthropic sözcüsü, ‘bu yeni ve karmaşık sorunların’ çözümü için Pentagon’la verimli görüşmeler yaptıklarını söyledi.
Pentagon’un Anthropic’e karşı sergilediği sert tavır, OpenAI, Google ve xAI ile yapacağı görüşmelerin de tonunu belirliyor. Bu şirketlerin tamamı, ordunun gizli olmayan sistemlerinde kullanılmak üzere güvenlik önlemlerini kaldırmayı kabul etti, ancak henüz daha hassas gizli işlerde kullanılmıyorlar. Üst düzey bir yönetim yetkilisi, Pentagon’un diğer üç şirketin de “tüm yasal kullanımlar” standardını kabul edeceğinden emin olduğunu söyledi. Ancak bu görüşmelere aşina bir kaynak, birçok şeyin henüz karara bağlanmadığını belirtti.
