WSJ: ABD, İran saldırılarında ‘küs olduğu’ Claude’u kullandı

IMG_9793

ABD ve İsrail’in İran’a yönelik son hava saldırılarında, hedef belirleme ve operasyon planlamasında yapay zekâ modeli Claude’un kullanıldığı ortaya çıktı. Wall Street Journal ve diğer kaynaklara göre, modelin görevleri istihbarat analizi, hedef tespiti ve savaş simülasyonlarını kapsıyor

ABD ve İsrail’in İran’a yönelik son hava saldırılarında, hedef belirleme ve operasyon planlamasında Anthropic tarafından geliştirilen yapay zeka modeli Claude’un kullanıldığı ortaya çıktı. Wall Street Journal tarafından hazırlanan haberde, U.S. Central Command (CENTCOM) bünyesinde kullanılan sistemin, istihbarat analizinden hedef tespitine kadar geniş bir alanda devrede olduğu belirtildi.

Claude, ABD ordusunun Orta Doğu’daki operasyonlarında “kilit yapay zeka aracı” konumunda. Modelin, saldırı öncesi hedef değerlendirmelerinde ve muharebe senaryolarının simülasyonunda kullanıldığı ifade ediliyor.

The Times‘ın analizine göre, ABD tarafından yönetilen Irak işgalinde hedef belirlemek için iki binden fazla personel kullanılmıştı. Bugün Claude destekli yeni modelle aynı işi 20 personel yapabiliyor.
Bu gelişme, Başkan Donald Trump’ın federal kurumların Anthropic ile çalışmayı sonlandıracağını açıklamasından yalnızca saatler sonra gerçekleşen İran saldırılarıyla aynı zamana denk geldi.

Trump yönetimi, şirketi tedarik zinciri açısından “güvenlik riski” olarak tanımlamıştı. Ancak Savunma Bakanlığı kaynaklarına göre Claude halihazırda sınıflandırılmış sistemlere gömülü olduğu için teknolojinin tamamen devre dışı bırakılması aylar sürebilir.

Claude, savaşta tam olarak nasıl kullanılıyor?

Futurism’in görüş aldığı askeri kaynaklara göre Claude’un kullanım alanları üç başlıkta toplanıyor:

1. İstihbarat analizi:

Uydu görüntüleri, saha raporları ve sinyal istihbaratından gelen büyük veri setleri özetleniyor. Model, olası tehdit kümelerini sınıflandırıyor ve önceliklendirme önerileri sunuyor.

2. Hedef tespiti:

Claude, mevcut istihbarat akışını analiz ederek potansiyel askeri hedefleri işaretliyor. Nihai kararın insan komutanlarda olduğu belirtilse de modelin “hedef havuzu” oluşturma sürecine katkı verdiği ifade ediliyor.

3. Savaş simülasyonları:

Olası senaryolar için hızlı harp oyunları üretiliyor. Farklı saldırı kombinasyonlarının sonuçları tahmin edilerek operasyonel risk analizi yapılıyor.

Şirket yönetimi, modelin tamamen otonom ölümcül silah sistemlerinde kullanılmasına izin vermediğini savunuyor. Ancak insan denetimi altında hedef seçimine katkı sunmasının, etik sınırların fiilen genişletildiği anlamına gelip gelmediği tartışma konusu.

Nicolas Maduro da Claude ile yakalanmıştı

ABD Claude’u Venezuela’dan Nicolás Maduro’yu yakalama operasyonunda kullandı.

Modelin, Palantir Technologies ile yapılan ortaklık aracılığıyla Pentagon’un istihbarat ve planlama sistemlerine entegre edildiği ve sınıflandırılmış askeri ağlar üzerinden erişildiği belirtildi. Reuters, Wall Street Journal, The Guardian gibi kaynaklar da da bu kullanımın hazırlanma ve yürütme safhalarında veri analizi ve hedef tespit desteği sağladığını aktardı. Bu gelişme, ABD Savunma Bakanlığı’nın yapay zekayı operasyonel karar süreçlerine daha fazla dahil ettiğinin somut bir örneğini teşkil ediyor.

Bu Venezuela örneği, Pentagon ile Anthropic arasındaki gerilimin arka planını oluşturan en önemli olaylardan biri olarak görülüyor. Claude’un zararlı veya etik dışı kullanımlarını engellemeye yönelik politikalarına rağmen modelin sınıflandırılmış askeri operasyonlarda rol alması, yapay zeka güvenliği ve sivil-asker teknoloji transferi tartışmalarını derinleştirdi.

Gerginliğin özünde ne var?

Dario Amodei liderliğindeki Anthropic ile Pentagon arasındaki gerilim, iki temel konuda yoğunlaştı:

1. Yapay zekanın ABD vatandaşlarına yönelik kitlesel gözetimde kullanımı

2. Tam otonom, ölümcül silah sistemlerine entegrasyon

Anthropic bu iki alanda “kırmızı çizgi” koyduğunu açıkladı. Ancak yabancı ülke hedeflerine yönelik askeri operasyonlarda modelin kullanılmasına itiraz etmedi. Pulitzer ödüllü gazeteci Spencer Ackerman, bu ayrımın etik açıdan tutarsız olduğunu savundu.

Bu süreçte Pentagon, alternatif sağlayıcılara yöneldi. OpenAI ve xAI ile sınıflandırılmış ortamlarda kullanım için anlaşmalar yapıldığı bildirildi. OpenAI CEO’su Sam Altman doğrudan İran operasyonlarıyla ilişkilendirilmese de, şirketinin savunma alanında daha esnek bir pozisyon aldığı biliniyor.

Sam Altman ve OpenAI, bu meseleye nasıl dahil oldu?

Bu tartışmanın merkezindeki isimlerden biri de Sam Altman. OpenAI’nin Pentagon ile imzaladığı yeni anlaşma, İran’a yönelik saldırıdan yalnızca bir gün önce duyuruldu. Altman, kamuoyundan gelen sert tepkilerin ardından anlaşmanın “aceleye getirildiğini” kabul etti ve ABD vatandaşlarına yönelik “kasıtlı izleme ve gözetimi” yasaklayan bir hükmün sonradan ekleneceğini açıkladı. Ancak açıklamada otonom silah sistemlerine ilişkin açık bir yasak yer almaması dikkat çekti.

Altman ayrıca Savunma Bakanı Pete Hegseth’in Anthropic’i ulusal güvenlik açısından “tedarik zinciri riski” ilan etmemesi çağrısında bulundu. Bu çıkış, OpenAI’nin Pentagon’la çalışırken rakibinin tamamen dışlanmasına karşı mesafeli durduğunu gösterdi. Buna karşın, anlaşmanın zamanlaması ve kapsamı, şirketin etik ilke vurgusundan ziyade savunma ihalelerinde konumunu güçlendirme arayışında olduğu yönündeki eleştirileri artırdı.

Altman, anlaşmadan pişman olmaya başladı

Futurism’de “Sam Altman, büyük bir hata yaptığını fark ediyor” başlıklı bir makale kaleme alan Victor Tangermann’a göre gerilim özünde, teknik bir tedarik meselesinden öte, ABD’de yapay zekanın askeri kullanımına dair stratejik bir yön tartışmasına işaret ediyor. Bir yanda ulusal güvenlik gerekçesiyle hızlı entegrasyon talebi, diğer yanda etik sınırlar ve şirketlerin kurumsal sorumluluğu var.

Altman, sosyal medya hesabından yaptığı yeni bir açıklamada, şirket ilkelerini daha net hale getirmek amacıyla Pentagon ile aralarındaki sözleşmeye bazı eklemeler yapmak üzere çalıştıklarını bildirdi.

Mevcut hükümlere ek olarak anlaşmanın yeni ifadeleri içerecek şekilde değiştirileceğini kaydeden Altman, yapay zeka sistemlerinin ABD’de yurt içi gözetim amacıyla kasıtlı olarak kullanılmayacağını ifade etti.

Pentagon’un OpenAI hizmetlerinin Ulusal Güvenlik Ajansı (NSA) gibi istihbarat kurumları tarafından kullanılmayacağını teyit ettiğini aktaran Altman, bu kurumlara verilecek herhangi bir hizmetin sözleşmede ayrıca bir değişiklik gerektireceğini bildirdi. Altman, teknolojinin henüz hazır olmadığı ve güvenlik maliyetlerinin tam olarak anlaşılmadığı birçok alan bulunduğuna işaret ederek, bu konuları Pentagon ile birlikte yavaş ve temkinli bir şekilde ele alacaklarını söyledi.

Anlaşmayı duyurmakta acele ederek hata yaptığını düşündüğünü belirten Altman, “Konular son derece karmaşık ve net bir iletişim gerektiriyor. Gerçekten gerilimi azaltmaya ve çok daha kötü bir sonucu önlemeye çalışıyorduk, ancak bunun fırsatçı ve özensiz olarak algılandığını düşünüyorum.” ifadelerini kullandı.

Altman, Pentagon’un Anthropic’e de OpenAI’ın kabul ettiği şartları sunmasını umduğunu belirtti.

Son tablo şu: Claude halen aktif kullanılıyor. Ancak Pentagon’un, önümüzdeki aylarda sistemi kademeli olarak alternatif modellerle değiştirmesi bekleniyor.

Öte yandan Reuters‘ın konuya yakın kaynaklara dayandırdığı haberinde OpenAI’ın Kuzey Atlantik Antlaşması Örgütü’nün (NATO) “gizliliği kaldırılmış” ağlarında yapay zeka teknolojisini kullanıma sunmak için bir sözleşme yapmayı değerlendirdiği iddia edildi.

Exit mobile version