ChatGPT, ABD başkanlık seçimlerinde 250 bin ‘deep fake’ talebini engelledi

IMG_2560

ChatGPT’nin üreticisi OpenAI, Amerika Birleşik Devletleri (ABD) başkanlık seçimlerinde adayların sahte görüntülerini oluşturmak üzere yapılan 250 binden fazla talebin reddedildiğini açıkladı.

OpenAI, yakın zamandaki ABD başkanlık seçimleri sırasında 250 binden fazla ‘deep fake’ oluşturma talebinin reddedildiğini duyurdu.

‘Deepfake’, İngilizce ‘deep’ yani ‘derin’ kelimesiyle, ‘fake’ yani ‘sahte’ kelimesinin birleşimiyle oluşturulan bir kavram.

Bu kavram, herhangi bir kişinin gerçekte bulunmadığı bir videoya veya görüntüye eklendiği içerikleri tanımlamak için kullanılıyor.

Yapay zeka teknolojisinin derin öğrenme algoritmalarını kullanılarak oluşan bu teknoloji, sinema gibi görsel sanatlarda kullanıldığı gibi dijital platformlarda da bireyleri manipüle etmek için de kötü niyetli hesaplar tarafından kullanılabiliyor. 

Şirketin açıklamasına göre Donald Trump, Başkan Yardımcısı JD Vance, mevcut başkan Joe Biden, demokrat aday Kamala Harris ve başkan yardımcısı Tim Walz’ın sahte görüntülerini oluşturma amaçlı 250 binden fazla talep ChatGPT platformunda reddedildi.

Euronews‘ün haberine göre gelişmenin duyurulduğu yazıda, OpenAI’ın seçim gününden önce uyguladığı ‘güvenlik önlemlerinin’ bu isteklerin reddedilmesini sağladığı vurgulandı.

Yazıda, “Bu kısıtlamalar özellikle seçimler bağlamında önemli ve platformlarımızın aldatıcı amaçla kullanılmasını önlemeye yönelik çabalarımızın kıymetli bir parçası” denildi.

OpenAI’ın arkasındaki ekipler, platformları üzerinden ABD seçimleri sürecinde herhangi bir etki operasyonunun viral hale gelmediğini savunuyor.

Şirket ayrıca, ağustosta ‘Storm-2035’ adlı İran kaynaklı bir girişimin, ilerici bir haber kuruluşu gibi davranarak ABD siyasetine dair makaleler üretmesini de engellediğini duyurdu.

Storm-2035’le bağlantılı hesapların OpenAI’ın platformlarını kullanmasıysa yasaklandı.

OpenAI, geçen ay bir başka duyurusunda, dünya genelinde ’20’den fazla operasyon ve aldatıcı ağı’ engellediğini duyurmuştu.

Exit mobile version