ABD’de bir aile, otizmli oğluna ‘aileni öldür’ dediği gerekçesiyle yapay zeka uygulaması Character.AI’a dava açtı.
Yapay zeka temelli konuşma botu Character.AI’in sahibi olduğu şirket ‘aşırı cinselleştirilmiş’ ve ‘aşırı gerçekçi’ deneyimlerle çocukları hedef aldığı gerekçesiyle açılan davalara bir yenisi ekleniyor.
Şubatta Sewell Setzer III isimli çocuk, ‘Character.AI’ın ürettiği yapay zeka temelli konuşma botundaki sanal karakterin “En kısa sürede evine dön” mesajının ardından silahla intihar etmişti.
Ekimde ABD’nin Florida eyaletinde oğlunun sanal karaktere ‘aşık olup intihar ettiğini’ iddia eden anne, şirkete dava açmıştı.
The Washington Post‘un haberine göre bu sefer de Texas’ta bir aile, Character.AI uygulamasının sohbet botlarıyla konuşan 17 yaşındaki otizmli oğlunda fiziksel ve davranışsal ‘gariplikler’ fark etti.
Çocuklarının telefonuna bakan aile, Character.AI’la sohbetlerde botların ekran süresi kısıtlandığı için üzgün olan çocuğa ‘ailesinin çocuğa sahip olmayı hak etmediği’ yanıtını verdiğini gördü.
Ailenin ekran görüntüsü aldığı mesajlara göre yapay zeka botun çocuğa, üzüntüyle başa çıkmak için ‘kendisini kesmesini’ öneriyor.
Character.AI uygulamasına dava açan aile, bir botun ailenin kurallarına karşı savaşmasını tavsiye ettiği, başka bir botunsa aileyi ‘öldürmenin makul bir karşılık olabileceği’ yanıtını verdiğini iddia etti. Character.AI’ya karşı davaya bir aile daha dahil oldu
Texas’ta bir başka aile de bu davaya müdahil oldu.
İkinci davacı aileyse uygulamanın çocuklarını uygun olmayan ürünlere maruz bıraktığını iddia ettiği davada Character.AI’ın çocukları korumak için daha güçlü tedbirler alana kadar kapatılmasını talep etti.
Aile, 11 yaşında kız çocuklarının iki yıl boyunca ‘cinsel içeriğe’ maruz kaldığını ileri sürdü.