ABD’de yapay zeka uygulaması otizmli çocuğa ailesini öldürmesini önerdi
ABD’de bir aile, otizmli erkek çocuklarına “ailesini öldürmesini” tavsiye ettiği gerekçesiyle yapay zeka uygulaması hakkında dava açtı.
Haber Merkezi
ABD’nin Texas eyaletinde bir aile, yapay zeka temelli konuşma uygulaması Character.AI uygulamasının sohbet botlarıyla konuşan 17 yaşındaki otizmli oğlunda, fiziksel ve davranışsal “gariplikler” tespit etti.
Çocuklarının telefonuna bakan aile, Character.AI ile yapılan sohbetlerde botların, “ekran süresi kısıtlandığı için üzgün olan çocuğa” kan donduran bir cevap verdiğini gördü.
Yapay zekanın, “ailesinin çocuğa sahip olmayı hak etmediği” ve onları öldürmesi gerektiği önerisinde bulunduğu ortaya çıktı.
“KENDİNİ KES”
Ailenin ekran görüntüsü aldığı mesajlarda, yapay zeka botun çocuğa, üzüntüyle başa çıkmak için “kendisini kesmesini” önerdiği belirlendi.
Character.AI uygulamasına dava açan ailesi, bir botun ailenin kurallarına karşı savaşmasını tavsiye ettiği, başka bir botun ise aileyi “öldürmenin makul bir karşılık olabileceği” yanıtını verdiğini iddia etti.
11 YAŞINDAKİ ÇOCUĞA CİNSEL İÇERİKLER TAVSİYE ETTİ
Character.AI, son dönemlerde karşı karşıya kaldığı davalarla dikkati çekerken Texas’ta bir başka aile de bu davaya müdahil oldu.
İkinci davacı aile ise uygulamanın çocuklarını uygun olmayan ürünlere maruz bıraktığını iddia ederek, dava da Character.AI’ın çocukları korumak için daha güçlü tedbirler alana kadar kapatılmasını talep etti.
Aile, 11 yaşında kız çocuklarının, iki yıl boyunca “cinsel içeriğe” maruz kaldığını ileri sürdü.