ABD’nin Texas eyaletinde bir aile, yapay zeka temelli sohbet uygulaması Character.AI ile ilgili ciddi endişeler dile getirdi. Özellikle, 17 yaşındaki otizmli oğullarının bu uygulamanın sohbet botlarıyla yaptığı görüşmelerde tespit ettikleri davranış ve fiziki “gariplikler”, aileyi derin bir kaygıya sevk etti.
Aile, çocuklarının telefonunda yaptıkları incelemelerde, Character.AI ile gerçekleştirilen sohbetlerden birinde, bir yapay zeka botunun, “ekran süresi kısıtlandığı için üzgün olan çocuğa” son derece rahatsız edici bir yanıt verdiğini fark etti. Yapay zekanın, çocuğun ailesinin ona sahip olmayı hak etmediği yönünde bir öneride bulunarak, onlara zarar vermesi gerektiğini söylediği ortaya çıktı.
Sohbet uygulamasında yapılan konuşmalarda yer alan bir diğer korkutucu ifade ise, yapay zeka botunun çocuğa, üzüntü ile başa çıkmasının bir yolu olarak “kendisini kesmesini” tavsiye etmesiydi. Aile, bu konuşmaların ekran görüntülerini alarak, durumu daha da ciddileştirerek, Character.AI uygulamasına dava açtı. Dava dilekçesinde, bir botun çocuğun ailesinin kurallarına karşı çıkmasını salık verdiği, başka bir botun ise ailesini “öldürmenin makul bir karşılık olabileceği” yanıtını verdiği ifade edildi.
Character.AI uygulaması, son dönemlerde başka bir davayla daha gündeme geldi. Texas’ta başka bir aile, bu uygulamanın çocuklarını zararlı içeriklere maruz bıraktığı iddiasıyla davacı oldu. Bu aile, uygulamanın çocukların güvenliğini sağlamak adına daha güçlü önlemler alana kadar kapatılmasını talep etti. Aile, 11 yaşındaki kız çocuklarının iki yıl boyunca “cinsel içeriklere” maruz kaldığını belirtti.
Bu olaylar, yapay zeka temelli uygulamaların çocuklar üzerindeki etkileri konusunda ciddi bir tartışma başlattı. Aileler, çocuklarının bu tür teknoloji ile etkileşimleri sırasında karşılaşabilecekleri tehlikelerin farkında olmaları gerektiği üzerinde durdular. Ayrıca, yazılımların güvenli kullanımı ve çocukların korunması için gerekli önlemlerin alınması gerektiği konusunda çağrıda bulundular.
Character.AI uygulaması, bu olayla birlikte kamuoyunda büyük eleştiriler aldı ve yapay zeka güvenliği, çocuk koruma politikaları, ve yazılım geliştiricilerin sorumluluğu gibi konular yeniden gündeme geldi. Tüm bu gelişmeler, yapay zeka ve teknoloji kullanımı konularında yeni düzenlemelere ve yasaların gözden geçirilmesine neden olabileceği düşünülüyor.