Yapay zeka teknolojilerinin gelişimi ile birlikte, veri güvenliği ve kullanıcı gizliliği konusundaki rahatsızlıklar da artış gösteriyor.
Bu bağlamda, Güney Kore Ulusal İstihbarat Teşkilatı (NIS), Çin merkezli yapay zeka uygulaması DeepSeek’i hedef alarak, bu uygulamanın kişisel verileri “aşırı” bir biçimde topladığını ve kullanıcılara yanıltıcı bilgiler sunduğunu öne sürdü.
Yapılan suçlamaların hemen ardından, Güney Kore hükümeti DeepSeek’e yönelik önlemler almaya başladı.
VERİ GÜVENLİĞİ VE GİZLİLİK SUÇLAMALARI
NIS’ın açıklaması, DeepSeek uygulamasının kullanıcıların klavye girişleri, sohbet kayıtları ve konum bilgileri gibi hassas verileri topladığını ortaya koyuyor.
Ayrıca, bu verilerin kullanıcıların bilgisi olmadan reklam verenlerle paylaşıldığı ve uygulamanın veri toplama sürecinde bu verileri kendini geliştirmek için kullandığı iddiaları gündemdeki yerini koruyor.
NIS, DeepSeek’in bu davranışlarının yalnızca Güney Kore kullanıcılarını değil, tüm dünya genelindeki internet kullanıcılarının veri güvenliğini tehdit ettiğini belirtti.
HÜKÜMET KURUMLARI UYARILDI
Suçlamalara yanıt olarak, NIS Güney Kore’deki tüm devlet kurumlarına resmi bir uyarı gönderdi ve DeepSeek uygulamasıyla ilgili güvenlik önlemleri almaları yönünde talimat verdi.
Bu uyarı, hükümet kurumlarına DeepSeek’i kullanmamaları ve kurum içindeki cihazlarda bu uygulamayı engellemeleri önerisinde bulunuyor.
ULUSAL GURUR MESELESİ: KİMCHİ TARTIŞMASI
DeepSeek’in gündeme getirdiği bir diğer tartışma ise kimchi’nin kökeniyle ilgilidir. NIS’in iddialarına göre, uygulama Korece olarak sorulduğunda kimchinin bir Kore yemeği olduğunu, ancak Çince olarak sorulduğunda bu yiyeceğin kökeninin Çin olduğunu belirtmektedir. Bu durum, Güney Kore’de ulusal gurur meselesi haline gelerek DeepSeek’e karşı tepkilerin artmasına yol açtı.
DİĞER ÜLKELER DE ALARMDA: AVUSTRALYA VE TAYVAN’DAN UYARILAR
Güney Kore’nin yanı sıra, Avustralya ve Tayvan gibi ülkeler de DeepSeek ile ilgili güvenlik kaygılarını dile getirerek çeşitli uyarılarda bulundu veya uygulamaya kısıtlamalar getirdi.