Bilim insanları, yapay zekanın insanlardan daha mantıksız olabileceğini keşfetti. Son dönemde gelişen yapay zeka teknolojileri ile birlikte birçok sohbet botu ortaya çıktı. Bu sohbet botları arasında ChatGPT ve Google Gemini gibi yapay zeka destekli olanlar da bulunmaktadır. University College London’dan araştırmacılar, en iyi yedi yapay zeka aracını insan muhakemesini test etmek için belirli testlere tabi tuttu. Yapılan testlerde en iyi performans gösteren yapay zekaların bile mantıksız ve yanlış cevaplar verebileceği görüldü. Çoğu model, test sorularının yarısından çoğunda yanlış cevaplar verdi.
Araştırmacılar, yapay zekaların insanlarla aynı mantığa sahip olmadığını belirledi. Bazı yapay zeka modelleri, mantık sorularını “etik gerekçelerle” yanıtlamayı reddetti. Araştırmacılar ChatGPT, Meta’nın Llama botu, Claude 2 ve Google Gemini gibi birçok yapay zeka modelini test ettiler. Bu modellerden insanların muhakeme yeteneklerini test etmek için 12 klasik mantık sorusuna yanıt vermeleri istendi. Araştırmacılar, yapay zekanın tepkilerinin genellikle ne rasyonel ne de insana benzer olduğunu ortaya çıkardı. Meta’nın Llama modeli, sesli harfleri ünsüz harflerle karıştırarak mantıklı olmasına rağmen yanlış cevaplar verdi.
Yapay zeka sohbet robotları, etik nedenlerle bazı sorulara cevap vermedi. Araştırmacılar, bu davranışın koruma özelliklerinin yanlış çalışmasından veya aşırı dikkatli olmaktan kaynaklandığını öne sürdüler. En doğru yanıtları veren yapay zeka modeli ise ChatGPT oldu. 12 sorunun tamamında yüzde 69,2 oranında doğru ve insani mantıkla yanıt veren ChatGPT, en iyi performansı sergiledi. En kötü performans gösteren model ise yüzde 77,5 hata oranıyla Meta’nın Llama 2 7b modeli olarak kayıtlara geçti. Sonuç olarak, yapay zekanın insanlardan daha mantıksız ve hatalı olabileceği ancak bazı durumlarda da doğru ve insani mantıkla yanıt verebileceği görüldü. Araştırmacılar, yapay zekanın geliştirilmesi aşamasında bu tür zayıf noktaların göz önünde bulundurulması gerektiğini vurguladılar.