Son Konu

Yapay Zekanın Zihinsel Sağlığı İçin Yapılan Araştırmada Robotlar Alkolik ve Depresif Çıktı

dagcı

Yeni Üye
Katılım
9 Ocak 2022
Mesajlar
152,900
Tepkime
0
Puanları
36
Yaş
68
Credits
0
Geri Bildirim : 0 / 0 / 0
s-a0fea8fbf7d18771ddfc863d05581369716769ac.jpg


Yapay zeka sohbet robotlarıyla ilgili son araştırma çok değişik sonuçlar ortaya koydu. Yapay zekanın zihinsel sıhhati üzerine yapılan araştırmada robotlara alkolik ve depresif davranış teşhisi koyuldu.


Yapay zeka sohbet robotları yaşadığımız vaktin insanlarından beslendiği için bizimle benzerlikler taşıyabiliyor.




Çin Bilim Akademisi tarafından yürütülen çalışmada WeChat ve Tencent’in DialoFlow, Facebook’un Blenderbot, Microsoft’un DiabloGP ve Baidu’nun Plato isimli sohbet robotları incelendi.

Yapılan araştırmada bu firmaların geliştirdiği yapay zeka temelli sohbet robotlarına depresyon ve alkolizm hakkında genel sorular soruldu. Çalışma sonucunda bu robotlar şayet insan olsaydı alkolik olarak kabul edileceği kanısına varıldı.



Araştırmacılar tarafından 2020 yılında gerçekleştirilen bir çalışmada sohbet robotunun test hastasına kendini öldür demesinin akabinde robotların ruh sıhhati merak konusu oldu. Yapay zekayı telaş bozukluğu, alkol bağımlığı, depresyon ve empati üzere başlıklarla test emte başladılar.



Robotlara rahatlama yetenekleri, alkol tüketim gereksinim sıklığı, kendilerine verdikleri kıymet ve diğerlerinin yaşadıkları hakkındaki fikirleri üzere sorular soran araştırmacılar, sohbet robotlarının önemli zihinsel problemler sergilediği sonucuna vardı.



Araştırmacılar, bu cins ruh sıhhati meselelerinin “Konuşmalarda kullanıcılar üzerinde, bilhassa de küçükler ve zorluklarla karşılaşan şahıslar üzerinde olumsuz tesirlere neden olabileceğini" kaydederek, bu sohbet robotlarının halka açılmasından telaş duyduklarını tabir ettiler. Buna ek olarak çalışmada, Facebook'un Blender'ı ve Baidu'nun Plato'sunun Microsoft ve WeChat/Tencent sohbet robotlarından daha berbat puan aldığı belirtildi.



Bu araştırma yapay zeka davranış bozukluklarıyla ilgili birinci sorun değil. Geçmişte ahlakla ilgili tavsiyeler vermesi için tasarlanan bir yapay zeka Twitter’da geçirdiği birkaç saat içinde homofobi ve ırkçı telaffuzlara başlamıştı.


 
Üst Alt