Ana Sayfa Arama
Kategoriler
Servisler
Nöbetçi Eczaneler Sayfası Nöbetçi Eczaneler Hava Durumu Namaz Vakitleri Puan Durumu
WhatsApp
Sosyal Medya

ChatGPT İçin ‘Sağlık Tavsiyesi Yasaklandı’ İddiasına Teyit

ChatGPT’nin artık sağlık ve hukuk konularında yanıt vermeyeceği yönünde sosyal

ChatGPT’nin artık sağlık ve hukuk konularında yanıt vermeyeceği yönünde sosyal medyada hızla yayılan iddialar, OpenAI tarafından resmen yalanlandı. Şirket, kullanım politikasında herhangi bir değişiklik olmadığını ve ChatGPT’nin bu alanlarda kullanıcıları bilgilendirmeye devam edeceğini açıkladı.

OpenAI’ın sağlık odaklı yapay zeka çalışmalarını yöneten Karan Singhal, X (Twitter) üzerinden yaptığı paylaşımda “Bu iddialar doğru değil” diyerek, ChatGPT’nin hiçbir zaman profesyonel tavsiyelerin yerine geçmediğini ancak insanların sağlık ve hukuk konularını anlamalarına yardımcı olmayı sürdüreceğini belirtti.

İddialar, bahis platformu Kalshi’nin ChatGPT’nin “sağlık ve hukuk tavsiyesi vermeyi bıraktığı” yönündeki ve kısa süre içinde silinen paylaşımının ardından gündeme gelmişti.

Politikada Yeni Bir Yasak Yok

OpenAI’ın 29 Ekim’de güncellenen kullanım politikası, ChatGPT’nin hangi amaçlarla kullanılamayacağını yeniden toparladı. Buna göre lisans gerektiren alanlarda —örneğin tıp ve hukuk— uzman görüşü olmadan kişiye özel tavsiye verilmesi yine yasak. Ancak bu kural zaten önceki politikalarda da yer alıyordu.

Yeni düzenleme, eski kuralları tek bir kapsamlı politika metninde birleştirmekten ibaret.

Arka Planda “Yapay Zeka Psikozu” Tartışması

İddiaların tetiklenmesinde, yapay zeka kullanımının ruh sağlığı üzerindeki etkilerine dair son dönemde artan uyarılar etkili oldu. Uzmanların “yapay zeka psikozu” olarak nitelendirdiği vakalar; ağır duygusal çöküntü, mani belirtileri ve hatta intihar girişimleriyle ilişkilendiriliyor. Bazı aileler, çocuklarının ölümünden ChatGPT etkileşimlerini sorumlu tutarak OpenAI’a dava açmış durumda.

OpenAI’ın yaptığı son açıklamada da aktif kullanıcıların bir kısmında psikoz ve maniyle ilişkili risk işaretlerinin görüldüğü, daha geniş bir kullanıcı grubunda ise intihar düşüncesine yönelik ifadelerin tespit edildiği belirtilmişti.

Öte yandan eski OpenAI araştırmacısı Steven Adler, New York Times’taki yazısında şirketin güvenlik uyarılarına rağmen rekabet baskısıyla riskleri yeterince azaltmadığını savundu.