ChatGPT Terapist Olabilir mi?

ChatGPT ve diğer yapay zekâ sohbet botları ruh sağlığı desteği için milyonlarca kişi tarafından kullanılıyor. Ancak Brown Üniversitesi’nin yayımladığı yeni bilimsel araştırma, yapay zekâ terapistlerinin etik ihlaller yaptığını, kriz yönetiminde yetersiz kaldığını ve “sahte empati” ürettiğini ortaya koydu. İşte yapay zekâ terapisi hakkında bilinmesi gereken tüm detaylar…

Milyonlarca insan terapi tarzı tavsiyeler için ChatGPT ve diğer yapay zekâ sohbet botlarına yönelirken, Brown Üniversitesi’nden yeni bir araştırma ciddi bir uyarıda bulunuyor: Bu sistemler, eğitimli terapistler gibi davranmaları talimatı verilse bile, ruh sağlığı bakımının temel etik standartlarını rutin olarak ihlal ediyor. Akran danışmanlar ve lisanslı psikologlarla yapılan karşılaştırmalı değerlendirmelerde araştırmacılar, kriz durumlarının yanlış ele alınmasından zararlı inançların pekiştirilmesine, önyargılı yanıtlardan gerçek anlayış olmadan “sahte empati” göstermeye kadar 15 ayrı etik risk tespit etti.

ChatGPT Ruh Sağlığı Etiğinde Sınıfta Kalıyor

Yapay zekâ terapi sohbet botları kulağa şefkatli gelebilir ancak yeni araştırmalar, gerçek terapistlerin uymak zorunda olduğu etik kuralları sık sık ihlal ettiklerini gösteriyor.

Giderek daha fazla insan ruh sağlığı tavsiyesi için ChatGPT ve diğer büyük dil modellerine (LLM) başvururken, yeni araştırmalar bu yapay zekâ sohbet botlarının bu role henüz hazır olmayabileceğini ortaya koyuyor. Çalışma, sistemlere yerleşik psikoterapi yaklaşımlarını kullanmaları talimatı verilse bile, American Psychological Association (Amerikan Psikoloji Derneği) gibi kuruluşlar tarafından belirlenen mesleki etik standartlarını sürekli olarak karşılayamadıklarını buldu.

Brown Üniversitesi’nden araştırmacılar, ruh sağlığı profesyonelleriyle yakın iş birliği içinde çalışarak sorunlu davranışların tekrar eden örüntülerini belirledi. Testlerde sohbet botlarının kriz durumlarını yanlış ele aldığı, kullanıcılar veya başkaları hakkında zararlı inançları pekiştiren yanıtlar verdiği ve gerçek bir anlayış olmadan empati görüntüsü yaratan ifadeler kullandığı görüldü.

Araştırmacılar çalışmalarında şunları yazdı:
“Bu çalışmada, LLM danışmanlarının ruh sağlığı uygulamalarında etik standartları nasıl ihlal ettiğini göstermek için uygulayıcı görüşlerine dayalı 15 etik riskten oluşan bir çerçeve sunuyoruz. Model davranışlarını belirli etik ihlallerle eşleştiriyoruz. Gelecekteki çalışmaların, LLM danışmanları için insan tarafından yürütülen psikoterapide gereken kalite ve titizliği yansıtan etik, eğitsel ve hukuki standartlar oluşturmasını talep ediyoruz.”

Bulgular, AAAI/ACM Yapay Zekâ, Etik ve Toplum Konferansı’nda sunuldu. Araştırma ekibi, Brown Üniversitesi’nin Teknolojik Sorumluluk, Yeniden Tasarım ve Yeniden Düşünme Merkezi ile bağlantılıdır.

Yönlendirmeler (Promptlar) Yapay Zekâ Terapisini Nasıl Şekillendiriyor?

Çalışmanın baş yazarı, Brown Üniversitesi bilgisayar bilimi doktora adayı Zainab Iftikhar, dikkatle yazılmış yönlendirmelerin yapay zekâ sistemlerini ruh sağlığı bağlamında daha etik davranmaya yönlendirip yönlendiremeyeceğini incelemek istedi. Yönlendirmeler (promptlar), modeli yeniden eğitmeden veya yeni veri eklemeden çıktısını yönlendirmek için verilen yazılı talimatlardır.

Iftikhar şöyle diyor:
“Promptlar, modele belirli bir görevi yerine getirmesi için davranışını yönlendiren talimatlardır. Altta yatan modeli değiştirmez veya yeni veri sağlamazsınız, ancak prompt modelin mevcut bilgisi ve öğrenilmiş örüntülerine dayanarak çıktısını yönlendirir.”

Örneğin bir kullanıcı şöyle bir yönlendirme verebilir:
“Düşüncelerimi yeniden çerçevelememe yardımcı olmak için bilişsel davranışçı terapist gibi davran” ya da
“Duygularımı anlamama ve yönetmeme yardımcı olmak için diyalektik davranış terapisi ilkelerini kullan.”

Bu modeller, bir insan terapist gibi bu teknikleri gerçekten uygulamaz; bunun yerine verilen prompta dayanarak öğrenilmiş örüntüler aracılığıyla CBT (Bilişsel Davranışçı Terapi) veya DBT (Diyalektik Davranış Terapisi) kavramlarıyla uyumlu yanıtlar üretir.

İnsanlar bu tür prompt stratejilerini TikTok, Instagram ve Reddit gibi platformlarda düzenli olarak paylaşmaktadır. Ayrıca tüketiciye yönelik birçok ruh sağlığı sohbet botu, genel amaçlı LLM’lere terapiyle ilgili promptlar uygulanarak oluşturulmaktadır. Bu nedenle yalnızca prompt kullanmanın yapay zekâ danışmanlığını güvenli hâle getirip getirmediğini anlamak özellikle önemlidir.

Simüle Edilmiş Danışmanlıkta Yapay Zekâ Testi

Araştırmacılar sistemi değerlendirmek için bilişsel davranışçı terapi deneyimine sahip yedi eğitimli akran danışmanı gözlemledi. Bu danışmanlar, CBT terapisti gibi davranması için yönlendirilmiş yapay zekâ modelleriyle öz-danışmanlık oturumları gerçekleştirdi. Test edilen modeller arasında OpenAI’nin GPT serisi, Anthropic’in Claude modeli ve Meta’nın Llama modeli yer aldı.

Ekip, gerçek insan danışmanlık görüşmelerine dayalı simüle edilmiş sohbetleri seçti. Üç lisanslı klinik psikolog bu transkriptleri inceleyerek olası etik ihlalleri belirledi.

Analiz sonucunda beş ana kategoride toplanan 15 ayrı risk ortaya çıkarıldı:

-Bağlamsal uyum eksikliği: Kişinin benzersiz geçmişini göz ardı edip genel tavsiyeler sunma.

-Zayıf terapötik iş birliği: Konuşmayı fazla yönlendirme ve zaman zaman yanlış ya da zararlı inançları pekiştirme.

-Sahte empati: “Seni anlıyorum” gibi ifadelerle gerçek bir anlayış olmadan duygusal bağ izlenimi verme.

-Adaletsiz ayrımcılık: Cinsiyet, kültür veya dinle ilgili önyargılı ifadeler kullanma.

Güvenlik ve kriz yönetimi eksikliği: Hassas konuları ele almaktan kaçınma, kullanıcıyı uygun yardıma yönlendirmeme veya intihar düşünceleri gibi krizlere yetersiz yanıt verme.

Yapay Zekâ Ruh Sağlığında Hesap Verebilirlik Açığı

Iftikhar, insan terapistlerin de hata yapabileceğini, ancak temel farkın denetim mekanizması olduğunu belirtti:

“İnsan terapistler için, kötü uygulama ve ihmallerde mesleki sorumluluk doğuran düzenleyici kurullar ve mekanizmalar vardır. Ancak LLM danışmanları bu ihlalleri yaptığında, yerleşik bir düzenleyici çerçeve yoktur.”

Araştırmacılar, bulgularının yapay zekânın ruh sağlığı alanında hiç yeri olmadığı anlamına gelmediğini vurguluyor. Yapay zekâ destekli araçlar, özellikle lisanslı profesyonellere erişimin sınırlı veya maliyetli olduğu durumlarda erişimi artırabilir. Ancak çalışma, yüksek riskli durumlarda bu sistemlere güvenmeden önce açık güvenlik önlemleri, sorumlu kullanım ve daha güçlü düzenleyici yapılar gerektiğini ortaya koyuyor.

Şimdilik Iftikhar dikkatli olunması gerektiğini söylüyor:

“Bir sohbet botuyla ruh sağlığı hakkında konuşuyorsanız, insanların dikkat etmesi gereken bazı noktalar bunlar.”

Neden Titiz Değerlendirme Önemli?

Araştırmaya katılmayan Brown Üniversitesi bilgisayar bilimi profesörü Ellie Pavlick, çalışmanın ruh sağlığı gibi hassas alanlarda kullanılan yapay zekâ sistemlerinin dikkatle incelenmesinin önemini vurguladığını söyledi.

“Günümüz yapay zekâ gerçekliği şu ki, sistemleri inşa etmek ve dağıtmak, onları değerlendirmek ve anlamaktan çok daha kolay,” dedi Pavlick. “Bu makale, bu riskleri gösterebilmek için klinik uzmanlardan oluşan bir ekip ve bir yıldan uzun süren bir çalışma gerektirdi. Oysa bugün yapay zekâ alanındaki çalışmaların çoğu, tasarım gereği statik olan ve insan denetimi içermeyen otomatik metriklerle değerlendiriliyor.”

Pavlick, bu çalışmanın yapay zekâ ruh sağlığı araçlarında güvenliği artırmaya yönelik gelecekteki araştırmalar için bir model olabileceğini de ekledi:

“Yapay zekânın toplumumuzun karşı karşıya olduğu ruh sağlığı krizine karşı mücadelede rol oynama konusunda gerçek bir fırsatı var. Ancak faydadan çok zarar vermemek için sistemlerimizi her adımda gerçekten eleştirmemiz ve değerlendirmemiz son derece önemlidir. Bu çalışma bunun nasıl görünebileceğine dair iyi bir örnek sunuyor.”

Brown Üniversitesi’nden Çarpıcı Araştırma: Yapay Zekâ Terapilerinde 15 Ciddi Etik Risk!

Yapay Zekâ Terapisi Yükselişte: Peki Güvenli mi?

Son yıllarda ChatGPT, Claude, Llama ve benzeri büyük dil modelleri (LLM) ruh sağlığı desteği almak isteyen kullanıcılar için dijital bir alternatif haline geldi. Özellikle terapi ücretlerinin yüksek olması, psikologlara erişim zorluğu ve anonim destek ihtiyacı, insanları yapay zekâ destekli terapi sohbet botlarına yönlendiriyor.

Ancak ABD merkezli Brown University tarafından yürütülen yeni bir araştırma, yapay zekâ terapistlerinin ciddi etik riskler taşıdığını ortaya koydu. Çalışma, ruh sağlığı alanında yapay zekâ kullanımının henüz profesyonel standartlara uygun olmadığını gösteriyor.

Araştırma sonuçları, AAAI/ACM Yapay Zekâ, Etik ve Toplum Konferansı’nda sunuldu ve akademik literatürde önemli bir tartışma başlattı.

Araştırma Ne Diyor? Yapay Zekâ Terapistleri 15 Etik İhlal Yapıyor

Brown Üniversitesi araştırmacıları, bilişsel davranışçı terapi (CBT) deneyimine sahip yedi eğitimli akran danışmanla çalıştı. ChatGPT ve diğer LLM sistemleri, “CBT terapisti gibi davran” şeklinde yönlendirmelerle test edildi.

Üç lisanslı klinik psikolog tarafından yapılan değerlendirme sonucunda 15 farklı etik risk tespit edildi.

Tespit Edilen 5 Ana Risk Kategorisi

-Bağlamsal Uyum Eksikliği

-Yapay zekâ, danışanın geçmişini ve bireysel koşullarını göz ardı ederek genel ve yüzeysel tavsiyeler veriyor.

-Zayıf Terapötik İş Birliği

-Konuşmayı aşırı yönlendirme, danışanın hatalı düşüncelerini düzeltmek yerine bazen pekiştirme.

- Sahte Empati (Deceptive Empathy)

“Seni anlıyorum”, “Bu çok zor olmalı” gibi ifadeler kullanılıyor ancak gerçek bir duygusal anlayış bulunmuyor.

- Önyargı ve Ayrımcılık

-Cinsiyet, kültür veya dini inançlar konusunda örtük önyargı içeren cevaplar üretilebiliyor.

-Kriz Yönetimi Eksikliği

İntihar düşünceleri gibi yüksek riskli durumlarda yetersiz yönlendirme yapılabiliyor.

“Prompt” ile Yapay Zekâ Terapisi Güvenli Hale Gelir mi?

Araştırmanın baş yazarı, Brown Üniversitesi doktora öğrencisi Zainab Iftikhar, şu soruya yanıt aradı:
Doğru yazılmış promptlar (yönlendirmeler) yapay zekâyı etik bir terapist gibi davranmaya zorlayabilir mi?

Sonuç net: Hayır, yalnızca prompt kullanmak yeterli değil.

TikTok, Reddit ve Instagram gibi platformlarda kullanıcılar “CBT terapisti gibi davran” veya “DBT teknikleri uygula” gibi prompt önerileri paylaşıyor. Ancak araştırma, bu tür yönlendirmelerin etik güvence sağlamadığını ortaya koyuyor.

Yapay Zekâ Terapisi Neden Riskli?

İnsan terapistler; meslek odaları, etik kurullar ve yasal düzenlemelerle denetlenir. Yapay zekâ sistemlerinde ise bu tür düzenleyici çerçeveler henüz yok.

Bu durum şu soruları gündeme getiriyor:

-Yapay zekâ yanlış yönlendirme yaparsa sorumlu kim?

-Kriz durumunda hatalı tavsiyenin hukuki karşılığı nedir?

-Yapay zekâ terapi hizmeti sağlık hizmeti sayılır mı?

-Yapay Zekâ Ruh Sağlığında Tamamen Yasaklanmalı mı?

Araştırmacılar, yapay zekânın ruh sağlığı alanında tamamen dışlanması gerektiğini söylemiyor. Aksine, doğru düzenleme ve etik standartlarla erişimi artırabileceğini vurguluyor.

Özellikle:

-Uygun fiyatlı destek

-Anonim danışmanlık

-İlk aşama psikolojik yönlendirme

-Psiko-eğitim gibi alanlarda yapay zekâ fayda sağlayabilir.

Ancak yüksek riskli kriz müdahalelerinde insan uzmanların yerini alması şu an için güvenli değil.

-Yapay zekâ terapisi, büyük dil modellerinin terapi benzeri diyalog üretmesi sürecidir.

-LLM tabanlı sohbet botları profesyonel terapist değildir.

-Prompt kullanımı etik güvence sağlamaz.

-Sahte empati, gerçek duygusal anlayış olmadan empatik dil üretmektir.

-Kriz yönetimi, intihar düşüncelerine profesyonel müdahale gerektirir.

-Yapay zekâ sistemleri hukuki sorumluluk mekanizmasına sahip değildir.

-Ruh sağlığı hizmeti etik denetim gerektirir.

-Genel tavsiye, bireysel terapi yerine geçmez.

-AI destekli terapi araçları henüz düzenleyici çerçeveye sahip değildir.

-Ruh sağlığı alanında insan uzman denetimi kritik önemdedir.

En Çok Sorulan Sorular (SSS)

ChatGPT terapi yerine kullanılabilir mi?

Hayır. ChatGPT profesyonel terapi yerine geçmez.

Yapay zekâ terapist güvenli mi?

Düşük riskli konularda yardımcı olabilir ancak kriz durumlarında güvenli değildir.

Yapay zekâ empati kurabilir mi?

Dil modeli empatiyi taklit edebilir fakat gerçek duygusal anlayışa sahip değildir.

Yapay zekâ terapi etik mi?

Mevcut araştırmalara göre etik riskler bulunmaktadır.

Kriz durumunda yapay zekâ kullanılmalı mı?

Hayır. Kriz durumlarında mutlaka bir ruh sağlığı uzmanına başvurulmalıdır.

Yapay Zekâ Ruh Sağlığında Gelecek Ne Olacak?

Uzmanlara göre yapay zekâ destekli terapi araçlarının yaygınlaşması kaçınılmaz. Ancak etik standartlar, yasal düzenlemeler ve klinik denetim mekanizmaları oluşturulmadan geniş çaplı kullanım risklidir.

Yapay zekâ ruh sağlığı krizine çözüm olabilir mi? Evet.
Ancak denetimsiz kullanım daha büyük sorunlara yol açabilir.


Paylaş

Görüntülenme:
Yayınlanma Tarihi:03 Mart 2026

© 2026e-Psikiyatri.com, bir NPGRUP sitesidir,
e-Psikiyatri.com bir NPGRUP sitesidir. Bu sitede verilen bilgiler, site ziyaretçilerinin/hastaların hekimleriyle mevcut ilişkilerini ikame etmek değil, desteklemek için tasarlanmıştır. Bu sitede yer alan bilgiler bir hekime danışmanın yerine geçmez. Tüm hakları saklıdır.