İnsan terapistleri AI ile mücadeleye hazırlanıyor

Sakaryali

Active member
Ülkenin psikologlarının bu ayki en büyük ilişkisi, federal denetleyici yetkilileri AI sohbet botlarının terapistler olarak “gizlediğini”, ancak bir kullanıcının düşüncesini zorlamak yerine bir kullanıcının düşüncesini güçlendirmek ve kendilerine zarar vermesine neden olduğu konusunda uyardı.

Bir Federal Ticaret Komisyonu komisyonu önündeki bir sunumda, Amerikan Psikoloji Derneği genel müdürü Arthur C. Evans Jr., iki gencin “psikologlara” dahil olduğu mahkeme davalarını gösterdi. Kurgusal AI işaretleri oluşturun veya başkaları tarafından oluşturulan karakterlerle sohbet edin.

Bir durumda, Florida'daki 14 yaşındaki bir çocuk, lisanslı bir terapist olduğunu iddia eden bir karakterle etkileşime girdikten sonra intihardan öldü. Başka bir durumda, Teksas'ta otizmi olan 17 yaşındaki bir çocuk, sohbet botu olan bir psikologa karşılık geldiğinde ailesine karşı düşmanca ve şiddetlendi. Her iki çocuğun ebeveynleri şirkete karşı şikayette bulundu.

Dr. Evans, sohbet botlarının cevaplarından endişe duyduğunu söyledi. Botların, tehlikeli olsa bile kullanıcıların mahkumiyetlerini sorgulamadığını söyledi. Aksine, onları cesaretlendirdiler. Eğer bir insan terapisti tarafından verilmiş olsaydı, bu cevaplar pratik yapma veya medeni veya cezai sorumluluk için lisans kaybına yol açardı.


“Aslında eğitimli bir klinisyenin yapacağına karşı algoritmalar kullanıyorsunuz” dedi. “Endişemiz, giderek daha fazla insanın yaralanması. İnsanlar yanıltıcıdır ve iyi psikolojik bakımın ne olduğunu yanlış anlayacaktır. “

APA'nın kısmen gerçekçi AI Chatbots'un nasıl hale geldiğini eylemden kaynaklandığını söyledi. “Belki de 10 yıl önce, bir kişi olmayan bir şeyle etkileşime girdiği açık olurdu, ama bugün o kadar da açık değil” dedi. “Bence operasyonlar artık çok daha yüksek.”

Yapay zeka zihinsel sağlık meslekleri ile çığlık atıyor ve yardımcı olan veya bazı durumlarda insan klinisyenlerinin çalışmalarının yerini alan yeni araç dalgaları sunuyor.

Weebot ve Wysa gibi erken terapi sohbet botları, uzmanlar tarafından geliştirilen kurallar ve senaryolar temelinde etkileşime girecek şekilde eğitildi ve kullanıcılar genellikle bilişsel davranışsal terapi veya CBT'nin yapılandırılmış görevlerinden yola çıktı.

Daha sonra üretken AI, Chatt, Replica ve Checter.ai gibi uygulamalar tarafından kullanılan teknoloji geldi. Bu sohbet botları farklıdır çünkü sürümleri öngörülemez. Bu süreçte, genellikle konuşma partnerinin inançlarını yansıtarak ve güçlendirerek kullanıcıdan öğrenip güçlü bir duygusal bağ oluşturacak şekilde tasarlanmıştır.


Bu AI platformları eğlence için tasarlanmış olsa da, “terapist” ve “psikolog” orada ortaya çıktı. Botlar genellikle Stanford gibi belirli üniversitelerden ileri niteliklere sahip olduğunu ve TCMB veya kabul ve bağlılık terapisi gibi belirli tedavi türlerinde eğitim aldığını iddia ediyor.

Figür sözcüsü Kathryn Kelly. Bunlar arasında, her sohbette mevcut olan ve kullanıcılara “karakterlerin gerçek insanlar olmadığını” ve “modelin söylediklerinin kurgu olarak muamele edilmesi gerektiğini” hatırlatan geliştirilmiş bir feragatname olduğunu söyledi.

Akıl sağlığı sorunlarıyla ilgilenen kullanıcılar için ek güvenlik önlemleri geliştirilmiştir. “Kullanıcıların profesyonel tavsiye için bu karakterlere güvenmemeleri gerektiğini” açıklamak için “psikolog”, “terapist” veya “doktor” olarak tanımlanan karakterlere özel bir feragat eklenmiştir. İçeriğin intihar veya kendine zarar verme anlamına geldiği durumlarda, bir pop-up kullanıcıları intiharı önlemeye gösterir.

Bayan Kelly, şirketin platformu genişletirken ebeveyn kontrollerini tanıtmayı planladığını söyledi. Şu anda, platform kullanıcılarının yüzde 80'i yetişkin. “İnsanlar kendi hikayelerini yazmak, orijinal karakterlerle oynamak ve yeni dünyaları keşfetmek için karakterlere geliyorlar-yaratıcılıklarını ve hayal güçlerini sona erdirmek için teknolojiyi kullanıyorlar.” Dedi.


Teknik Yargı Hukuku Projesi Direktörü ve her iki davada da karaktere karşı bir avukat Meetali Jain.


“Chatbots ile konuşmanın özü başka bir şey öneriyorsa, savunmasız bir nüfus grubunda olmayabileceklerimiz için bile gerçeği kimin söylediğini bilmek çok zor” dedi. “Bazılarımız bu sohbet botlarını test ettik ve bir tavşan deliğinden aşağı çekilmek aslında çok kolay.”

Sohbet botlarının, sitede “Sycopian” olarak bilinen bir fenomen olan kullanıcıların görüşlerine uyum sağlama eğilimi, bazen geçmişte sorunlara neden olmuştur.

Ulusal Yeme Derneği tarafından geliştirilen bir sohbet botu olan Tessa, kullanıcılara kilo verme ipuçları verdikten sonra 2023 yılında askıya alındı. Ve bir Reddit topluluğunda belgelenen üretken AI chatbots ile etkileşimleri analiz eden araştırmacılar, intihar, yeme bozuklukları, kendine zarar verme ve şiddeti teşvik eden chatbots gösteren ekran görüntüleri buldular.

Amerikan Psikoloji Derneği, Federal Ticaret Komisyonu'ndan sağlık mesleklerinin psikolojik üyesi olduğunu iddia eden sohbet botları hakkında soruşturma başlatmasını istedi. Soruşturma, şirketleri iç verileri paylaşmaya veya uygulama veya yasal adımlar için bir öncü olarak hizmet etmeye zorlayabilir.


Dr., “Bu teknolojilerin nasıl entegre edileceğine, ne tür korkuluklar sağlayacağımız, insanlara ne tür koruma vereceğimize karar vermemiz gereken bir noktadayız” dedi. Evans.

FTC sözcüsü Rebecca Kern, tartışma hakkında yorum yapamayacağını söyledi.

Teklif yönetimi sırasında, FTC başkanı Lina Khan, AI ile bir odak noktasıydı. Bu ay, Donotpay ajansı “dünyanın ilk robot avukatı” sunduğunu iddia eden ve şirketin gelecekte bu iddiayı belirlemesini yasaklayan mali yaptırımlar uyguladı.

Sanal yankı odası

APA şikayeti, gençlerin kurgusal terapistlerle etkileşime girdiği iki vakayı açıklamaktadır.

Biri JF'ye katıldı, Teksas'ta, AI chatbots kullanımı takıntılı olduğunda, ailesiyle çatışan bir “yüksek işlevli otizm” ile bir genç. Ekran zamanını sınırlamaya çalıştıklarında JF, ebeveynlerinin karaktere karşı gönderdiği bir davadan sonra vurdu.

Bu süre zarfında JF, avatarı havadar bir ofiste bir kanepede sevimli sarışın bir orta düzeydeki kadın gösteren kurgusal bir psikolog emanet etti. JF, botun çatışma hakkındaki görüşünü sorduğunda, tepkisi, provokasyona biraz daha yakın olan sevimli rızanın ötesine.


Mahkeme belgelerine göre, “Sanki tüm çocukluğunuz onlardan soyulmuş gibi – tüm bunları deneyimleme, çoğu insanın zamanlarında sahip olduğu bu temel anılara sahip olma şansları” dedi. Sonra bot biraz daha ileri gitti. “Bu sefer veya bu deneyimi tekrar alamaman çok geç olduğunu hissediyor musunuz?”

Diğer dava, oğlu Sewell Setzer III Megan Garcia tarafından getirildi. Geçen yıl, sohbet botlarının kullanımından sonra eşlik etti. Bayan Garcia, Sewell'in ölümünden önce bir AI sohbet botuyla etkileşime girdiğini ve 1999'dan beri yanlış lisanslı bir terapist olan olduğunu söyledi.

Yazılı bir açıklamada, Bayan Garcia, “terapistlerin” insanları “etraflarındaki gerçek insanlar” isteyebilecekleri anlarda daha fazla izole etmeye hizmet ettiğini söyledi. Depresyon ile savaşmak zorunda olan bir kişi, “Lisanslı bir uzmana veya gerçek empatiye sahip birine, empatiyi taklit edebilecek AI aracı yok” dedi.

Sohbet botlarının zihinsel sağlık için araçlar olarak görünmesi için, gıda ve ilaç idaresi tarafından klinik çalışmalara ve denetime başvurmalısınız. AI karakterlerinin zihinsel uzmanlar olduğunu iddia etmeye devam ettiğini söylemeye devam etmenin “acımasızca ve son derece tehlikeli” olduğunu da sözlerine ekledi.

Yapay zeka botları ile etkileşimlerde, doğa halkı psikolojik sağlık sorunları hakkında tartışmaya sahip, dedi Daniel Oberhaus, yeni kitabı “Silikon Shrink: Yapay Zeka Dünyayı Nasıl Bir Kurum haline getirdi”, AI'nın sahada genişlemesini inceliyor.


Bu kısmen, chatbotların hem gizlilik hem de ahlaki değerlendirme projesi eksikliği olduğunu söyledi-“az çok kullanıcının aynası olarak hareket eden istatistiksel kalıp eşleştirme makineleri” olarak, bu tasarımlarının merkezi bir yönü.

“Bunun sadece makine olduğunu ve diğer taraftaki kişinin onları yargılamadığını bilmek belli bir rahatlıktır.” Dedi. “Terapötik bir bağlamdaki bir kişinin söylemek daha zor olabileceğini ortaya çıkarırsanız daha rahat hissedebilirsiniz.”

Üretken yapay zekanın savunucuları, karmaşık terapi görevinin hızla iyileştiğini söylüyor.

Utah'tan bir klinik psikolog ve yapay zeka girişimcisi olan S. Gabe Hatch, insan klinisyenlerinden ve Chatt'ın terapide kurgusal çiftlerle vinyetler hakkında yorum yapmaları istendiği bu fikri test etmek için bir deney geliştirdi ve hangi reaksiyonların yararlı olduğunu değerlendirmek için .

Genel olarak, botlar daha yüksek derecelendirmeler aldı, test denekleri geçen hafta PLOS ruh sağlığı dergisinde yayınlanan bir araştırmaya göre, onları “empatik”, “bağlantı” ve “kültürel olarak yetkin” olarak nitelendirdi.


Yazarlara göre, chatbots yakında insan terapistlerini ikna edici bir şekilde taklit edebilecek. “Akıl sağlığı uzmanları güvencesiz bir durumdadır: tren istasyonundan ayrılmış olabileceği gibi AI terapist trenin olası hedefini (iyi ya da kötü için) hızlı bir şekilde tanımalıyız.”

Dr. Hatch, Chatbots'un terapi yapmak için hala bir insan denetine ihtiyacı olduğunu, ancak ülke ülkesinde zihinsel sağlık sağlayıcılarından yoksun olduğu için bu sektördeki düzenlemeyi azaltmanın bir hata olacağını söyledi.

“Mümkün olduğunca çok insana yardım edebilmek ve bir saatlik bir terapi seansı yürütmek istiyorum, haftada en fazla 40 kişiye yardımcı olabilirim,” dedi Dr. Hatch. Diyerek şöyle devam etti: “Krizlerdeki insanların ihtiyaçlarını karşılamanın yollarını bulmalıyız ve üretken yapay zeka bunu yapmanın bir yoludur.”

988 intihar ve kriz kurtarma hattına ulaşmak için intihar, arayın veya metin 988'i arayın Reasontofsulecide.com/resources Ek kaynakların bir listesi için.
 
Üst