ChatGPT sedang memberikan terapi. Revolusi kesehatan mental mungkin berikutnya

[ad_1]

Taipei, Taiwan – Mengetik “Saya memiliki kecemasan” ke dalam ChatGPT, chatbot bertenaga kecerdasan buatan OpenAI yang inovatif mulai bekerja dengan segera.

“Saya menyesal mendengar bahwa Anda mengalami kecemasan,” coretan di layar. “Ini bisa menjadi pengalaman yang menantang, tetapi ada strategi yang dapat Anda coba untuk membantu mengelola gejala Anda.”

[related by=”latepost” jumlah=”2″ mulaipos=”1″]

Kemudian muncul daftar rekomendasi bernomor: mengusahakan relaksasi, fokus pada tidur, mengurangi kafein dan alkohol, menantang pikiran negatif, dan mencari dukungan dari teman dan keluarga.

Meskipun bukan saran yang paling orisinal, ini menyerupai apa yang mungkin didengar di kantor terapis atau dibaca online di artikel WebMD tentang kecemasan – paling tidak karena ChatGPT mengorek jawabannya dari hamparan luas internet.

ChatGPT sendiri memperingatkan bahwa itu bukan pengganti psikolog atau konselor. Namun hal itu tidak menghentikan beberapa orang untuk menggunakan platform tersebut sebagai terapis pribadi mereka. Dalam posting di forum online seperti Reddit, pengguna menggambarkan pengalaman mereka meminta nasihat ChatGPT tentang masalah pribadi dan peristiwa hidup yang sulit seperti perpisahan.

[related by=”latepost” jumlah=”2″ mulaipos=”3″]

Beberapa telah melaporkan pengalaman mereka dengan chatbot sama baiknya atau lebih baik daripada terapi tradisional.

Kemampuan mencolok ChatGPT untuk meniru percakapan manusia telah menimbulkan pertanyaan tentang potensi AI generatif atau mengobati kondisi kesehatan mental, terutama di wilayah dunia, seperti Asia, di mana layanan kesehatan mental sangat tipis dan diselimuti stigma.

Beberapa penggemar AI melihat chatbot memiliki potensi terbesar dalam pengobatan kondisi umum yang lebih ringan seperti kecemasan dan depresi, pengobatan standar yang melibatkan terapis yang mendengarkan dan memvalidasi pasien serta menawarkan langkah-langkah praktis untuk mengatasi masalahnya. .

[related by=”latepost” jumlah=”2″ mulaipos=”5″]

Secara teori, terapi AI dapat menawarkan akses dukungan yang lebih cepat dan lebih murah daripada layanan kesehatan mental tradisional, yang mengalami kekurangan staf, daftar tunggu yang panjang, dan biaya tinggi, dan memungkinkan penderita menghindari perasaan menghakimi dan malu, terutama di belahan dunia. di mana penyakit mental masih tabu.

ChatGPT telah menggemparkan dunia sejak diluncurkan pada bulan November [File: Florence Lo/Reuters]

“Psikoterapi sangat mahal dan bahkan di tempat-tempat seperti Kanada, tempat saya berasal, dan negara lain, itu sangat mahal, daftar tunggunya sangat panjang,” Ashley Andreou, seorang mahasiswa kedokteran yang berfokus pada psikiatri di Universitas Georgetown, mengatakan kepada Al Jazeera .

“Orang tidak memiliki akses ke sesuatu yang menambah pengobatan dan pengobatan berbasis bukti untuk masalah kesehatan mental, jadi menurut saya kita perlu meningkatkan akses, dan menurut saya AI generatif dengan profesional kesehatan bersertifikat akan meningkatkan efisiensi. ”

[related by=”latepost” jumlah=”2″ mulaipos=”7″]

Prospek AI menambah, atau bahkan memimpin, perawatan kesehatan mental menimbulkan banyak masalah etika dan praktis. Ini berkisar dari bagaimana melindungi informasi pribadi dan rekam medis, hingga pertanyaan tentang apakah program komputer akan benar-benar mampu berempati dengan pasien atau mengenali tanda-tanda peringatan seperti risiko melukai diri sendiri.

Sementara teknologi di belakang ChatGPT masih dalam tahap awal, platform dan saingan chatbot lainnya berjuang untuk mencocokkan manusia di area tertentu, seperti mengenali pertanyaan berulang, dan dapat menghasilkan jawaban yang tidak dapat diprediksi, tidak akurat, atau mengganggu dalam menanggapi petunjuk tertentu.

Sejauh ini, penggunaan AI dalam aplikasi kesehatan mental khusus terbatas pada sistem “berbasis aturan” dalam aplikasi kesehatan seperti Wysa, Heyy, dan Woebot.

[related by=”latepost” jumlah=”2″ mulaipos=”9″]

Sementara aplikasi ini meniru aspek proses terapi, mereka menggunakan sejumlah kombinasi pertanyaan dan jawaban yang dipilih oleh manusia, tidak seperti ChatGPT dan platform lain berdasarkan AI generatif, yang menghasilkan tanggapan orisinal yang secara praktis tidak dapat dibedakan dari manusia. pidato.

ai
Beberapa penggemar AI percaya teknologi tersebut dapat meningkatkan perawatan kondisi kesehatan mental [File: Getty Images]

AI generatif masih dianggap sebagai “kotak hitam” – yaitu sangat rumit sehingga proses pengambilan keputusannya tidak sepenuhnya dipahami oleh manusia – untuk digunakan dalam lingkungan kesehatan mental, kata Ramakant Vempati, pendiri Wysa yang berbasis di India.

“Jelas ada banyak literatur tentang bagaimana obrolan AI berkembang pesat dengan peluncuran ChatGPT, dan seterusnya, tetapi menurut saya penting untuk menyoroti bahwa Wysa sangat spesifik untuk domain dan dibangun dengan sangat hati-hati dengan mempertimbangkan pagar keamanan klinis,” Vempati memberi tahu Al Jazeera.

“Dan kami tidak menggunakan teks generatif, kami tidak menggunakan model generatif. Ini adalah dialog yang dibangun, jadi skrip sudah ditulis sebelumnya dan divalidasi melalui kumpulan data keamanan penting, yang telah kami uji untuk respons pengguna.”

Fitur merek dagang Wysa adalah penguin yang dapat diajak mengobrol oleh pengguna, meskipun mereka terbatas pada sejumlah respons tertulis, tidak seperti dialog bentuk bebas ChatGPT.

Pelanggan berbayar ke Wysa juga dialihkan ke terapis manusia jika pertanyaan mereka meningkat. Heyy, dikembangkan di Singapura, dan Woebot, berbasis di Amerika Serikat, mengikuti model berbasis aturan serupa dan mengandalkan terapis langsung dan robot-avatar chatbot untuk terlibat dengan pengguna selain menawarkan sumber daya seperti penjurnalan, teknik mindfulness, dan latihan yang berfokus pada masalah umum seperti masalah tidur dan hubungan.

Ketiga aplikasi tersebut diambil dari terapi perilaku kognitif, bentuk pengobatan standar untuk kecemasan dan depresi yang berfokus pada mengubah cara berpikir dan berperilaku pasien.

Pendiri Woebot, Alison Darcy menggambarkan model aplikasi ini sebagai “pohon keputusan yang sangat kompleks”.

“’Bentuk’ percakapan dasar ini dimodelkan pada bagaimana dokter mendekati masalah, sehingga mereka adalah ‘sistem pakar’ yang secara khusus dirancang untuk mereplikasi bagaimana dokter dapat bergerak melalui keputusan selama interaksi,” kata Darcy kepada Al Jazeera.

Heyy memungkinkan pengguna untuk terlibat dengan terapis manusia melalui fungsi obrolan dalam aplikasi yang ditawarkan dalam berbagai bahasa, termasuk bahasa Inggris dan Hindi, serta menawarkan informasi dan latihan kesehatan mental.

Pendiri Wysa, Heyy, dan Woebot semuanya menekankan bahwa mereka tidak mencoba untuk menggantikan terapi berbasis manusia tetapi untuk melengkapi layanan tradisional dan menyediakan alat tahap awal dalam perawatan kesehatan mental.

Layanan Kesehatan Nasional Inggris, misalnya, merekomendasikan Wysa sebagai tempat sementara bagi pasien yang menunggu untuk menemui terapis. Sementara aplikasi berbasis aturan ini terbatas dalam fungsinya, industri AI sebagian besar tetap tidak diatur meskipun ada kekhawatiran bahwa bidang yang berkembang pesat dapat menimbulkan risiko serius bagi kesejahteraan manusia.

Musk
CEO Tesla Elon Musk berpendapat bahwa peluncuran AI terjadi terlalu cepat [File: Brendan Smialowski/AFP]

Kecepatan luar biasa dari pengembangan AI mendorong CEO Tesla Elon Musk dan salah satu pendiri Apple Steve Wozniak bulan lalu untuk menambahkan nama mereka ke ribuan penandatangan sebuah surat terbuka menyerukan jeda enam bulan tentang pelatihan sistem AI yang lebih kuat daripada GPT-4, tindak lanjut dari ChatGPT, untuk memberikan waktu bagi para peneliti untuk memahami teknologi dengan lebih baik.

“Sistem AI yang kuat harus dikembangkan hanya setelah kami yakin bahwa efeknya akan positif dan risikonya dapat dikelola,” kata surat itu.

Awal tahun ini, seorang pria Belgia dilaporkan melakukan bunuh diri setelah didorong oleh chatbot AI Chai, sementara seorang kolumnis New York Times menggambarkan didorong untuk meninggalkan istrinya oleh chatbot Microsoft Bing.

Regulasi AI lambat untuk mengimbangi kecepatan perkembangan teknologi, dengan China dan Uni Eropa mengambil langkah paling konkret untuk memperkenalkan pagar pembatas.

The Cyberspace Administration of China awal bulan ini dirilis rancangan peraturan yang bertujuan untuk memastikan AI tidak berproduksi konten yang dapat merusak otoritas Beijing, sementara UE sedang mengerjakan undang-undang yang akan mengkategorikan AI sebagai berisiko tinggi dan dilarang, diatur, atau tidak diatur. AS belum mengusulkan undang-undang federal untuk mengatur AI, meskipun proposal diharapkan akhir tahun ini.

Saat ini, baik ChatGPT maupun aplikasi kesehatan mental khusus seperti Wysa dan Heyy, yang umumnya dianggap sebagai layanan “kesehatan”, tidak diatur oleh pengawas kesehatan seperti US Food and Drug Administration atau European Medicines Agency.

Ada penelitian independen yang terbatas tentang apakah AI dapat melampaui aplikasi berbasis aturan yang saat ini ada di pasar untuk secara mandiri menawarkan perawatan kesehatan mental yang setara dengan terapi tradisional.

Agar AI cocok dengan terapis manusia, AI harus mampu menciptakan kembali fenomena pemindahan, di mana pasien memproyeksikan perasaan kepada terapis mereka, dan meniru ikatan antara pasien dan terapis.

“Kita tahu dalam literatur psikologi, bahwa bagian dari kemanjuran dan apa yang membuat terapi berhasil, sekitar 40 hingga 50 persen efeknya berasal dari hubungan yang Anda dapatkan dengan terapis Anda,” Maria Hennessy, seorang psikolog klinis dan profesor asosiasi di James Cook University, kepada Al Jazeera. “Itu merupakan bagian besar dari seberapa efektif terapi psikologis itu.”

Chatbots saat ini tidak mampu melakukan interaksi semacam ini, dan kemampuan pemrosesan bahasa alami ChatGPT, meskipun mengesankan, memiliki batas, kata Hennessy.

“Pada akhirnya, ini adalah program komputer yang luar biasa,” katanya. “Hanya itu.”

dunia maya
Administrasi Dunia Maya China awal bulan ini merilis draf peraturan untuk pengembangan dan penggunaan AI [File: Thomas Peter/Reuters]

Amelia Fiske, peneliti senior di Technical University of Munich’s Institute for the History and Ethics of Medicine, tempat AI dalam perawatan kesehatan mental di masa depan mungkin bukan salah satu/atau situasi – misalnya, teknologi yang akan datang dapat digunakan bersamaan dengan terapis manusia.

“Hal penting yang perlu diingat adalah ketika orang berbicara tentang penggunaan AI dalam terapi, ada asumsi bahwa semuanya terlihat seperti Wysa atau semuanya terlihat seperti Woebot, dan itu tidak perlu,” kata Fiske. Al Jazeera.

Beberapa ahli percaya AI mungkin menemukan kegunaannya yang paling berharga di balik layar, seperti melakukan penelitian atau membantu terapis manusia untuk menilai kemajuan pasien mereka.

“Algoritme pembelajaran mesin ini lebih baik daripada sistem aturan pakar dalam hal mengidentifikasi pola dalam data; itu sangat bagus dalam membuat asosiasi dalam data dan mereka juga sangat bagus dalam membuat prediksi dalam data,” Tania Manríquez Roa, seorang ahli etika dan peneliti kualitatif di Institut Etika Biomedis dan Sejarah Kedokteran Universitas Zurich, mengatakan kepada Al Jazeera.

“Ini bisa sangat membantu dalam melakukan penelitian tentang kesehatan mental dan juga bisa sangat membantu untuk mengidentifikasi tanda-tanda awal kekambuhan seperti depresi, misalnya, atau kecemasan.”

Manríquez Roa mengatakan dia skeptis bahwa AI dapat digunakan sebagai pengganti perawatan klinis.

“Algoritma dan kecerdasan buatan ini sangat menjanjikan, tapi saya juga berpikir itu bisa sangat berbahaya,” kata Manríquez Roa.

“Saya pikir kita benar untuk bersikap ambivalen tentang algoritme dan pembelajaran mesin dalam hal perawatan kesehatan mental karena saat kita berbicara tentang perawatan kesehatan mental, kita berbicara tentang perawatan dan standar perawatan yang sesuai.”

“Saat kita berpikir tentang aplikasi atau algoritme… terkadang AI tidak menyelesaikan masalah kita dan itu dapat menciptakan masalah yang lebih besar,” tambahnya. “Kita perlu mengambil langkah mundur untuk berpikir, ‘Apakah kita memerlukan algoritme sama sekali?’ dan jika kita membutuhkannya, algoritme seperti apa yang akan kita gunakan?”

[ad_2]


Comments

Leave a Reply

Your email address will not be published. Required fields are marked *