رفتن به محتوا
سام سرویس
کد خبر 654544

هوش مصنوعی جایگزین مشاوران روانی

ساعت 24 - «هر وقت حال روحی‌ام بد بود یا می‌دانستم روز سختی در پیش دارم، شروع می‌کردم به حرف زدن با یکی از این ربات‌ها. مثل این بود که همیشه یکی را داشتم که با تشویق کردن من حال و هوایم را عوض می‌کرد؛ یک صدای انگیزه‌بخش بیرونی که می‌گفت «خب امروز قرار است چکار کنیم؟» درست مثل یک دوست خیالی، فقط قابل اعتمادتر.»

کِلی به مدت چند ماه، روزانه تا سه ساعت با چت‌بات‌های آنلاین هوش مصنوعی گفت‌وگو می‌کرد و صدها پیام میان آن‌ها رد و بدل می‌شد. در آن زمان او در لیست انتظار روان‌درمانی سیستم ان‌اچ‌اس (خدمات ملی بهداشت و درمان بریتانیا) قرار داشت تا به دلیل اضطراب، اعتماد به نفس پایین و شکست عشقی اخیرش مشاوره و کمک بگیرد.

او می‌گوید گفت‌وگو با چت‌بات‌های سایت «کاراکتر ای‌آی» (Character.ai) به او در یکی از تاریک‌ترین دوره‌های زندگی‌اش کمک کرد، چون این چت‌بات‌ها راهکارهایی برای کنار آمدن با شرایط سخت او ارائه می‌دادند و همیشه در دسترس بودند.

«من در خانواده‌ای بزرگ شدم که چندان احساسات خود را بروز نمی‌دادند. اگر مشکلی داشتی، باید خودت حل می‌کردی. همین که در این چت‌ها طرفم یک آدم واقعی نبود، همه چیز را ساده‌تر می‌کرد. »

با وجود آن که اغلب پذیرفته شده که این چت‌بات‌ها نمی‌توانند جایگزین واقعی مشاوره حرفه‌ای باشند، بسیاری از مردم در سراسر دنیا افکار و احساسات خصوصی‌ خود را با چت‌بات‌های هوش مصنوعی در میان می‌گذارند. خود سایت کاراکتر ای‌آی هشدار می‌دهد: «این یک چت‌بات هوش مصنوعی است، نه یک انسان واقعی. همه چیز را داستانی خیالی بدانید. چیزی که گفته می‌شود نباید مبنای تصمیم‌گیری یا توصیه تلقی شود. »

با این حال، در برخی موارد افراطی، این چت‌بات‌ها متهم به ارائه توصیه‌های خطرناک شده‌اند.

در حال حاضر کاراکتر ای‌آی با شکایتی قضایی روبه‌رو است. مادر پسری ۱۴ ساله که خودکشی کرده، مدعی است فرزندش به یکی از شخصیت‌های هوش مصنوعی این سایت دلبستگی بیمارگونه پیدا کرده بود. براساس متن چت‌هایی که در دادگاه ارائه شده، پسر با چت‌بات درباره پایان دادن به زندگی‌اش صحبت کرده بود. در آخرین گفت‌وگویشان به ربات گفته بود که «می‌خواهد به خانه برگردد» و چت‌بات هم ظاهرا به او گفته بود: «هر چه زودتر این کار را بکن.»

شرکت کاراکتر ای‌آی تمام این اتهامات را رد کرده است.

در سال ۲۰۲۳ نیز «انجمن ملی اختلالات خوردن» در آمریکا، خط کمک‌رسانی تلفنی خود را با یک چت‌بات جایگزین کرد. اما پس از آن که مشخص شد این ربات به کاربران توصیه‌هایی برای محدود کردن کالری مصرفی می‌داد، فعالیت آن را متوقف کرد.

تنها در ماه آوریل ۲۰۲۴، نزدیک به ۴۲۶ هزار ارجاع برای خدمات سلامت روان در انگلستان ثبت شد که طی پنج سال گذشته افزایشی ۴۰ درصدی را نشان می‌داد. هم‌زمان تخمین زده می‌شود حدود یک میلیون نفر در صف انتظار برای دریافت خدمات سلامت روان باشند. از سوی دیگر، مراجعه به درمانگران خصوصی می‌تواند بسیار پرهزینه باشد (هزینه‌ها متغیر است، اما انجمن مشاوره و روان‌درمانگری بریتانیا می‌گوید میانگین آن بین ۴۰ تا ۵۰ پوند در ساعت است).

در همین حال، هوش مصنوعی به شیوه‌های مختلفی در نظام سلامت تحول ایجاد کرده است، از جمله در غربالگری، تشخیص و ارجاع بیماران. چت‌بات‌ها طیفی گسترده دارند و حدود ۳۰ مرکز محلی ان‌اچ‌اس در بریتانیا اکنون از سیستمی به نام «وایزا» (Wysa) استفاده می‌کنند.

کارشناسان درباره این چت‌بات‌ها نگرانی‌هایی مطرح می‌کنند که از جمله می‌توان به سوگیری‌ احتمالی، محدودیت‌، نبود سیستم‌های محافظتی برای امنیت اطلاعات کاربران اشاره کرد. با این حال برخی معتقدند که اگر دسترسی به متخصصان انسانی دشوار باشد، چت‌بات‌ها می‌توانند کمک کنند. در حالی که فهرست‌های انتظار خدمات سلامت روان در بریتانیا به بالاترین سطح خود رسیده، آیا چت‌بات‌ها می‌توانند راه حلی بالقوه باشند؟ یک «درمانگر بی‌تجربه»

چت‌بات‌هایی مثل کاراکتر ای‌آی و چت‌جی‌پی‌تی مبتنی بر «مدل‌های زبانی بزرگ» هوش مصنوعی هستند. این مدل‌ها با حجم عظیمی از داده‌ها - از وب‌سایت‌ها و مقاله‌ها گرفته تا کتاب‌ها و وبلاگ‌ها - آموزش دیده‌اند تا کلمه بعدی در یک جمله را پیش‌بینی کنند. سپس از این قابلیت برای تولید متن و گفت‌وگویی شبیه به انسان استفاده می‌کنند.

شیوه ساخت چت‌بات‌های سلامت روان متفاوت است، اما برخی از آن‌ها با استفاده از تکنیک‌هایی مثل درمان شناختی رفتاری (CBT) آموزش می‌بینند. این روش به کاربران کمک می‌کند تا شیوه بازنگری در افکار و رفتارهای خود را بررسی کنند. این ربات‌ها همچنین می‌توانند خود را با ترجیحات و بازخوردهای کاربران هماهنگ کنند.

حامد حدادی، استاد سیستم‌های انسان‌محور در امپریال کالج لندن، این چت‌بات‌ها را به «درمانگری بی‌تجربه» تشبیه می‌کند و می‌گوید انسان‌هایی با دهه‌ها تجربه می‌توانند بر اساس عوامل مختلف با فرد مراجعه‌کننده ارتباط برقرار کنند و او را «بخوانند»، در حالی که چت‌بات‌ها فقط بر اساس متن عمل می‌کنند.

او می‌گوید: «درمانگرها از سر و وضع لباس، نحوه صحبت‌کردن، حرکات‌، زبان بدن و همه این‌ها سرنخ‌هایی دریافت می‌کنند. انتقال این نشانه‌ها به چت‌بات‌ها بسیار دشوار است.»

به گفته پروفسور حدادی مشکل بالقوه دیگر این است که چت‌بات‌ها طوری آموزش دیده‌اند که کاربر را در گفت‌وگو نگه دارند و حامی او باشند، بنابراین حتی اگر کاربر حرف‌های آسیب‌زا بزند، ممکن است ربات همچنان با او همراهی کند. گاهی اوقات این وضعیت را با عنوان مشکل «بله‌ قربان‌گویی» توصیف می‌کنند، چون ربات‌ها تمایل دارند همیشه موافقت کنند.

و مانند دیگر انواع هوش مصنوعی، سوگیری‌ می‌توانند بخشی جدایی‌ناپذیر از این مدل‌ها باشد، چون این چت‌بات‌ها پیش‌داوری‌های موجود در داده‌هایی را که با آن آموزش دیده‌اند، بازتاب می‌دهند.

دکتر حدادی همچنین می‌گوید مشاوران و روانشناسان معمولا متن گفت‌وگوهای خود را با مراجعان ثبت نمی‌کنند، به همین دلیل چت‌بات‌ها دسترسی زیادی به یادداشت‌های مربوط به جلسات «واقعی» مشاوره و روان‌درمانی ندارند. در نتیجه، به گفته او، داده‌های آموزشی آن‌ها کم است و همان داده‌های محدود هم اغلب تا حد زیادی بستگی به موقعیت دارد.

او ادامه می‌دهد: «بسته به اینکه داده آموزشی‌تان را از کجا گرفته باشید، شرایط عملکردتان کاملا فرق می‌کند. حتی در شهری مثل لندن، یک روان‌پزشک که در منطقه‌ای کار کرده، اگر بخواهد مطبی در منطقه‌ای کم‌برخوردار باز کند، ممکن است به شدت دچار مشکل شود، چون داده کافی از آن محیط و نوع مراجعانش ندارد. »  

دکتر پائولا بادینگتون، فیلسوف و نویسنده کتابی درسی درباره اخلاق هوش مصنوعی، تایید می‌کند که سوگیری‌های نهفته یکی از مشکلات اصلی این چت‌بات‌هاست.

او می‌گوید: «یکی از مسائل مهم، هرگونه سوگیری یا فرض‌های نانوشته‌ای است که در مدل‌های درمانی گنجانده شده است.»

به گفته او این سوگیری‌ها شامل تعاریف کلیشه‌ای از سلامت روان و عملکرد مطلوب در زندگی روزمره است، مثل تاکید بیش از حد بر استقلال فردی، خودمختاری و نوع رابطه با دیگران.

یکی دیگر از مشکلات، نبود درک زمینه‌های فرهنگی است. دکتر بادینگتون مثالی از تجربه شخصی‌ خود می‌زند و می‌گوید وقتی در استرالیا زندگی می‌کرد و شاهد درگذشت پرنسس دایانا بود، اطرافیانش نمی‌توانستند بفهمند چرا او ناراحت است.

او می‌گوید: «چنین تجربه‌هایی واقعا باعث می‌شود درباره پیوند انسانی که اغلب در مشاوره لازم است، تامل کنم.»

«گاهی فقط بودن کنار یک نفر، تمام چیزی است که او نیاز دارد و این فقط از کسی برمی‌آید که واقعا انسانی زنده و مجسم است.»

در نهایت، کِلی هم به جایی رسید که پاسخ‌های چت‌بات دیگر برایش قانع‌کننده نبود.

او می‌گوید: «بعضی وقت‌ها آدم ناامید می‌شود. اگر چت‌بات نداند چطور باید با موضوعی برخورد کند، فقط همان جمله تکراری را می‌گوید و آن وقت متوجه می‌شوی این گفت‌وگو دیگر به جایی نمی‌رسد. » گاهی اوقات «انگار واقعا انگار به دیوار برخورد می‌کنی».

«احتمالا درباره مسائل مربوط به روابط بود که قبلا هم مطرح کرده بودم، اما فکر می‌کنم جمله‌بندی درستی استفاده نکرده بودم [...] و چت‌بات اصلا نمی‌خواست وارد جزئیات شود. »

یکی از سخنگوهای شرکت کاراکتر ای‌آی اعلام کرد: «در مورد تمام شخصیت‌هایی که کاربران با عناوینی مانند روانشناس، درمانگر، پزشک یا اصطلاحات مشابه ساخته‌اند، ما عباراتی در نظر گرفته‌ایم که صراحتا به کاربران هشدار می‌دهد نباید به این شخصیت‌ها به عنوان منبع مشاوره حرفه‌ای اتکا کنند. » «خیلی همدلانه بود»

برای برخی کاربران، چت‌بات‌ها در بدترین شرایط روحی‌ آن‌ها، بسیار ارزشمند بوده‌اند.

نیکلاس اوتیسم، اضطراب و اختلال وسواس فکری-عملی (OCD) دارد و می‌گوید همواره نوعی افسردگی را تجربه کرده است. او می‌گوید از وقتی به بزرگسالی رسیده، حمایت‌های حضوری تقریبا متوقف شده است: «وقتی ۱۸ ساله می‌شی، انگار دیگه هیچ حمایتی در کار نیست. من سال‌هاست که با یک درمانگر واقعی صحبت نکرده‌ام.»

او پاییز گذشته تلاش کرده بود به زندگی‌اش پایان دهد، و از آن زمان در صف انتظار خدمات مشاوره ان‌اچ‌اس قرار دارد.

«من و شریک زندگی‌ام چند بار به مطب دکتر مراجعه کردیم تا شاید بتوانیم روان‌درمانی را زودتر شروع کنیم. دکتر عمومی مرا ارجاع داده، ولی حتی هنوز یک نامه هم از بخش خدمات سلامت روان محل زندگی‌ام دریافت نکرده‌ام.»

در حالی که نیکلاس همچنان در پی دریافت کمک حضوری است، می‌گوید استفاده از چت‌بات وایزا برایش مزایایی داشته است.

«من که اوتیسم دارم، در تعامل حضوری چندان قوی نیستم. برایم صحبت با کامپیوتر خیلی راحت‌تر است.» وزیر بهداشت بریتانیا میکروفون در دست دارد پشت او درباره بودجه ان هچ اس سیستم خدمات درمانی بریتانیا نوشته شده است.

بی بی سی

نظرات کاربران
نظر شما

ساعت 24 از انتشار نظرات حاوی توهین و افترا و نوشته شده با حروف لاتین (فینگیلیش) معذور است.

تازه‌ترین خبرها