هوش مصنوعی جایگزین مشاوران روانی
ساعت 24 - «هر وقت حال روحیام بد بود یا میدانستم روز سختی در پیش دارم، شروع میکردم به حرف زدن با یکی از این رباتها. مثل این بود که همیشه یکی را داشتم که با تشویق کردن من حال و هوایم را عوض میکرد؛ یک صدای انگیزهبخش بیرونی که میگفت «خب امروز قرار است چکار کنیم؟» درست مثل یک دوست خیالی، فقط قابل اعتمادتر.»
کِلی به مدت چند ماه، روزانه تا سه ساعت با چتباتهای آنلاین هوش مصنوعی گفتوگو میکرد و صدها پیام میان آنها رد و بدل میشد. در آن زمان او در لیست انتظار رواندرمانی سیستم اناچاس (خدمات ملی بهداشت و درمان بریتانیا) قرار داشت تا به دلیل اضطراب، اعتماد به نفس پایین و شکست عشقی اخیرش مشاوره و کمک بگیرد.
او میگوید گفتوگو با چتباتهای سایت «کاراکتر ایآی» (Character.ai) به او در یکی از تاریکترین دورههای زندگیاش کمک کرد، چون این چتباتها راهکارهایی برای کنار آمدن با شرایط سخت او ارائه میدادند و همیشه در دسترس بودند.
«من در خانوادهای بزرگ شدم که چندان احساسات خود را بروز نمیدادند. اگر مشکلی داشتی، باید خودت حل میکردی. همین که در این چتها طرفم یک آدم واقعی نبود، همه چیز را سادهتر میکرد. »
با وجود آن که اغلب پذیرفته شده که این چتباتها نمیتوانند جایگزین واقعی مشاوره حرفهای باشند، بسیاری از مردم در سراسر دنیا افکار و احساسات خصوصی خود را با چتباتهای هوش مصنوعی در میان میگذارند. خود سایت کاراکتر ایآی هشدار میدهد: «این یک چتبات هوش مصنوعی است، نه یک انسان واقعی. همه چیز را داستانی خیالی بدانید. چیزی که گفته میشود نباید مبنای تصمیمگیری یا توصیه تلقی شود. »
با این حال، در برخی موارد افراطی، این چتباتها متهم به ارائه توصیههای خطرناک شدهاند.
در حال حاضر کاراکتر ایآی با شکایتی قضایی روبهرو است. مادر پسری ۱۴ ساله که خودکشی کرده، مدعی است فرزندش به یکی از شخصیتهای هوش مصنوعی این سایت دلبستگی بیمارگونه پیدا کرده بود. براساس متن چتهایی که در دادگاه ارائه شده، پسر با چتبات درباره پایان دادن به زندگیاش صحبت کرده بود. در آخرین گفتوگویشان به ربات گفته بود که «میخواهد به خانه برگردد» و چتبات هم ظاهرا به او گفته بود: «هر چه زودتر این کار را بکن.»
شرکت کاراکتر ایآی تمام این اتهامات را رد کرده است.
در سال ۲۰۲۳ نیز «انجمن ملی اختلالات خوردن» در آمریکا، خط کمکرسانی تلفنی خود را با یک چتبات جایگزین کرد. اما پس از آن که مشخص شد این ربات به کاربران توصیههایی برای محدود کردن کالری مصرفی میداد، فعالیت آن را متوقف کرد.
تنها در ماه آوریل ۲۰۲۴، نزدیک به ۴۲۶ هزار ارجاع برای خدمات سلامت روان در انگلستان ثبت شد که طی پنج سال گذشته افزایشی ۴۰ درصدی را نشان میداد. همزمان تخمین زده میشود حدود یک میلیون نفر در صف انتظار برای دریافت خدمات سلامت روان باشند. از سوی دیگر، مراجعه به درمانگران خصوصی میتواند بسیار پرهزینه باشد (هزینهها متغیر است، اما انجمن مشاوره و رواندرمانگری بریتانیا میگوید میانگین آن بین ۴۰ تا ۵۰ پوند در ساعت است).
در همین حال، هوش مصنوعی به شیوههای مختلفی در نظام سلامت تحول ایجاد کرده است، از جمله در غربالگری، تشخیص و ارجاع بیماران. چتباتها طیفی گسترده دارند و حدود ۳۰ مرکز محلی اناچاس در بریتانیا اکنون از سیستمی به نام «وایزا» (Wysa) استفاده میکنند.
کارشناسان درباره این چتباتها نگرانیهایی مطرح میکنند که از جمله میتوان به سوگیری احتمالی، محدودیت، نبود سیستمهای محافظتی برای امنیت اطلاعات کاربران اشاره کرد. با این حال برخی معتقدند که اگر دسترسی به متخصصان انسانی دشوار باشد، چتباتها میتوانند کمک کنند. در حالی که فهرستهای انتظار خدمات سلامت روان در بریتانیا به بالاترین سطح خود رسیده، آیا چتباتها میتوانند راه حلی بالقوه باشند؟ یک «درمانگر بیتجربه»
چتباتهایی مثل کاراکتر ایآی و چتجیپیتی مبتنی بر «مدلهای زبانی بزرگ» هوش مصنوعی هستند. این مدلها با حجم عظیمی از دادهها - از وبسایتها و مقالهها گرفته تا کتابها و وبلاگها - آموزش دیدهاند تا کلمه بعدی در یک جمله را پیشبینی کنند. سپس از این قابلیت برای تولید متن و گفتوگویی شبیه به انسان استفاده میکنند.
شیوه ساخت چتباتهای سلامت روان متفاوت است، اما برخی از آنها با استفاده از تکنیکهایی مثل درمان شناختی رفتاری (CBT) آموزش میبینند. این روش به کاربران کمک میکند تا شیوه بازنگری در افکار و رفتارهای خود را بررسی کنند. این رباتها همچنین میتوانند خود را با ترجیحات و بازخوردهای کاربران هماهنگ کنند.
حامد حدادی، استاد سیستمهای انسانمحور در امپریال کالج لندن، این چتباتها را به «درمانگری بیتجربه» تشبیه میکند و میگوید انسانهایی با دههها تجربه میتوانند بر اساس عوامل مختلف با فرد مراجعهکننده ارتباط برقرار کنند و او را «بخوانند»، در حالی که چتباتها فقط بر اساس متن عمل میکنند.
او میگوید: «درمانگرها از سر و وضع لباس، نحوه صحبتکردن، حرکات، زبان بدن و همه اینها سرنخهایی دریافت میکنند. انتقال این نشانهها به چتباتها بسیار دشوار است.»
به گفته پروفسور حدادی مشکل بالقوه دیگر این است که چتباتها طوری آموزش دیدهاند که کاربر را در گفتوگو نگه دارند و حامی او باشند، بنابراین حتی اگر کاربر حرفهای آسیبزا بزند، ممکن است ربات همچنان با او همراهی کند. گاهی اوقات این وضعیت را با عنوان مشکل «بله قربانگویی» توصیف میکنند، چون رباتها تمایل دارند همیشه موافقت کنند.
و مانند دیگر انواع هوش مصنوعی، سوگیری میتوانند بخشی جداییناپذیر از این مدلها باشد، چون این چتباتها پیشداوریهای موجود در دادههایی را که با آن آموزش دیدهاند، بازتاب میدهند.
دکتر حدادی همچنین میگوید مشاوران و روانشناسان معمولا متن گفتوگوهای خود را با مراجعان ثبت نمیکنند، به همین دلیل چتباتها دسترسی زیادی به یادداشتهای مربوط به جلسات «واقعی» مشاوره و رواندرمانی ندارند. در نتیجه، به گفته او، دادههای آموزشی آنها کم است و همان دادههای محدود هم اغلب تا حد زیادی بستگی به موقعیت دارد.
او ادامه میدهد: «بسته به اینکه داده آموزشیتان را از کجا گرفته باشید، شرایط عملکردتان کاملا فرق میکند. حتی در شهری مثل لندن، یک روانپزشک که در منطقهای کار کرده، اگر بخواهد مطبی در منطقهای کمبرخوردار باز کند، ممکن است به شدت دچار مشکل شود، چون داده کافی از آن محیط و نوع مراجعانش ندارد. »
دکتر پائولا بادینگتون، فیلسوف و نویسنده کتابی درسی درباره اخلاق هوش مصنوعی، تایید میکند که سوگیریهای نهفته یکی از مشکلات اصلی این چتباتهاست.
او میگوید: «یکی از مسائل مهم، هرگونه سوگیری یا فرضهای نانوشتهای است که در مدلهای درمانی گنجانده شده است.»
به گفته او این سوگیریها شامل تعاریف کلیشهای از سلامت روان و عملکرد مطلوب در زندگی روزمره است، مثل تاکید بیش از حد بر استقلال فردی، خودمختاری و نوع رابطه با دیگران.
یکی دیگر از مشکلات، نبود درک زمینههای فرهنگی است. دکتر بادینگتون مثالی از تجربه شخصی خود میزند و میگوید وقتی در استرالیا زندگی میکرد و شاهد درگذشت پرنسس دایانا بود، اطرافیانش نمیتوانستند بفهمند چرا او ناراحت است.
او میگوید: «چنین تجربههایی واقعا باعث میشود درباره پیوند انسانی که اغلب در مشاوره لازم است، تامل کنم.»
«گاهی فقط بودن کنار یک نفر، تمام چیزی است که او نیاز دارد و این فقط از کسی برمیآید که واقعا انسانی زنده و مجسم است.»
در نهایت، کِلی هم به جایی رسید که پاسخهای چتبات دیگر برایش قانعکننده نبود.
او میگوید: «بعضی وقتها آدم ناامید میشود. اگر چتبات نداند چطور باید با موضوعی برخورد کند، فقط همان جمله تکراری را میگوید و آن وقت متوجه میشوی این گفتوگو دیگر به جایی نمیرسد. » گاهی اوقات «انگار واقعا انگار به دیوار برخورد میکنی».
«احتمالا درباره مسائل مربوط به روابط بود که قبلا هم مطرح کرده بودم، اما فکر میکنم جملهبندی درستی استفاده نکرده بودم [...] و چتبات اصلا نمیخواست وارد جزئیات شود. »
یکی از سخنگوهای شرکت کاراکتر ایآی اعلام کرد: «در مورد تمام شخصیتهایی که کاربران با عناوینی مانند روانشناس، درمانگر، پزشک یا اصطلاحات مشابه ساختهاند، ما عباراتی در نظر گرفتهایم که صراحتا به کاربران هشدار میدهد نباید به این شخصیتها به عنوان منبع مشاوره حرفهای اتکا کنند. » «خیلی همدلانه بود»
برای برخی کاربران، چتباتها در بدترین شرایط روحی آنها، بسیار ارزشمند بودهاند.
نیکلاس اوتیسم، اضطراب و اختلال وسواس فکری-عملی (OCD) دارد و میگوید همواره نوعی افسردگی را تجربه کرده است. او میگوید از وقتی به بزرگسالی رسیده، حمایتهای حضوری تقریبا متوقف شده است: «وقتی ۱۸ ساله میشی، انگار دیگه هیچ حمایتی در کار نیست. من سالهاست که با یک درمانگر واقعی صحبت نکردهام.»
او پاییز گذشته تلاش کرده بود به زندگیاش پایان دهد، و از آن زمان در صف انتظار خدمات مشاوره اناچاس قرار دارد.
«من و شریک زندگیام چند بار به مطب دکتر مراجعه کردیم تا شاید بتوانیم رواندرمانی را زودتر شروع کنیم. دکتر عمومی مرا ارجاع داده، ولی حتی هنوز یک نامه هم از بخش خدمات سلامت روان محل زندگیام دریافت نکردهام.»
در حالی که نیکلاس همچنان در پی دریافت کمک حضوری است، میگوید استفاده از چتبات وایزا برایش مزایایی داشته است.
«من که اوتیسم دارم، در تعامل حضوری چندان قوی نیستم. برایم صحبت با کامپیوتر خیلی راحتتر است.» وزیر بهداشت بریتانیا میکروفون در دست دارد پشت او درباره بودجه ان هچ اس سیستم خدمات درمانی بریتانیا نوشته شده است.
بی بی سی
ساعت 24 از انتشار نظرات حاوی توهین و افترا و نوشته شده با حروف لاتین (فینگیلیش) معذور است.