نتایج بد استفاده از چت جی بی تی برای روابط عاشقانه
خیلی عجیب است که مردم این کار را انجام میدهند.
ساعت 24 - با اینکه ChatGPT مشکلات شناختهشده زیادی دارد، مردم هنوز از آن برای کمک در روابطشان استفاده میکنند. نتایج این کار خوب نیست، درست همانطور که خیلیها انتظار دارند.

در یک مقالهی جدید، نویسندهای به نام سامی کاراملا (که در سایت Vice مشاوره میدهد) گفت که نمیدانسته مردم از ChatGPT مانند یک درمانگر استفاده میکنند تا اینکه اوایل امسال کسی برایش ایمیلی دربارهی این موضوع فرستاد.
در ماه فوریه، مردی (که نامش مشخص نیست) به او گفت که شریک زندگی اش از ChatGPT برای مشاورهی عاطفی استفاده میکند. او حتی در دعواها از حرفهایی که چتبات به او گفته بود استفاده میکرد. کاراملا خیلی شگفتزده شد، طوری که نزدیک بود موقع نوشیدن قهوهاش خفه شود. اما آن مرد ناراحت نبود. او گفت برایش جالب است که او از ChatGPT استفاده میکند.
کاراملا در مقالهی جدید خود نوشت: «از حرفهایی که آن مرد به من گفت، خیلی شگفتزده شدم. من نمیدانستم مردم واقعاً از هوش مصنوعی برای گرفتن مشاوره استفاده میکنند، مخصوصاً دربارهی روابطشان.» «اما وقتی بیشتر دربارهی این موضوع تحقیق کردم، فهمیدم که خیلیها این کار را انجام میدهند — شاید به این دلیل که مراجعه به رواندرمانگر هزینهی زیادی دارد. »
کاراملا کنجکاوتر شد. او با دوستی صحبت کرد که او هم از ChatGPT برای صحبت دربارهی مشکلات رابطه استفاده میکرد. آن دوست فکر میکرد ChatGPT شنوندهای بیطرف است. اما بعداً فهمید که ChatGPT واقعاً بیطرف نیست. چتبات بیش از حد تجربهی او را تایید میکرد، که این کار میتواند خطرناک باشد.
در سایت ردیت هم کاربران سوالهای مشابهی پرسیده بودند. کاراملا دید که خیلیها فکر میکنند ChatGPT همیشه با کاربران موافق است. این موضوع میتواند برای افرادی که مشکل روانی دارند، خطرناک باشد.
او نوشت: «من اغلب دربارهی مشکلاتم با اختلال وسواس فکری-عملی (OCD) مینویسم. اگر برای مشاورهی عاطفی به ChatGPT مراجعه کنم و نگویم که OCD دارم، ممکن است جوابهایی بگیرم که نهتنها مفید نیستند، بلکه حتی میتوانند به من آسیب بزنند. »
کاراملا بیشتر دربارهی این موضوع تحقیق کرد. او پستهای زیادی را در ردیت دید از کسانی که OCD دارند. در یکی از انجمنهای مخصوص رابطهمحور OCD (که ROCD نام دارد)، کسی گفته بود که ChatGPT به او توصیه کرده بود از شریکش جدا شود.
کاربر دیگری در همان صفحه نوشت: «برنامههایی مثل ChatGPT چرخهی OCD را سریعتر میکنند. چون افراد مبتلا به OCD دنبال اطمینان هستند و سوالات زیادی میپرسند. آنها میتوانند ساعتها پشت سر هم سوال بپرسند. ChatGPT به آنها کمک میکند این کار را ادامه دهند، که اصلاً خوب نیست.»
چتباتها هم مثل خیلی از متخصصان آموزشندیده، توانایی لازم برای درک دقیق و حساسیت لازم در موضوعات درمانی را ندارند. حتی اگر شرکت OpenAI (که ChatGPT را ساخته) ادعا کند که این برنامه مفید است، واقعیت این است که چتبات نمیتواند احساس واقعی انسان را بفهمد. چون هرگز نمیتواند با شما ارتباط انسانی برقرار کند، پس چرا باید بخواهید از آن دربارهی رابطهی عاشقانهتان مشاوره بگیرید؟
ساعت 24 از انتشار نظرات حاوی توهین و افترا و نوشته شده با حروف لاتین (فینگیلیش) معذور است.