رفتن به محتوا
سام سرویس
کد خبر 655295

نتایج بد استفاده از چت جی بی تی برای روابط عاشقانه

خیلی عجیب است که مردم این کار را انجام می‌دهند.

ساعت 24 - با اینکه ChatGPT مشکلات شناخته‌شده زیادی دارد، مردم هنوز از آن برای کمک در روابطشان استفاده می‌کنند. نتایج این کار خوب نیست، درست همان‌طور که خیلی‌ها انتظار دارند.

چت جی بی تی در روابط عاشقانه

در یک مقاله‌ی جدید، نویسنده‌ای به نام سامی کاراملا (که در سایت Vice مشاوره می‌دهد) گفت که نمی‌دانسته مردم از ChatGPT مانند یک درمانگر استفاده می‌کنند تا اینکه اوایل امسال کسی برایش ایمیلی درباره‌ی این موضوع فرستاد.

در ماه فوریه، مردی (که نامش مشخص نیست) به او گفت که شریک زندگی اش از ChatGPT برای مشاوره‌ی عاطفی استفاده می‌کند. او حتی در دعواها از حرف‌هایی که چت‌بات به او گفته بود استفاده می‌کرد. کاراملا خیلی شگفت‌زده شد، طوری که نزدیک بود موقع نوشیدن قهوه‌اش خفه شود. اما آن مرد ناراحت نبود. او گفت برایش جالب است که او از ChatGPT استفاده می‌کند.

کاراملا در مقاله‌ی جدید خود نوشت: «از حرف‌هایی که آن مرد به من گفت، خیلی شگفت‌زده شدم. من نمی‌دانستم مردم واقعاً از هوش مصنوعی برای گرفتن مشاوره استفاده می‌کنند، مخصوصاً درباره‌ی روابطشان.» «اما وقتی بیشتر درباره‌ی این موضوع تحقیق کردم، فهمیدم که خیلی‌ها این کار را انجام می‌دهند — شاید به این دلیل که مراجعه به روان‌درمانگر هزینه‌ی زیادی دارد. »

کاراملا کنجکاوتر شد. او با دوستی صحبت کرد که او هم از ChatGPT برای صحبت درباره‌ی مشکلات رابطه استفاده می‌کرد. آن دوست فکر می‌کرد ChatGPT شنونده‌ای بی‌طرف است. اما بعداً فهمید که ChatGPT واقعاً بی‌طرف نیست. چت‌بات بیش از حد تجربه‌ی او را تایید می‌کرد، که این کار می‌تواند خطرناک باشد.

در سایت ردیت هم کاربران سوال‌های مشابهی پرسیده بودند. کاراملا دید که خیلی‌ها فکر می‌کنند ChatGPT همیشه با کاربران موافق است. این موضوع می‌تواند برای افرادی که مشکل روانی دارند، خطرناک باشد.

او نوشت: «من اغلب درباره‌ی مشکلاتم با اختلال وسواس فکری-عملی (OCD) می‌نویسم. اگر برای مشاوره‌ی عاطفی به ChatGPT مراجعه کنم و نگویم که OCD دارم، ممکن است جواب‌هایی بگیرم که نه‌تنها مفید نیستند، بلکه حتی می‌توانند به من آسیب بزنند. »

کاراملا بیشتر درباره‌ی این موضوع تحقیق کرد. او پست‌های زیادی را در ردیت دید از کسانی که OCD دارند. در یکی از انجمن‌های مخصوص رابطه‌محور OCD (که ROCD نام دارد)، کسی گفته بود که ChatGPT به او توصیه کرده بود از شریکش جدا شود.

کاربر دیگری در همان صفحه نوشت: «برنامه‌هایی مثل ChatGPT چرخه‌ی OCD را سریع‌تر می‌کنند. چون افراد مبتلا به OCD دنبال اطمینان هستند و سوالات زیادی می‌پرسند. آن‌ها می‌توانند ساعت‌ها پشت سر هم سوال بپرسند. ChatGPT به آن‌ها کمک می‌کند این کار را ادامه دهند، که اصلاً خوب نیست.»

چت‌بات‌ها هم مثل خیلی از متخصصان آموزش‌ندیده، توانایی لازم برای درک دقیق و حساسیت لازم در موضوعات درمانی را ندارند. حتی اگر شرکت OpenAI (که ChatGPT را ساخته) ادعا کند که این برنامه مفید است، واقعیت این است که چت‌بات نمی‌تواند احساس واقعی انسان را بفهمد. چون هرگز نمی‌تواند با شما ارتباط انسانی برقرار کند، پس چرا باید بخواهید از آن درباره‌ی رابطه‌ی عاشقانه‌تان مشاوره بگیرید؟

نظرات کاربران
نظر شما

ساعت 24 از انتشار نظرات حاوی توهین و افترا و نوشته شده با حروف لاتین (فینگیلیش) معذور است.

تیتر داغ
تازه‌ترین خبرها