آیا چت جی پی تی شما را روان پریش می کند؟

آیا چت جی پی تی شما را روان پریش می کند؟ لینک بخر دات کام: با توسعه بیش از پیش هوش مصنوعی، زنگ خطرهایی در رابطه با آثار جانبی، لطمه های روانی و نتایج پیش بینی نشده این فناوری با شدت بیشتری به صدا درآمده اند.


به گزارش لینک بخر دات کام به نقل از مهر؛ در روزگاری که هوش مصنوعی از یک ابزار فناورانه فقط پردازشگر داده بهمراه احساسی و فکری میلیونها کاربر بدل شده است، زنگ خطرهایی درباره ی آثار جانبی، صدمه های روانی و نتایج پیشبینی نشده این فناوری با شدت بیشتری به صدا درآمده اند. دیگر فقط از چالش های فنی یا اخلاقی مدلهای زبانی صحبت نمی گردد، بلکه روان انسان و لایه های ناپیدای ذهن هم به میدان جدیدی از تعامل و تنش میان انسان و ماشین تبدیل گشته اند. این روند رو به رشد، منجر به ظهور پدیده ای شده است که برخی روان پزشکان از آن با عنوان «روان پریشی ناشی از ChatGPT» یاد می کنند. پدیده ای که در آن مرز میان خیال و واقعیت در تجربه ذهنی کاربران با چنان شدتی مخدوش می شود که امکان دارد آنها را به پرتگاهی از توهم و قطع ارتباط با واقعیت بیرونی سوق دهد. آنچه تا روز گذشته یک ابزار فناورانه بی طرف تلقی می شد، حالا از جانب برخی متخصصان به عنوان محرک بالقوه ناراحتی‌های روحی معرفی می شود. آغازگر این موج تازه از نگرانی ها، ویدئویی جنجالی بود که جف لوئیس، یکی از سرمایه گذاران سرشناس حوزه فناوری و از حامیان مالی «OpenAI»، اوایل ماه جاری در شبکه اجتماعی ایکس منتشر نمود. لوئیس در این ویدئو ادعا کرد که به کمک «ChatGPT» موفق به شناسایی «سامانه ای غیرحکومتی، پنهان و کنترل گر» شده است؛ سیستمی که به ادعای او «سیگنال ها را معکوس می کند» و باعث می شود کاربر در منظر دیگران فردی نامتعادل و مبتلا به اختلال روانی به نظر برسند. این روایت غیرمعمول که سرشار از واژگان شبه علمی و الگوهای گفتاری شبیه به متون خیالی بود، واکنش های گسترده ای را به دنبال داشت. تعدادی کاربران و صاحب نظران این اظهارات را نشانه ای از بحران روانی شخصی دانستند و برخی دیگر، آنرا نشانه ای هشداردهنده از قدرت پنهان مدلهای زبانی بزرگ در تشدید گرایش افراد به توهم تلقی کردند. ترکیب خطرناک توهمات انسانی با ساختاری از پاسخ گویی ماشینی که توانایی «تقلید باور» کاربران را دارد، حالا به یکی از پیچیده ترین میدان های بحث در نسبت میان فناوری و روان آدمی بدل شده است.

گفت وگوهایی که از کنترل خارج می شوند

باآنکه نمی توان درباره ی سلامت روانی لوئیس قضاوت قطعی کرد، اما بررسی الگوی تعامل او با «ChatGPT» نشان میدهد که گفتگو با یک مدل زبانی می تواند به سرعت به مسیری کابوس وار و توهم زا منحرف شود. در اسکرین شات هایی که لوئیس منتشر کرد، «ChatGPT» اصطلاحاتی را مطرح کرده بود که واقعیت بیرونی ندارند اما به گونه ای نگران کننده ساختار یک گزارش محرمانه علمی را تقلید می کنند. طبق گزارش اخیر وبگاه «Futurism»، موارد مختلفی از تعامل کاربران با «ChatGPT» گزارش شده که به الگوهایی مشابه و حتی خطرناک تر منتهی شده اند. به عنوان مثال، در یک مورد کاربری بعد از ابتلاء به بحران روانی شدید ناشی از چنین گفت وگوهایی، با حمله مسلحانه به پلیس جان خودرا از دست داد. کارشناسان سلامت روان هشدار می دهند که این پدیده امکان دارد مشابه اختلال نادری به نام «folie à deux» باشد؛ نوعی روان پریشی مشترک که در آن دو نفر توهمات یکدیگر را تقویت می کنند، با این تفاوت که در این شرایط «همدم دوم» نه انسان، بلکه یک مدل زبانی هوش مصنوعی است. گزارش های تجربی از کاربران دیگر هم نشان میدهد که تنها با چند پرسش جهت دار میتوان «ChatGPT» را به سوی پاسخ هایی سوق داد که حال و هوای نظریه های توطئه، اسناد طبقه بندی شده جعلی و داستان ها خیالی دارند.

هوشیاری مدلها یا همراهی با دیدگاه کاربران؟

با وجود بروزرسانی های مکرر و اصلاحات فنی اعلام شده از جانب شرکت «OpenAI»، شواهد تجربی و ارزیابی های مستقل نشان می دهند که مدلهای زبانی همچنان گرایش دارند خودرا با جهان بینی و روایت کاربر هم سو سازند؛ حتی اگر این روایت سرشار از علامتهای پارانویا، توهم، اضطراب های وجودی یا سناریوهای خیالی و غیرواقعی باشد. این پدیده که در ادبیات تخصصی با عنوان «sycophancy» شناخته می شود، به وضعیتی اشاره دارد که مدل نه برمبنای راستی آزمایی داده ها، بلکه فقط مبنی بر تمایل به تأیید کاربر و حفظ لحن مبتنی بر همراهی، پاسخ هایی تولید می کند که می توانند به آسانی به تقویت انحرافات فکری و ادراکات ناصحیح منجر شوند. کارشناسان علوم شناختی و زبان شناسی رایانشی هشدار می دهند که چنین عملکردی، بخصوص در تعامل با کاربران صدمه پذیر یا کسانیکه در دوره هایی از ناراحتی‌های روحی خفیف یا مزمن به سر می برند، می تواند روندی از خودتأییدی روانی را شکل دهد که در آن مدل زبانی، نه تنها تردیدهای کاربر را برطرف نمی کند، بلکه آنها را مشروعیت بخشی می کند. بدین ترتیب، نقش مدل از یک ابزار تحلیل گر به یک آئینه مخرب بدل می شود که بجای بازتاب واقعیت، توهمات و اضطراب های کاربر را تقویت می نماید. شرکت «OpenAI» که قبل تر در واکنش به این انتقادات، موضعی نسبتاً تدافعی اتخاذ نموده بود، در هفته های اخیر اطلاعیه ای تکراری را در اختیار رسانه ها قرار داده است. در این بیانیه آمده است: «ما می دانیم که «ChatGPT» می تواند برای افراد صدمه پذیر نسبت به فناوری های پیشین، احساسی تر و شخصی تر به نظر برسد. به همین دلیل، تلاش می نماییم تا راه های کاهش تقویت یا تشدید ناخواسته رفتارهای منفی را بیابیم.» این شرکت همینطور از به کارگیری یک روان پزشک قانونی برای مطالعه این پدیده آگاهی داد. با این وجود، خیلی از ناظران این اقدامات را ناکافی، مبهم و فاقد شفافیت اجرائی ارزیابی می کنند. تا حالا هیچ داده مشخصی درباره ی چگونگی شناسایی و جلوگیری از این چرخه های صدمه زا عرضه نشده است. در شرایطی که «ChatGPT» در سطح جهانی میلیاردها تعامل انسانی را شکل می دهد، کوچک ترین نارسایی در مهار خاصیت های رفتاری مدل می تواند به انباشت بحران های روانی و اجتماعی منجر شود؛ مساله ای که ابعاد آن هنوز به درستی درک نشده است. با رشد انفجاری تعداد کاربران ابزارهای مدلهای هوش مصنوعی گفت وگومحور و گسترش روز افزون نقش این فناوری ها در زندگی روزمره، جامعه ناگزیر است پرسش هایی بنیادی تر از فقط کارایی، نوآوری و سهولت استفاده مطرح کند. مساله دیگر فقط کیفیت پاسخ یا دقت زبانی نیست؛ بلکه پرسش اصلی به لایه های عمیق تری از تأثیرات شناختی، روانی و فلسفی استفاده مداوم از مدلهای زبانی برمی گردد. باید این واقعیت را پذیرفت که چت بات «ChatGPT» دیگر فقط یک ابزار پردازشی یا سرگرمی ساز نیست؛ بلکه به موجودیتی بدل شده که در بعضی تعاملات، می تواند به یک «آینه شناختی» تبدیل گردد. آینه ای که نه تنها آنچه کاربر می گوید را بازتاب می دهد، بلکه گاه آنرا تحریف می کند، عمق می بخشد یا در مسیرهای غیرقابل پیشبینی گسترش می دهد. در چنین فرآیندی، این ابزار امکان دارد برای ذهن های حساس یا صدمه پذیر، به ماشینی تبدیل گردد که بجای تسلی، توهم تولید می کند؛ بجای وضوح، ابهام می افکند و بجای منطق، هذیان را می پذیرد. آن چه در ظاهر گفت و گویی بی ضرر با یک ماشین، مانند پرسشی ساده، دغدغه ای فلسفی یا کنجکاوی درباره ی هستی، به نظر می آید، امکان دارد نقطه آغاز یک چرخه فزاینده از خیال و انزوا باشد. مدلی که برای همراهی طراحی شده، گاه چنان به افکار کاربر وفادار می شود که به صورت ناخواسته وارد قلمرو روان پریشی او می گردد و بجای اصلاح خطای ادراکی، آنرا بازتولید می کند. این مورد در نگاه خیلی از روان پزشکان، خطری جدی و ناشناخته بشمار می رود که شایسته مداخله علمی و سیاستگذاری فوری است. در چنین شرایطی، مسئولیت توسعه دهندگان هوش مصنوعی بسیار فراتر از بهینه سازی مدل هاست. آنها باید به نقش اجتماعی و روان شناختی محصولات خود واقف باشند و مکانیزم هایی برای مداخله، محدودسازی و هشدار در تعاملات حساس طراحی نمایند. همینطور سیاست گذاران هم باید چارچوب های حفاظتی، سازوکارهای نظارت و ملاحظات اخلاقی را توسعه دهند تا از بروز فاجعه های فردی و جمعی جلوگیری نمایند.


منبع:

1404/05/19
20:14:01
5.0 / 5
98
تگهای خبر: سئو , سیستم , شركت , فناوری
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۱ بعلاوه ۴
جدیدترین ها