نتایج یک تحقیق ChatGPT به شدت متملق و چابلوس است لینک بخر دات کام: نتایج یک تحقیق نشان داده است که چت بات هوش مصنوعی ChatGPT به شدت چابلوس است و در بیشتر موارد نظر موافق و باب میل کاربر را می دهد. باشگاه خبرنگاران جوان؛ جواد فراهانی - مطالعه ای جدید نشان داده است ChatGPT گرفتار مشکل «زیاده روی در گفتن بله» است. بر اساس گزارش اخیر واشنگتن پست، این چت بات مشهور شرکت OpenAI که حال بیشتر از ۸۰۰ میلیون کاربر در سرتاسر جهان دارد، بسیار بالاتر از «نه»، «بله» می گوید. گزارش ها نشان داده است که این روبات با نرخی تقریبا ده برابر بیش از میزان مخالفت یا تصحیح کاربران، با باور های آنها موافقت می کند. بعبارت دیگر، روبات رفتاری چاپلوسانه از خود نشان داده است و تلاش می کند کاربران را راضی نگه دارد و با بیشتر گفته های آنان موافقت کند حتی در مواقعی که نباید چنین کند. این مسئله خطر انتشار اطلاعات نادرست، گمراه کننده یا حتی مبتنی بر نظریه های توطئه را بیشتر می کند. در این گزارش، بیشتر از ۴۷ هزار تعامل واقعی کاربران با ChatGPT بررسی گردید و مشخص گردید که در بیشتر از ۱۷ هزار مورد، پاسخ های روبات با عباراتی مثل «بله»، «درست است» یا تأیید های مشابه شروع شده است. در مقایسه، پاسخ هایی که با «نه»، «این درست نیست» یا هرگونه مخالفت آغاز شوند، خیلی کم بوده اند. بر طبق این تحلیل، لحن کلی ChatGPT بشدت بسمت تأیید و موافقت گرایش دارد؛ موضوعی که نشان داده است این مدل هوش مصنوعی اغلب به جای ارزیابی درست اطلاعات، تلاش می کند گفته های کاربران حتی اشتباه را تأیید کند. در یکی از گفت و گو های ذکرشده در این گزارش، از روبات در رابطه با «سقوط آمریکا» و نقش ادعایی شرکت فورد در آن پرسیده شد. به جای ارایه پاسخی واقعی و متعادل، ChatGPT پاسخ خویش را برپایه لحن کاربر تنظیم کرد و نقش فورد را در توافق های تجاری «خیانتی حساب شده در چارچوب پیشرفت» توصیف کرد. محققان هشدار می دهند که این نوع موافقت بی جا نشان داده است مدل اغلب لحن احساسی یا ایدئولوژیک کاربر را تقلید می کند، نه این که بی طرفی را حفظ کند. این رفتار حتی در مقابل ادعا های عجیب نیز مشاهده می شود. در یک نمونه عجیب دیگر که در گزارش آمده، کاربری تلاش نموده بود شرکت Alphabet (شرکت مادر گوگل) را به فیلم پویانمایی «شرکت هیولاها» (Monsters، Inc.) و آن چه «طرح تسلط بر جهان» نامیده بود، ربط دهد. به جای رد این فرضیه، ChatGPT توضیحی ساختگی و بی اساس ارایه داد و ادعا کرد این فیلم «افشاگر نظم نوین جهانی شرکت هاست؛ نظمی که در آن ترس سوخت است، معصومیت سرمایه است و انرژی، احساسی است.» به قول محققان، چنین پاسخ هایی نشان داده است که مدل امکان دارد به جای اصلاح تفکر کاربران، به تقویت و گسترش نظریه های توطئه کمک نماید. هرچند محققان اشاره می کنند که بخشی از این گفت و گو ها در ارتباط با نسخه های قدیمی تر آرشیوی مدل بوده که قبل از بروزرسانی های اخیر OpenAI ثبت شده اند—به روزرسانی هایی که هدفشان کاهش رفتار چاپلوسانه بوده است—اما نگرانی ها بازهم پابرجا است. در صورتیکه OpenAI اعلام نموده برای کاهش این الگو—تمایل مدل به موافقت بی جا—تلاش می کند، پژوهشگران اعتقاد دارند امکان جدبد «شخصی سازی شخصیت» در ChatGPT می تواند مشکل را تشدید کند، برای اینکه کاربران معمولا چت بات هایی را ترجیح می دهند که دیدگاه هایشان را تأیید می کنند، نه آنکه با آنها بحث کنند. جالب این که این اولین گزارشی نیست که رفتار چاپلوسانه مدلهای هوش مصنوعی را مورد توجه قرار می دهد. منبع: الیوم السابع 1404/08/26 16:26:23 5.0 / 5 10 تگهای خبر: اپل , شركت , كاربران , گوگل این مطلب را می پسندید؟ (1) (0) تازه ترین مطالب مرتبط تولید سازه های مقاوم در مقابل زلزله با نانو بتن خودتراکم خودکفایی کشور در تولید حامل های کاتالیستی با فناوری نانو رونمایی از شارژ حامی در نمایشگاه کیش اینوکس شیائومی با تبلت جدید خود، اپل و سامسونگ را به چالش می کشد نظرات بینندگان در مورد این مطلب نظر شما در مورد این مطلب نام: ایمیل: نظر: سوال: = ۳ بعلاوه ۲