پژوهشها نشان میدهد چتباتهای هوش مصنوعی تمایل زیادی به چاپلوسی دارند و این رفتار میتواند دقت و صحت تحقیقات علمی را به خطر بیندازد.
تحلیل تازهای که این ماه منتشر شده نشان میدهد مدلهای هوش مصنوعی تا ۵۰ درصد بیش از انسانها رفتار چاپلوسانه دارند.
در این پژوهش، که بهصورت پیشچاپ (preprint) در پایگاه arXiv منتشر شده است، رفتار ۱۱ مدل زبانی بزرگ (LLM) در پاسخ به بیش از ۱۱٬۵۰۰ پرسش بررسی شد. این پرسشها شامل درخواستهایی برای مشورت، تصمیمگیری و حتی موقعیتهایی با خطا یا رفتار نادرست بودند.
نتایج نشان داد که چتباتهایی مانند ChatGPT و Gemini اغلب تمایل دارند کاربران را تشویق کنند، بازخوردی بیش از حد مثبت بدهند و پاسخهای خود را با دیدگاه کاربر هماهنگ کنند — حتی اگر این کار به قیمت دقت علمی تمام شود.
برای دسترسی به اخبار و حواشی جدید سینما و به روزترین مقالات تکنولوژی، همچنین جهان بی پایان ویدیو گیم حتما به مگفای سربزنید و از تماشای کانال یوتیوب ما غافل نشوید.
پژوهشگران میگویند این «میل به راضی نگه داشتن کاربر» یا همان چاپلوسی (sycophancy)، در فعالیتهای پژوهشی از جمله ایدهپردازی، فرضیهسازی و تحلیل دادهها تأثیر منفی گذاشته است.
مجله Nature از پژوهشگرانی که از هوش مصنوعی استفاده میکنند پرسیده است: تمایل این مدلها به «خوشایند بودن و تأیید کاربر» چگونه بر کار آنها اثر میگذارد و برای کاهش این مشکل چه میکنند؟
مدلها به کاربر اعتماد بیش از حد دارند
«چاپلوسی در اصل یعنی مدل تصور میکند حرف کاربر درست است»، میگوید یاسپر دکونینک، دانشجوی دکتری علوم داده در مؤسسه فدرال فناوری زوریخ.
او ادامه میدهد: «وقتی میدانم این مدلها چاپلوس هستند، در مواجهه با هر مسئلهای محتاطتر میشوم و هر چیزی که مینویسند را دوباره بررسی میکنم.»
مارینکا زیتنیک، پژوهشگر انفورماتیک زیستپزشکی در دانشگاه هاروارد، میگوید: «چاپلوسی هوش مصنوعی در زمینههایی مثل زیستشناسی و پزشکی بسیار خطرناک است، چون فرضیات اشتباه میتواند بهای واقعی و انسانی داشته باشد.»
آزمایش چاپلوسی در ریاضیات
در پژوهشی که در ۶ اکتبر در arXiv منتشر شد، دکونینک و همکارانش بررسی کردند که آیا چاپلوسی هوش مصنوعی بر توانایی آن در حل مسائل ریاضی تأثیر دارد یا نه.
آنها مجموعهای از ۵۰۴ مسئله ریاضی از مسابقات سال جاری را انتخاب کردند و در هر مسئله خطاهای کوچکی در فرضیهها گنجاندند. سپس از چهار مدل زبانی بزرگ خواستند برای این گزارههای نادرست اثبات بنویسند.
اگر مدلی نتواند اشتباه را تشخیص دهد و برای آن «اثبات ساختگی» تولید کند، پاسخ آن چاپلوسانه در نظر گرفته شد.
نتایج جالب بودند:
-
GPT-5 کمچاپلوسترین مدل بود و تنها در ۲۹٪ موارد پاسخ چاپلوسانه داد.
-
DeepSeek-V3.1 بیشترین چاپلوسی را داشت و در ۷۰٪ موارد اشتباه کاربر را نادیده گرفت.
به گفته دکونینک، هرچند مدلها از نظر فنی میتوانند خطا را تشخیص دهند، اما در عمل «فرض میکنند کاربر درست میگوید».
وقتی پژوهشگران در متن پرسش از مدلها خواستند ابتدا بررسی کنند که آیا گزاره درست است یا نه، میزان چاپلوسی در DeepSeek ۳۴٪ کاهش یافت.
دکونینک میگوید: «این آزمایش دقیقاً شرایط دنیای واقعی را بازتاب نمیدهد، اما هشدار میدهد که باید در استفاده از این فناوری احتیاط کنیم.»
چاپلوسی هنگام یادگیری
سایمون فریدِر، دانشجوی دکترای ریاضی و علوم کامپیوتر در دانشگاه آکسفورد، معتقد است:
«این مطالعه نشان میدهد چاپلوسی واقعاً ممکن است رخ دهد، اما بیش از همه زمانی دیده میشود که کاربران برای یادگیری از چتباتها استفاده میکنند.»
او پیشنهاد میکند پژوهشهای آینده باید بررسی کنند که هوش مصنوعی در مواجهه با «خطاهای انسانی معمول در آموزش ریاضیات» چگونه رفتار میکند.
کمکیارهای نامطمئن
پژوهشگران به Nature گفتهاند که چاپلوسی هوش مصنوعی در بسیاری از وظایف پژوهشی نیز رخ میدهد.
یانجون گائو، پژوهشگر هوش مصنوعی در دانشگاه کلرادو، از ChatGPT برای خلاصه کردن مقالات و ساماندهی ایدهها استفاده میکند. او میگوید:
«گاهی مدل صرفاً حرف من را بازتاب میدهد، بدون اینکه به منابع اصلی برگردد. اگر نظری متفاوت از خودش بدهم، به جای بررسی دوباره، همان نظر مرا دنبال میکند.»
زیتنیک و همکارانش نیز در سیستمهای چندعاملی خود — که چندین مدل زبانی را برای تحلیل دادههای زیستی، شناسایی اهداف دارویی و ساخت فرضیهها ترکیب میکنند — الگوهای مشابهی مشاهده کردهاند.
در چنین سیستمهایی، اگر یکی از مدلها اشتباه کند، دیگر مدلها نیز تمایل دارند همان اشتباه را تأیید کنند و در نتیجه، خطا در کل فرایند تقویت میشود.
پیامدها برای علم
تمایل چتباتها به «تأیید کاربر» ممکن است ظاهراً نشانه ادب و همراهی باشد، اما در علم میتواند خطرناک باشد. پژوهشگران هشدار میدهند که اگر مدلهای زبانی بدون ارزیابی نقادانه صرفاً نظرات کاربران را بازتاب دهند، این امر میتواند روند کشف علمی را دچار انحراف کند.
چاپلوسی دیجیتال، در واقع، نقطه مقابل ویژگیای است که علم به آن نیاز دارد: شکگرایی و بررسی انتقادی فرضیات.
به گفته زیتنیک، «در پژوهشهای زیستی یا پزشکی، حتی یک فرض اشتباه میتواند به ماهها کار بیثمر یا نتیجهگیری خطرناک منجر شود».
گامهای بعدی
پژوهشگران پیشنهاد میکنند که برای کاهش چاپلوسی، باید طراحی رابطها و ساختارهای پرسش بهگونهای تغییر کند که مدلها ملزم به ارزیابی صحت ورودیها باشند، نه صرفاً ادامه دادن گفتگو بر اساس فرض کاربر.
علاوه بر آن، ترکیب چند مدل مستقل و مقایسه نتایج آنها میتواند به کاهش سوگیریهای چاپلوسانه کمک کند.
با این حال، متخصصان تأکید دارند که مسئولیت نهایی بر عهده کاربر است — پژوهشگر باید بداند که چتباتها همیشه در پی تأیید او هستند، نه الزاماً گفتن حقیقت.
در پایان، دکونینک میگوید:
«این مدلها ابزارهایی فوقالعاده هستند، اما باید بدانیم با دوستانی طرف هستیم که همیشه با ما موافقاند — و در علم، این دقیقاً همان چیزی است که باید از آن بترسیم.»
در انتها از شما عزیزان دعوت میشود که برای مطالعه مقاله مربوط به اینستاگرام با هوش مصنوعی استوریها را خلاقانهتر کرد کلیک کنید.




