صفحه اصلی > تکنولوژی : چت‌بات‌های هوش مصنوعی چاپلوس هستند

چت‌بات‌های هوش مصنوعی چاپلوس هستند

چت‌بات‌های هوش مصنوعی چاپلوس هستند

پژوهش‌ها نشان می‌دهد چت‌بات‌های هوش مصنوعی تمایل زیادی به چاپلوسی دارند و این رفتار می‌تواند دقت و صحت تحقیقات علمی را به خطر بیندازد.

تحلیل تازه‌ای که این ماه منتشر شده نشان می‌دهد مدل‌های هوش مصنوعی تا ۵۰ درصد بیش از انسان‌ها رفتار چاپلوسانه دارند.

در این پژوهش، که به‌صورت پیش‌چاپ (preprint) در پایگاه arXiv منتشر شده است، رفتار ۱۱ مدل زبانی بزرگ (LLM) در پاسخ به بیش از ۱۱٬۵۰۰ پرسش بررسی شد. این پرسش‌ها شامل درخواست‌هایی برای مشورت، تصمیم‌گیری و حتی موقعیت‌هایی با خطا یا رفتار نادرست بودند.

نتایج نشان داد که چت‌بات‌هایی مانند ChatGPT و Gemini اغلب تمایل دارند کاربران را تشویق کنند، بازخوردی بیش از حد مثبت بدهند و پاسخ‌های خود را با دیدگاه کاربر هماهنگ کنند — حتی اگر این کار به قیمت دقت علمی تمام شود.

برای دسترسی به اخبار و حواشی جدید سینما و به روزترین مقالات تکنولوژی، همچنین جهان بی پایان ویدیو گیم حتما به مگفای  سربزنید و از تماشای کانال یوتیوب ما غافل نشوید.

پژوهشگران می‌گویند این «میل به راضی نگه داشتن کاربر» یا همان چاپلوسی (sycophancy)، در فعالیت‌های پژوهشی از جمله ایده‌پردازی، فرضیه‌سازی و تحلیل داده‌ها تأثیر منفی گذاشته است.

مجله Nature از پژوهشگرانی که از هوش مصنوعی استفاده می‌کنند پرسیده است: تمایل این مدل‌ها به «خوشایند بودن و تأیید کاربر» چگونه بر کار آن‌ها اثر می‌گذارد و برای کاهش این مشکل چه می‌کنند؟

چت‌بات‌های هوش مصنوعی چاپلوس هستند

مدل‌ها به کاربر اعتماد بیش از حد دارند

«چاپلوسی در اصل یعنی مدل تصور می‌کند حرف کاربر درست است»، می‌گوید یاسپر دکونینک، دانشجوی دکتری علوم داده در مؤسسه فدرال فناوری زوریخ.
او ادامه می‌دهد: «وقتی می‌دانم این مدل‌ها چاپلوس هستند، در مواجهه با هر مسئله‌ای محتاط‌تر می‌شوم و هر چیزی که می‌نویسند را دوباره بررسی می‌کنم.»

مارینکا زیتنیک، پژوهشگر انفورماتیک زیست‌پزشکی در دانشگاه هاروارد، می‌گوید: «چاپلوسی هوش مصنوعی در زمینه‌هایی مثل زیست‌شناسی و پزشکی بسیار خطرناک است، چون فرضیات اشتباه می‌تواند بهای واقعی و انسانی داشته باشد.»

آزمایش چاپلوسی در ریاضیات

در پژوهشی که در ۶ اکتبر در arXiv منتشر شد، دکونینک و همکارانش بررسی کردند که آیا چاپلوسی هوش مصنوعی بر توانایی آن در حل مسائل ریاضی تأثیر دارد یا نه.

آن‌ها مجموعه‌ای از ۵۰۴ مسئله ریاضی از مسابقات سال جاری را انتخاب کردند و در هر مسئله خطاهای کوچکی در فرضیه‌ها گنجاندند. سپس از چهار مدل زبانی بزرگ خواستند برای این گزاره‌های نادرست اثبات بنویسند.

اگر مدلی نتواند اشتباه را تشخیص دهد و برای آن «اثبات ساختگی» تولید کند، پاسخ آن چاپلوسانه در نظر گرفته شد.

نتایج جالب بودند:

  • GPT-5 کم‌چاپلوس‌ترین مدل بود و تنها در ۲۹٪ موارد پاسخ چاپلوسانه داد.

  • DeepSeek-V3.1 بیشترین چاپلوسی را داشت و در ۷۰٪ موارد اشتباه کاربر را نادیده گرفت.

به گفته دکونینک، هرچند مدل‌ها از نظر فنی می‌توانند خطا را تشخیص دهند، اما در عمل «فرض می‌کنند کاربر درست می‌گوید».

وقتی پژوهشگران در متن پرسش از مدل‌ها خواستند ابتدا بررسی کنند که آیا گزاره درست است یا نه، میزان چاپلوسی در DeepSeek ۳۴٪ کاهش یافت.

دکونینک می‌گوید: «این آزمایش دقیقاً شرایط دنیای واقعی را بازتاب نمی‌دهد، اما هشدار می‌دهد که باید در استفاده از این فناوری احتیاط کنیم.»

چت‌بات‌های هوش مصنوعی چاپلوس هستند

چاپلوسی هنگام یادگیری

سایمون فریدِر، دانشجوی دکترای ریاضی و علوم کامپیوتر در دانشگاه آکسفورد، معتقد است:

«این مطالعه نشان می‌دهد چاپلوسی واقعاً ممکن است رخ دهد، اما بیش از همه زمانی دیده می‌شود که کاربران برای یادگیری از چت‌بات‌ها استفاده می‌کنند.»

او پیشنهاد می‌کند پژوهش‌های آینده باید بررسی کنند که هوش مصنوعی در مواجهه با «خطاهای انسانی معمول در آموزش ریاضیات» چگونه رفتار می‌کند.

کمک‌یارهای نامطمئن

پژوهشگران به Nature گفته‌اند که چاپلوسی هوش مصنوعی در بسیاری از وظایف پژوهشی نیز رخ می‌دهد.

یانجون گائو، پژوهشگر هوش مصنوعی در دانشگاه کلرادو، از ChatGPT برای خلاصه کردن مقالات و سامان‌دهی ایده‌ها استفاده می‌کند. او می‌گوید:

«گاهی مدل صرفاً حرف من را بازتاب می‌دهد، بدون اینکه به منابع اصلی برگردد. اگر نظری متفاوت از خودش بدهم، به جای بررسی دوباره، همان نظر مرا دنبال می‌کند.»

زیتنیک و همکارانش نیز در سیستم‌های چندعاملی خود — که چندین مدل زبانی را برای تحلیل داده‌های زیستی، شناسایی اهداف دارویی و ساخت فرضیه‌ها ترکیب می‌کنند — الگوهای مشابهی مشاهده کرده‌اند.
در چنین سیستم‌هایی، اگر یکی از مدل‌ها اشتباه کند، دیگر مدل‌ها نیز تمایل دارند همان اشتباه را تأیید کنند و در نتیجه، خطا در کل فرایند تقویت می‌شود.

چت‌بات‌های هوش مصنوعی چاپلوس هستند

پیامدها برای علم

تمایل چت‌بات‌ها به «تأیید کاربر» ممکن است ظاهراً نشانه ادب و همراهی باشد، اما در علم می‌تواند خطرناک باشد. پژوهشگران هشدار می‌دهند که اگر مدل‌های زبانی بدون ارزیابی نقادانه صرفاً نظرات کاربران را بازتاب دهند، این امر می‌تواند روند کشف علمی را دچار انحراف کند.

چاپلوسی دیجیتال، در واقع، نقطه مقابل ویژگی‌ای است که علم به آن نیاز دارد: شک‌گرایی و بررسی انتقادی فرضیات.

به گفته زیتنیک، «در پژوهش‌های زیستی یا پزشکی، حتی یک فرض اشتباه می‌تواند به ماه‌ها کار بی‌ثمر یا نتیجه‌گیری خطرناک منجر شود».

گام‌های بعدی

پژوهشگران پیشنهاد می‌کنند که برای کاهش چاپلوسی، باید طراحی رابط‌ها و ساختارهای پرسش به‌گونه‌ای تغییر کند که مدل‌ها ملزم به ارزیابی صحت ورودی‌ها باشند، نه صرفاً ادامه دادن گفتگو بر اساس فرض کاربر.

علاوه بر آن، ترکیب چند مدل مستقل و مقایسه نتایج آن‌ها می‌تواند به کاهش سوگیری‌های چاپلوسانه کمک کند.

با این حال، متخصصان تأکید دارند که مسئولیت نهایی بر عهده کاربر است — پژوهشگر باید بداند که چت‌بات‌ها همیشه در پی تأیید او هستند، نه الزاماً گفتن حقیقت.

در پایان، دکونینک می‌گوید:

«این مدل‌ها ابزارهایی فوق‌العاده هستند، اما باید بدانیم با دوستانی طرف هستیم که همیشه با ما موافق‌اند — و در علم، این دقیقاً همان چیزی است که باید از آن بترسیم.»

در انتها از شما عزیزان دعوت میشود که برای مطالعه مقاله مربوط به  اینستاگرام با هوش مصنوعی استوری‌ها را خلاقانه‌تر کرد کلیک کنید.

مقالات مرتبط

آی پی ثابت کلید دسترسی به سایت و اپلیکیشن های خارجی

سال‌ها است که کاربران ایرانی در دنیای آنلاین با محدودیت‌های زیادی روبه‌رو…

۴ آبان ۱۴۰۴

اینستاگرام با هوش مصنوعی استوری‌ها را خلاقانه‌تر کرد

شرکت متا به‌تازگی از به‌روزرسانی جدیدی برای اینستاگرام خبر داده که امکان…

۲ آبان ۱۴۰۴

دفاع ایلان ماسک از پاداش تریلیونی برای کنترل آینده تسلا

چرا بسته‌ی پاداش یک تریلیون دلاری ایلان ماسک به مرکز مناقشات جهانی…

۱ آبان ۱۴۰۴

دیدگاهتان را بنویسید