چرا مدل‌های زبانی هوش مصنوعی مسیر گفتگو را گم می‌کنند؟

چرا مدل‌های زبانی هوش مصنوعی مسیر گفتگو را گم می‌کنند؟

به گزارش پردیس هوش مصنوعی و نوآوری دیجیتال ایران، مدل‌های زبانی بزرگ (LLMs) به‌ظاهر دستیارانی توانا برای تعامل با انسان هستند. اما پژوهش بنیادینی از مایکروسافت و سیلزفورس نشان می‌دهد این مدل‌ها در موقعیت‌هایی که دستورالعمل‌ها به‌صورت ناقص و تدریجی در چند نوبت مطرح می‌شوند، یعنی وضعیتی مشابه مکالمات واقعی، به‌طور بنیادین دچار افت عملکرد، ابهام شناختی و بی‌ثباتی رفتاری می‌شوند.

در این پژوهش، با طراحی محیطی شبیه‌سازی‌شده و تبدیل دستور کامل به دستورات گام‌به‌گام، عملکرد ۱۵ مدل پیشرفته در ۶ وظیفه مهم (کدنویسی، پایگاه داده، ریاضی، فراخوانی API، تولید متن و خلاصه‌سازی) سنجیده شد. نتیجه تکان‌دهنده بود:

 کاهش میانگین عملکرد تا ۳۹٪
 افزایش بی‌ثباتی رفتاری (unreliability) تا ۱۱۲٪
 حتی بهترین مدل‌ها مانند GPT-4.1 و Gemini 2.5 Pro نیز در انجام دستورات گام به گام دچار ضعف  هستند.

مدل‌ها در مکالمات چندمرحله‌ای دچار پاسخ‌های شتاب‌زده با فرضیات غلط می‌شوند و پاسخ‌های طولانی و پیچیده ارائه می‌دهند که به‌جای اصلاح، اشتباهات پیشین را تکرار می‌کنند و اغلب اطلاعات میانی گفتگو را فراموش می‌کنند.

راهکارهای ساده مانند کاهش تصادفی بودن پاسخ یا استفاده از چارچوب‌های عامل‌محور (مانند LangChain یا AutoGen) نیز تنها بخشی از مشکل را مهار می‌کنند؛ اما اصل ناتوانی در حفظ انسجام مفهومی باقی می‌ماند.

  آینده از آنِ LLMهایی است که «خودآگاهی مکالمه‌ای» دارند

این پژوهش یک پیام روشن برای آینده هوش مصنوعی دارد. توانایی درک و بازیابی جریان معنایی در تعاملات چندمرحله‌ای، اکنون نه یک قابلیت لوکس، بلکه پیش‌نیاز ورود به عرصه تعامل واقعی انسانی است.

برای رسیدن به این سطح، LLMها باید از معماری‌های صرفاً پیش‌بین‌ به معماری‌های سازمان‌یابنده ارتقا یابند، مدل‌هایی که قادر به بازسازی روایت، تشخیص نیت ناتمام و اصلاح مسیر گفتگو در لحظه باشند.در غیر این صورت، حتی پیچیده‌ترین مدل‌ها، در برخورد با پیچیدگی انسانی، گم می‌شوند.