
چرا مدلهای زبانی هوش مصنوعی مسیر گفتگو را گم میکنند؟
به گزارش پردیس هوش مصنوعی و نوآوری دیجیتال ایران، مدلهای زبانی بزرگ (LLMs) بهظاهر دستیارانی توانا برای تعامل با انسان هستند. اما پژوهش بنیادینی از مایکروسافت و سیلزفورس نشان میدهد این مدلها در موقعیتهایی که دستورالعملها بهصورت ناقص و تدریجی در چند نوبت مطرح میشوند، یعنی وضعیتی مشابه مکالمات واقعی، بهطور بنیادین دچار افت عملکرد، ابهام شناختی و بیثباتی رفتاری میشوند.
در این پژوهش، با طراحی محیطی شبیهسازیشده و تبدیل دستور کامل به دستورات گامبهگام، عملکرد ۱۵ مدل پیشرفته در ۶ وظیفه مهم (کدنویسی، پایگاه داده، ریاضی، فراخوانی API، تولید متن و خلاصهسازی) سنجیده شد. نتیجه تکاندهنده بود:
کاهش میانگین عملکرد تا ۳۹٪
افزایش بیثباتی رفتاری (unreliability) تا ۱۱۲٪
حتی بهترین مدلها مانند GPT-4.1 و Gemini 2.5 Pro نیز در انجام دستورات گام به گام دچار ضعف هستند.
مدلها در مکالمات چندمرحلهای دچار پاسخهای شتابزده با فرضیات غلط میشوند و پاسخهای طولانی و پیچیده ارائه میدهند که بهجای اصلاح، اشتباهات پیشین را تکرار میکنند و اغلب اطلاعات میانی گفتگو را فراموش میکنند.
راهکارهای ساده مانند کاهش تصادفی بودن پاسخ یا استفاده از چارچوبهای عاملمحور (مانند LangChain یا AutoGen) نیز تنها بخشی از مشکل را مهار میکنند؛ اما اصل ناتوانی در حفظ انسجام مفهومی باقی میماند.
آینده از آنِ LLMهایی است که «خودآگاهی مکالمهای» دارند
این پژوهش یک پیام روشن برای آینده هوش مصنوعی دارد. توانایی درک و بازیابی جریان معنایی در تعاملات چندمرحلهای، اکنون نه یک قابلیت لوکس، بلکه پیشنیاز ورود به عرصه تعامل واقعی انسانی است.
برای رسیدن به این سطح، LLMها باید از معماریهای صرفاً پیشبین به معماریهای سازمانیابنده ارتقا یابند، مدلهایی که قادر به بازسازی روایت، تشخیص نیت ناتمام و اصلاح مسیر گفتگو در لحظه باشند.در غیر این صورت، حتی پیچیدهترین مدلها، در برخورد با پیچیدگی انسانی، گم میشوند.