علم در عصر هوش‌مصنوعی / آیا به سمت دانشمند «اپراتور» می‌رویم؟

علم در عصر هوش‌مصنوعی / آیا به سمت دانشمند «اپراتور» می‌رویم؟

به گزارش گروه آینده پژوهی پردیس هوش مصنوعی و نوآوری دیجیتال ایران، علم، در بطن خود، همیشه با ابزار شکل گرفته است. از تلسکوپ گالیله تا شتاب‌دهنده‌های ذره‌ای، از معادلات نیوتن تا کدهای ژنتیکی؛ ابزارها، مرزهای شناخت را گسترش داده‌اند. اما امروز، ما با ابزاری روبه‌رو هستیم که فقط به ما کمک نمی‌کند تا جهان را بهتر ببینیم، بلکه ممکن است به‌زودی بهتر از ما بیاندیشد، پیدا کند و حتی بسازد. این علم چیزی نیست جز هوش مصنوعی.

گزارش Science in the Age of AI، حاصل بیش از دو سال کار میدانی، گفت‌وگو با بیش از ۱۰۰ دانشمند و تحلیلگران فناوری، مطالعه صدها مقاله و پتنت و مشارکت در میزگردهای سیاست‌گذاری علم است. دستاورد نهایی، یک پرتره دقیق از جهانی است که در آن، مرز میان علم انسانی و یادگیری ماشینی روزبه‌روز کمرنگ‌تر می‌شود.

هوش مصنوعی دیگر فقط ابزار نیست؛ شریک شناختی علم است

هوش مصنوعی، به‌ویژه مدل‌های زبانی بزرگ (LLMs)، نه‌تنها در کنار دانشمند می‌ایستند، بلکه در بسیاری از موارد، ابتکار کشف را به‌دست می‌گیرند. از کشف ساختار پروتئین‌ها در AlphaFold، تا طراحی مواد نوین با ترکیب شبیه‌سازی و تولید داده مصنوعی، از بهینه‌سازی مسیرهای شیمیایی تا تحلیل داده‌های اخترفیزیک، از پزشکی شخصی‌سازی‌شده تا مدل‌سازی اقلیم جهانی حضور AI در بطن فرآیند علمی، دیگر انکارناپذیر است.

 بحران بازتولیدپذیری علم در عصر مدل‌های بسته

یکی از اصول بنیادین علم، قابلیت بازتولید است. اما ابزارهای هوش مصنوعی، به‌ویژه مدل‌هایی چون GPT یا AlphaCode، اغلب مبتنی بر کدهای بسته، داده‌های خصوصی و منابع محاسباتی انحصاری‌اند. این پدیده، امکان ارزیابی علمی، اصلاح خطاها و بازبینی مستقل را تضعیف کرده و در درازمدت می‌تواند اعتبار علم را زیر سؤال ببرد. این گزارش به‌روشنی خواستار توسعه مدل‌های «باز، قابل حسابرسی و اخلاق‌محور» می‌شود.

شکاف زیرساختی، شکاف شناختی

در دنیای AI-driven science، دسترسی به توان محاسباتی به‌مثابه دسترسی به ابزار شناخت است. اما این زیرساخت در سطح جهانی به‌شدت نابرابر توزیع شده است. تنها چند کشور و نهاد بزرگ علمی از ابررایانه‌ها، مدل‌های پایه و داده‌های عظیم برخوردارند. این شکاف زیرساختی، به‌تدریج تبدیل به شکاف شناختی جهانی خواهد شد که در واقع تهدیدی خاموش برای علم عادلانه است.

سوگیری، انرژی، و خطرات اخلاقی نهان

مدل‌های هوش مصنوعی، برخلاف ظاهر بی‌طرف‌شان، بازتابی از داده‌هایی هستند که بر آن‌ها آموزش دیده‌اند و این داده‌ها اغلب پر از سوگیری، تبعیض و بازنمایی نادرست‌ هستند. همچنین، هزینه انرژی اجرای مدل‌های بزرگ، به‌ویژه در پژوهش‌های بیولوژیکی یا فیزیکی، به‌سرعت در حال افزایش است. در کنار این موارد، خطر استفاده ناآگاهانه یا عمدی از خروجی‌های جعلی (hallucinations) نیز وجود دارد. گزارش خواستار ایجاد چارچوب‌های ارزیابی اخلاقی مشارکتی و سازوکارهای پیش‌گیرانه است.

جایگزینی کنجکاوی با بهینه‌سازی؟

در بخشی تأمل‌برانگیز از گزارش، به روندی اشاره می‌شود که ممکن است به تغییر ماهوی نقش پژوهشگر منجر شود. به‌جای دانشمند کنجکاو و کاشف، شاید به‌زودی با دانشمند «اپراتور» روبه‌رو باشیم، کسی که مهارتش نه در پرسیدن سؤال درست، بلکه در تنظیم پرامپت، پالایش داده و استفاده از ابزارهای هوش مصنوعی است. این تغییر، نیازمند بازاندیشی جدی در نظام آموزش عالی، نظام پاداش‌دهی و ساختار حرفه‌ای علم است.

ناتوانی در میان‌رشتگی واقعی

یکی از مهم‌ترین چالش‌ها، فاصله زبانی و مفهومی میان دو جامعه است. دانشمندان علوم سنتی و توسعه‌دهندگان AI. نبود زبان مشترک، مانع از شکل‌گیری همکاری‌های معنادار میان حوزه‌های علمی و مهندسی داده می‌شود و در نهایت به مدل‌هایی می‌انجامد که یا دقیق نیستند، یا از واقعیت تجربی فاصله دارند. که این گزارش توصیه می‌کند ایجاد برنامه‌های مشترک میان‌رشته‌ای، تربیت نسل دو زبانه علمی–محاسباتی و ساخت مراکز «ترجمان علم و AI» در دستور کار قرار گیرد.

گزارش Science in the Age of AI به ما هشدار می‌دهد اگر نخواهیم آگاهانه، منصفانه و آینده‌نگر با آن روبه‌رو شویم، علم ممکن است ابزار خود را گم کند. اگر امروز، ما تصمیم نگیریم که رابطه انسان، علم و ماشین را بازتعریف کنیم، ممکن است فردا، ماشین‌ها آن را به‌جای ما بازتعریف کنند.