
علم در عصر هوشمصنوعی / آیا به سمت دانشمند «اپراتور» میرویم؟
به گزارش گروه آینده پژوهی پردیس هوش مصنوعی و نوآوری دیجیتال ایران، علم، در بطن خود، همیشه با ابزار شکل گرفته است. از تلسکوپ گالیله تا شتابدهندههای ذرهای، از معادلات نیوتن تا کدهای ژنتیکی؛ ابزارها، مرزهای شناخت را گسترش دادهاند. اما امروز، ما با ابزاری روبهرو هستیم که فقط به ما کمک نمیکند تا جهان را بهتر ببینیم، بلکه ممکن است بهزودی بهتر از ما بیاندیشد، پیدا کند و حتی بسازد. این علم چیزی نیست جز هوش مصنوعی.
گزارش Science in the Age of AI، حاصل بیش از دو سال کار میدانی، گفتوگو با بیش از ۱۰۰ دانشمند و تحلیلگران فناوری، مطالعه صدها مقاله و پتنت و مشارکت در میزگردهای سیاستگذاری علم است. دستاورد نهایی، یک پرتره دقیق از جهانی است که در آن، مرز میان علم انسانی و یادگیری ماشینی روزبهروز کمرنگتر میشود.
هوش مصنوعی دیگر فقط ابزار نیست؛ شریک شناختی علم است
هوش مصنوعی، بهویژه مدلهای زبانی بزرگ (LLMs)، نهتنها در کنار دانشمند میایستند، بلکه در بسیاری از موارد، ابتکار کشف را بهدست میگیرند. از کشف ساختار پروتئینها در AlphaFold، تا طراحی مواد نوین با ترکیب شبیهسازی و تولید داده مصنوعی، از بهینهسازی مسیرهای شیمیایی تا تحلیل دادههای اخترفیزیک، از پزشکی شخصیسازیشده تا مدلسازی اقلیم جهانی حضور AI در بطن فرآیند علمی، دیگر انکارناپذیر است.
بحران بازتولیدپذیری علم در عصر مدلهای بسته
یکی از اصول بنیادین علم، قابلیت بازتولید است. اما ابزارهای هوش مصنوعی، بهویژه مدلهایی چون GPT یا AlphaCode، اغلب مبتنی بر کدهای بسته، دادههای خصوصی و منابع محاسباتی انحصاریاند. این پدیده، امکان ارزیابی علمی، اصلاح خطاها و بازبینی مستقل را تضعیف کرده و در درازمدت میتواند اعتبار علم را زیر سؤال ببرد. این گزارش بهروشنی خواستار توسعه مدلهای «باز، قابل حسابرسی و اخلاقمحور» میشود.
شکاف زیرساختی، شکاف شناختی
در دنیای AI-driven science، دسترسی به توان محاسباتی بهمثابه دسترسی به ابزار شناخت است. اما این زیرساخت در سطح جهانی بهشدت نابرابر توزیع شده است. تنها چند کشور و نهاد بزرگ علمی از ابررایانهها، مدلهای پایه و دادههای عظیم برخوردارند. این شکاف زیرساختی، بهتدریج تبدیل به شکاف شناختی جهانی خواهد شد که در واقع تهدیدی خاموش برای علم عادلانه است.
سوگیری، انرژی، و خطرات اخلاقی نهان
مدلهای هوش مصنوعی، برخلاف ظاهر بیطرفشان، بازتابی از دادههایی هستند که بر آنها آموزش دیدهاند و این دادهها اغلب پر از سوگیری، تبعیض و بازنمایی نادرست هستند. همچنین، هزینه انرژی اجرای مدلهای بزرگ، بهویژه در پژوهشهای بیولوژیکی یا فیزیکی، بهسرعت در حال افزایش است. در کنار این موارد، خطر استفاده ناآگاهانه یا عمدی از خروجیهای جعلی (hallucinations) نیز وجود دارد. گزارش خواستار ایجاد چارچوبهای ارزیابی اخلاقی مشارکتی و سازوکارهای پیشگیرانه است.
جایگزینی کنجکاوی با بهینهسازی؟
در بخشی تأملبرانگیز از گزارش، به روندی اشاره میشود که ممکن است به تغییر ماهوی نقش پژوهشگر منجر شود. بهجای دانشمند کنجکاو و کاشف، شاید بهزودی با دانشمند «اپراتور» روبهرو باشیم، کسی که مهارتش نه در پرسیدن سؤال درست، بلکه در تنظیم پرامپت، پالایش داده و استفاده از ابزارهای هوش مصنوعی است. این تغییر، نیازمند بازاندیشی جدی در نظام آموزش عالی، نظام پاداشدهی و ساختار حرفهای علم است.
ناتوانی در میانرشتگی واقعی
یکی از مهمترین چالشها، فاصله زبانی و مفهومی میان دو جامعه است. دانشمندان علوم سنتی و توسعهدهندگان AI. نبود زبان مشترک، مانع از شکلگیری همکاریهای معنادار میان حوزههای علمی و مهندسی داده میشود و در نهایت به مدلهایی میانجامد که یا دقیق نیستند، یا از واقعیت تجربی فاصله دارند. که این گزارش توصیه میکند ایجاد برنامههای مشترک میانرشتهای، تربیت نسل دو زبانه علمی–محاسباتی و ساخت مراکز «ترجمان علم و AI» در دستور کار قرار گیرد.
گزارش Science in the Age of AI به ما هشدار میدهد اگر نخواهیم آگاهانه، منصفانه و آیندهنگر با آن روبهرو شویم، علم ممکن است ابزار خود را گم کند. اگر امروز، ما تصمیم نگیریم که رابطه انسان، علم و ماشین را بازتعریف کنیم، ممکن است فردا، ماشینها آن را بهجای ما بازتعریف کنند.