چه کسی هوش مصنوعی را هدایت می‌کند؟

چه کسی هوش مصنوعی را هدایت می‌کند؟

به گزارش پردیس هوش مصنوعی و نوآوری دیجیتال ایران، انجمن بین‌المللی حریم خصوصی (IAPP) و Credo AI گزارش مشترکی با عنوان حکمرانی هوش مصنوعی در عمل (AI Governance in Practice)، ارائه داده است که یکی از نخستین تلاش‌های جدی در راستای تصویرسازی از «حاکمیت هوش مصنوعی به‌ عنوان یک حرفه نوظهور» به‌شمار می‌رود.

این گزارش حاصل نظرسنجی از ۶۷۰ متخصص در ۴۵ کشور و نیز بررسی عمیق هفت شرکت پیشرو است؛ این بررسی ضمن ترسیم روندهای جاری، نشان می‌دهد حاکمیت هوش مصنوعی چگونه به‌تدریج از یک دغدغه نظری به یک مزیت رقابتی راهبردی تبدیل شده است.

سال ۲۰۲۵ را می‌توان نقطه عطفی در شکل‌گیری این حرفه نو دانست. تصویب نهایی قانون هوش مصنوعی اتحادیه اروپا (EU AI Act)، تدوین برنامه‌های مشابه در کشورهایی همچون کره جنوبی، هند، سنگاپور و برزیل و همچنین، ضوابط در حال شکل‌گیری در ایالات متحده، حاکمیت AI را از یک موضوع انتزاعی به یک الزام حقوقی و عملیاتی تبدیل کرده‌است.

بااین‌حال، آنچه این گزارش برجسته می‌سازد، صرفاً فشار قانون‌گذار نیست؛ بلکه درک رو به رشدی است که می‌گوید، اگر هوش مصنوعی آینده‌ی سازمان‌هاست، حاکمیت آن، آینده‌ی قدرت آن‌هاست.

در ساختارهای در حال شکل‌گیری، یک مدل واحد و قالب مشترک مشاهده نمی‌شود. برخی شرکت‌ها حاکمیت هوش مصنوعی را در دل واحدهای حریم خصوصی یا اخلاق دیجیتال ادغام کرده‌اند و برخی دیگر ساختاری مستقل برای آن تعریف کرده‌اند. بااین‌وجود، وجه مشترک میان همه آن‌ها ماهیت میان‌رشته‌ای این حوزه است.

تیم‌های مؤثر در این زمینه ترکیبی‌ از متخصصان داده، حقوق‌دانان، مدیران ریسک، مهندسان امنیت و تحلیل‌گران سیاست‌گذاری هستند. نزدیک به ۴۰ درصد شرکت‌ها دارای کمیته‌های رسمی حاکمیت AI هستند؛ ساختارهایی که نه‌تنها بر پروژه‌های هوش مصنوعی نظارت می‌کنند، بلکه مسئول تدوین سیاست، ارزیابی ریسک، توسعه ابزارهای ارزیاب و آموزش داخلی نیز هستند.

در بخش مطالعات موردی، تصویری دقیق از عملکرد چند شرکت پیشرو ارائه شده است. برای مثال، شرکت Mastercard با ایجاد یک تیم مرکزی در حوزه حاکمیت AI، تمرکز خود را بر ریسک‌هایی از جمله سوگیری در تصمیم‌گیری و عدم شفافیت مدل‌ها قرار داده است.
 این تیم، ریسک‌ها را در مراحل مختلف توسعه محصول شناسایی و تعدیل می‌کند.

شرکت TELUS از مدل‌های داده‌محور بهره می‌گیرد و چارچوبی بومی برای تعامل با مدل‌های مولد طراحی کرده که در عین حفظ نوآوری، با استانداردهای اخلاقی نیز سازگار است. شرکت BCG نیز از ابزار اختصاصی خود با عنوان Responsible AI Toolkit استفاده می‌کند؛ ابزاری که از مرحله طراحی اولیه تا استقرار نهایی، فرایند تصمیم‌گیری پیرامون ریسک‌ها را ساختارمند می‌سازد.

یکی از مهم‌ترین پیام‌های راهبردی این گزارش آن است که «حاکمیت» دیگر صرفاً ابزار کنترل نیست، بلکه به یک قابلیت سازمانی حیاتی تبدیل شده است که این بعد از قابلیت در سه سطح بروز می‌یابد:

1. در سطح سیاست‌گذاری داخلی و تدوین راهنماهای عملیاتی

2. در سطح توسعه ابزارها و پلتفرم‌های ارزیابی خودکار ریسک مدل‌ها

3. در سطح فرهنگ سازمانی
که مسئولیت‌پذیری را نه مانعی برای نوآوری، بلکه شرط پایداری آن تلقی می‌کند. از همین‌رو، شرکت‌هایی مانند IBM یا SAP، حاکمیت هوش مصنوعی را به سطح تصمیم‌گیری هیئت‌مدیره ارتقا داده‌اند.

مهمترین چالشی که در این حوزه وجود دارد،کمبود افرادی است که هم درک عمیقی از فناوری‌های هوش مصنوعی داشته باشند و هم با حوزه‌هایی چون حقوق، تنظیم‌گری، اخلاق و سازوکارهای حاکمیتی آشنا باشند. بسیاری از شرکت‌ها ناچار شده‌اند نیروهای خود را از حوزه‌هایی مانند امنیت اطلاعات، حریم خصوصی یا مدیریت ریسک جذب و بازآموزی کنند. با این‌حال، این شکاف خود می‌تواند به فرصتی راهبردی تبدیل شود. دانشگاه‌ها، نهادهای آموزشی و حتی دولت‌ها می‌توانند با سرمایه‌گذاری هدفمند روی تربیت نیروی انسانی، در معماری آینده حاکمیت فناوری نقش‌آفرینی جدی کنند.

در نهایت، شاید مهم‌ترین تحولی که این گزارش به آن اشاره می کند، گذار از رویکرد انطباق‌محور (compliance-driven) به رویکرد ارزش‌آفرین (value-driven) در حکمرانی هوش مصنوعی است.

در جهانی که هوش مصنوعی در تار و پود تصمیم‌گیری، حکمرانی، اقتصاد و زیست‌جهان انسانی نفوذ کرده، تنها سازمان‌هایی دوام خواهند آورد که بتوانند به این پرسش پاسخ دهند: «چه کسی هوش مصنوعی را هدایت می‌کند؟» و این پاسخ، دیگر نباید مبهم باشد بلکه باید در قالب یک نهاد، تیم یا حرفه به آن پاسخ داده شود، حرفه‌ای که اکنون در حال تولد است.