
چه کسی هوش مصنوعی را هدایت میکند؟
به گزارش پردیس هوش مصنوعی و نوآوری دیجیتال ایران، انجمن بینالمللی حریم خصوصی (IAPP) و Credo AI گزارش مشترکی با عنوان حکمرانی هوش مصنوعی در عمل (AI Governance in Practice)، ارائه داده است که یکی از نخستین تلاشهای جدی در راستای تصویرسازی از «حاکمیت هوش مصنوعی به عنوان یک حرفه نوظهور» بهشمار میرود.
این گزارش حاصل نظرسنجی از ۶۷۰ متخصص در ۴۵ کشور و نیز بررسی عمیق هفت شرکت پیشرو است؛ این بررسی ضمن ترسیم روندهای جاری، نشان میدهد حاکمیت هوش مصنوعی چگونه بهتدریج از یک دغدغه نظری به یک مزیت رقابتی راهبردی تبدیل شده است.
سال ۲۰۲۵ را میتوان نقطه عطفی در شکلگیری این حرفه نو دانست. تصویب نهایی قانون هوش مصنوعی اتحادیه اروپا (EU AI Act)، تدوین برنامههای مشابه در کشورهایی همچون کره جنوبی، هند، سنگاپور و برزیل و همچنین، ضوابط در حال شکلگیری در ایالات متحده، حاکمیت AI را از یک موضوع انتزاعی به یک الزام حقوقی و عملیاتی تبدیل کردهاست.
بااینحال، آنچه این گزارش برجسته میسازد، صرفاً فشار قانونگذار نیست؛ بلکه درک رو به رشدی است که میگوید، اگر هوش مصنوعی آیندهی سازمانهاست، حاکمیت آن، آیندهی قدرت آنهاست.
در ساختارهای در حال شکلگیری، یک مدل واحد و قالب مشترک مشاهده نمیشود. برخی شرکتها حاکمیت هوش مصنوعی را در دل واحدهای حریم خصوصی یا اخلاق دیجیتال ادغام کردهاند و برخی دیگر ساختاری مستقل برای آن تعریف کردهاند. بااینوجود، وجه مشترک میان همه آنها ماهیت میانرشتهای این حوزه است.
تیمهای مؤثر در این زمینه ترکیبی از متخصصان داده، حقوقدانان، مدیران ریسک، مهندسان امنیت و تحلیلگران سیاستگذاری هستند. نزدیک به ۴۰ درصد شرکتها دارای کمیتههای رسمی حاکمیت AI هستند؛ ساختارهایی که نهتنها بر پروژههای هوش مصنوعی نظارت میکنند، بلکه مسئول تدوین سیاست، ارزیابی ریسک، توسعه ابزارهای ارزیاب و آموزش داخلی نیز هستند.
در بخش مطالعات موردی، تصویری دقیق از عملکرد چند شرکت پیشرو ارائه شده است. برای مثال، شرکت Mastercard با ایجاد یک تیم مرکزی در حوزه حاکمیت AI، تمرکز خود را بر ریسکهایی از جمله سوگیری در تصمیمگیری و عدم شفافیت مدلها قرار داده است.
این تیم، ریسکها را در مراحل مختلف توسعه محصول شناسایی و تعدیل میکند.
شرکت TELUS از مدلهای دادهمحور بهره میگیرد و چارچوبی بومی برای تعامل با مدلهای مولد طراحی کرده که در عین حفظ نوآوری، با استانداردهای اخلاقی نیز سازگار است. شرکت BCG نیز از ابزار اختصاصی خود با عنوان Responsible AI Toolkit استفاده میکند؛ ابزاری که از مرحله طراحی اولیه تا استقرار نهایی، فرایند تصمیمگیری پیرامون ریسکها را ساختارمند میسازد.
یکی از مهمترین پیامهای راهبردی این گزارش آن است که «حاکمیت» دیگر صرفاً ابزار کنترل نیست، بلکه به یک قابلیت سازمانی حیاتی تبدیل شده است که این بعد از قابلیت در سه سطح بروز مییابد:
1. در سطح سیاستگذاری داخلی و تدوین راهنماهای عملیاتی
2. در سطح توسعه ابزارها و پلتفرمهای ارزیابی خودکار ریسک مدلها
3. در سطح فرهنگ سازمانی
که مسئولیتپذیری را نه مانعی برای نوآوری، بلکه شرط پایداری آن تلقی میکند. از همینرو، شرکتهایی مانند IBM یا SAP، حاکمیت هوش مصنوعی را به سطح تصمیمگیری هیئتمدیره ارتقا دادهاند.
مهمترین چالشی که در این حوزه وجود دارد،کمبود افرادی است که هم درک عمیقی از فناوریهای هوش مصنوعی داشته باشند و هم با حوزههایی چون حقوق، تنظیمگری، اخلاق و سازوکارهای حاکمیتی آشنا باشند. بسیاری از شرکتها ناچار شدهاند نیروهای خود را از حوزههایی مانند امنیت اطلاعات، حریم خصوصی یا مدیریت ریسک جذب و بازآموزی کنند. با اینحال، این شکاف خود میتواند به فرصتی راهبردی تبدیل شود. دانشگاهها، نهادهای آموزشی و حتی دولتها میتوانند با سرمایهگذاری هدفمند روی تربیت نیروی انسانی، در معماری آینده حاکمیت فناوری نقشآفرینی جدی کنند.
در نهایت، شاید مهمترین تحولی که این گزارش به آن اشاره می کند، گذار از رویکرد انطباقمحور (compliance-driven) به رویکرد ارزشآفرین (value-driven) در حکمرانی هوش مصنوعی است.
در جهانی که هوش مصنوعی در تار و پود تصمیمگیری، حکمرانی، اقتصاد و زیستجهان انسانی نفوذ کرده، تنها سازمانهایی دوام خواهند آورد که بتوانند به این پرسش پاسخ دهند: «چه کسی هوش مصنوعی را هدایت میکند؟» و این پاسخ، دیگر نباید مبهم باشد بلکه باید در قالب یک نهاد، تیم یا حرفه به آن پاسخ داده شود، حرفهای که اکنون در حال تولد است.