هیئت ایمنی مستقل OpenAI بدون حضور سم آلتمن با قدرت توقف انتشار مدل‌های هوش مصنوعی تشکیل شد

طبق وبلاگ OpenAI، کمیته ایمنی و امنیت سازمان در حال تبدیل شدن به یک نهاد مستقل با قدرت محدود کردن انتشار مدل‌های هوش مصنوعی به دلایل امنیتی است. پس از بررسی 90 روزه سیاست‌ها و رویه‌های ایمنی و امنیتی OpenAI، کمیته توصیه کرد که یک نهاد نظارتی جدید برای واحد مذکور ایجاد شود.

کمیته ایمنی و امنیت زیکو کولتر رانندگی با افرادی مانند آدام دی آنجلو، پاول ناکاسونه و نیکول سلیگمن آنها نیز در آن هستند. مدیریت ارشد OpenAI برای انتشار نسخه های اصلی به این کمیته بررسی امنیتی گزارش می دهد و همراه با تیم اصلی OpenAI بر اجرای نسخه نظارت خواهد کرد. به تعویق انداختن انتشار نسخه‌های هوش مصنوعی تا رفع مشکلات امنیتی یکی از نقاط قوت کمیته جدید است، بنابراین OpenAI همچنین به‌روزرسانی‌های منظم در مورد مسائل امنیتی و ایمنی را دریافت می‌کند.

از آنجایی که اعضای کمیته امنیتی OpenAI نیز در هیئت مدیره این شرکت هستند، نمی دانیم که آیا مستقل خواهد بود یا استقلال آن چگونه ایجاد می شود. نکته مهم دیگر این است که سام آلتمن او در کمیته نیست.

به نظر می رسد OpenAI با ایجاد یک هیئت ایمنی مستقل که برخی از محبوب ترین تصمیمات رسانه های اجتماعی جهان را بررسی می کند، رویکردی مشابه با نهاد نظارتی Meta در پیش گرفته است. هیئت مدیره متا نیز می تواند تصمیماتی اتخاذ کند که شرکت باید از آنها پیروی کند. هیچ یک از اعضای هیات نظارت در هیات مدیره متا حضور ندارند.

نظرات کمیته ایمنی و امنیت OpenAI به ایجاد فرصت های بیشتر برای ارتباطات و اشتراک گذاری اطلاعات در صنعت هوش مصنوعی و بهبود ایمنی کمک کرد. این شرکت می گوید که به دنبال راه های بیشتری برای به اشتراک گذاری و توضیح اقدامات امنیتی خود و فرصت های بیشتری برای آزمایش سیستم های مستقل است.


دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *