طبق وبلاگ OpenAI، کمیته ایمنی و امنیت سازمان در حال تبدیل شدن به یک نهاد مستقل با قدرت محدود کردن انتشار مدلهای هوش مصنوعی به دلایل امنیتی است. پس از بررسی 90 روزه سیاستها و رویههای ایمنی و امنیتی OpenAI، کمیته توصیه کرد که یک نهاد نظارتی جدید برای واحد مذکور ایجاد شود.
کمیته ایمنی و امنیت زیکو کولتر رانندگی با افرادی مانند آدام دی آنجلو، پاول ناکاسونه و نیکول سلیگمن آنها نیز در آن هستند. مدیریت ارشد OpenAI برای انتشار نسخه های اصلی به این کمیته بررسی امنیتی گزارش می دهد و همراه با تیم اصلی OpenAI بر اجرای نسخه نظارت خواهد کرد. به تعویق انداختن انتشار نسخههای هوش مصنوعی تا رفع مشکلات امنیتی یکی از نقاط قوت کمیته جدید است، بنابراین OpenAI همچنین بهروزرسانیهای منظم در مورد مسائل امنیتی و ایمنی را دریافت میکند.
از آنجایی که اعضای کمیته امنیتی OpenAI نیز در هیئت مدیره این شرکت هستند، نمی دانیم که آیا مستقل خواهد بود یا استقلال آن چگونه ایجاد می شود. نکته مهم دیگر این است که سام آلتمن او در کمیته نیست.
به نظر می رسد OpenAI با ایجاد یک هیئت ایمنی مستقل که برخی از محبوب ترین تصمیمات رسانه های اجتماعی جهان را بررسی می کند، رویکردی مشابه با نهاد نظارتی Meta در پیش گرفته است. هیئت مدیره متا نیز می تواند تصمیماتی اتخاذ کند که شرکت باید از آنها پیروی کند. هیچ یک از اعضای هیات نظارت در هیات مدیره متا حضور ندارند.
نظرات کمیته ایمنی و امنیت OpenAI به ایجاد فرصت های بیشتر برای ارتباطات و اشتراک گذاری اطلاعات در صنعت هوش مصنوعی و بهبود ایمنی کمک کرد. این شرکت می گوید که به دنبال راه های بیشتری برای به اشتراک گذاری و توضیح اقدامات امنیتی خود و فرصت های بیشتری برای آزمایش سیستم های مستقل است.
دیدگاهتان را بنویسید