OpenAI انگارً مدل هوش مصنوعی GPT-4o را شتابزده معارفه کرده است_دانستنی
نوشته و ویرایش شده توسط مجله ی دانستنی
به ادعای یکی از کارکنان OpenAI، این شرکت با عجله آزمایشهای ایمنی GPT-4o را انجام داده و قبل از مطمعن از ایمنی این مدل، آن را معارفه کرده است. به حرف های این فرد ناشناس، آنها در اولین آزمایش ایمنی این مدل پیشرفته، ناکامی خورده بودند.
یکی از کارمندان ناشناس OpenAI به واشنگتن پست حرف های است: «آنها قبل از آنکه بدانند این مدل [GPT-4o] امن است، از آن رونمایی کردند. ما اساساً در روال امنیت ناکامی خوردیم.» او میگوید که OpenAI برای اراعه آخرین مدل هوش مصنوعی خود عجله کرد.
سخنگوی OpenAI نیز به واشنگتن پست او گفت که اراعه GPT-4o علتنشده که در پرداختن به نکات ایمنی کمکاری بشود. بااینحال منبع ناشناس اذعان میکند که جدول وقتی بازدید ایمنی این مدل به یک هفته فشرده شده می بود.
نقض امنیت هوش مصنوعی در OpenAI
ایمنی یکی از نکات مهم منشور OpenAI است، در این منشور بندی وجود دارد که میگوید OpenAI به دیگر سازمانهای رقیب پشتیبانی میکند تا در صورت دستیابی به AGI (هوش جامع مصنوعی)، به جای ادامه رقابت، ایمنی آن را ارتقا دهند. این چنین OpenAI انگارً مدعی است که مدلهای اختصاصی خود را به دلایل ایمنی متنباز نمیکند.
بااینحال در چند زمان تازه نگرانیها حوالی نقض ایمنی هوش مصنوعی در OpenAI و دیگر گسترشدهندگان مدلهای بزرگ افزایش یافته است. وزارت امور خارجه ایالات متحده چند ماه قبل خبرداد: «گسترش هوش مصنوعی پیشتاز جاری خطرات سریع و فزایندهای برای امنیت ملی تشکیل میکند. ظهور هوش مصنوعی پیشرفته و AGI این پتانسیل را دارد که امنیت جهانی را به روشهایی که یادآور معارفه سلاحهای هستهای است، بیارامش کند.»
پیشازاین نیز، «یان لیکه»، یکی از محققان امنیت هوش مصنوعی OpenAI ضمن استعفا حرف های می بود که طی سالهای قبل، فرهنگ و فرایند ایمنیسازی هوش مصنوعی در این شرکت جای خود را به اراعه محصولات پرزرقوبرق داده است. این چنین کارمندان جاری و اسبق OpenAI اخیراً نامهای امضا کردند که در آن از این شرکت خواستند عمل های ایمنی بهتری در پیش بگیرد.
دسته بندی مطالب
