OpenAI ظاهراً مدل هوش مصنوعی GPT-4o را شتاب‌زده معرفی کرده استتکنولوژی 

OpenAI انگارً مدل هوش مصنوعی GPT-4o را شتاب‌زده معارفه کرده است_دانستنی


نوشته و ویرایش شده توسط مجله ی دانستنی

به ادعای یکی از کارکنان OpenAI، این شرکت با عجله آزمایش‌های ایمنی GPT-4o را انجام داده و قبل از مطمعن از ایمنی این مدل، آن را معارفه کرده است. به حرف های این فرد ناشناس، آن‌ها در اولین آزمایش ایمنی این مدل پیشرفته، ناکامی خورده بودند.

یکی از کارمندان ناشناس OpenAI به واشنگتن پست حرف های است: «آن‌ها قبل از آنکه بدانند این مدل [GPT-4o] امن است، از آن رونمایی کردند. ما اساساً در روال امنیت ناکامی خوردیم.» او می‌گوید که OpenAI برای اراعه آخرین مدل هوش مصنوعی خود عجله کرد.

سخنگوی OpenAI نیز به واشنگتن پست او گفت که اراعه GPT-4o علتنشده که در پرداختن به نکات ایمنی کم‌کاری بشود. بااین‌حال منبع ناشناس اذعان می‌کند که جدول وقتی بازدید ایمنی این مدل به یک هفته فشرده شده می بود.

نقض امنیت هوش مصنوعی در OpenAI

ایمنی یکی از نکات مهم منشور OpenAI است، در این منشور بندی وجود دارد که می‌گوید OpenAI به دیگر سازمان‌های رقیب پشتیبانی می‌کند تا در صورت دستیابی به AGI (هوش جامع مصنوعی)، به جای ادامه رقابت، ایمنی آن را ارتقا دهند. این چنین OpenAI انگارً مدعی است که مدل‌های اختصاصی خود را به دلایل ایمنی متن‌باز نمی‌کند.

بااین‌حال در چند زمان تازه نگرانی‌ها حوالی نقض ایمنی هوش مصنوعی در OpenAI و دیگر گسترش‌دهندگان مدل‌های بزرگ افزایش یافته است. وزارت امور خارجه ایالات متحده چند ماه قبل خبرداد: «گسترش هوش مصنوعی پیشتاز جاری خطرات سریع و فزاینده‌ای برای امنیت ملی تشکیل می‌کند. ظهور هوش مصنوعی پیشرفته و AGI این پتانسیل را دارد که امنیت جهانی را به روشهایی که یادآور معارفه سلاح‌های هسته‌ای است، بی‌ارامش کند.»

پیش‌ازاین نیز، «یان لیکه»، یکی از محققان امنیت هوش مصنوعی OpenAI ضمن استعفا حرف های می بود که طی سال‌های قبل، فرهنگ و فرایند ایمنی‌سازی هوش مصنوعی در این شرکت جای خود را به اراعه محصولات پرزرق‌وبرق داده است. این چنین کارمندان جاری و اسبق OpenAI اخیراً نامه‌ای امضا کردند که در آن از این شرکت خواستند عمل های ایمنی بهتری در پیش بگیرد.

دسته بندی مطالب

مقالات کسب وکار

مقالات تکنولوژی

مقالات آموزشی

تندرستی و سلامتی

پست های مرتبط