OpenAI دو مدل هوش مصنوعی جدید برای ارتقای ایمنی آنلاین معرفی کرد
OpenAI امروز از دو مدل استدلالگر جدید با هدف افزایش ایمنی آنلاین رونمایی کرد که توسعهدهندگان میتوانند از آنها برای شناسایی و طبقهبندی انواع آسیبهای دیجیتال در پلتفرمهای خود بهره ببرند.
به گزارش CNBC، این مدلها با نامهای gpt-oss-safeguard-120b و gpt-oss-safeguard-20b معرفی شدهاند. هر دو نسخه، مدلهای بهینهشده و تطبیقیافتهی gpt-oss هستند که OpenAI در آگوست معرفی کرده بود.
معرفی مدلهای جدید ایمنی آنلاین
این مدلها از نوع وزن باز (open weight) هستند؛ به این معنا که پارامترهای داخلی آنها بهصورت عمومی در دسترس قرار گرفته تا شفافیت و کنترل بیشتری برای کاربران فراهم شود. با این حال، برخلاف مدلهای متنباز، کد منبع آنها برای ویرایش در دسترس نیست.
OpenAI اعلام کرده است سازمانها میتوانند این مدلها را با سیاستها و نیازهای اختصاصی خود تنظیم کنند. این دو مدل توانایی استدلال و توضیح فرآیند تصمیمگیری را دارند؛ بنابراین توسعهدهندگان میتوانند بفهمند مدل چگونه به یک نتیجه خاص رسیده است.
برای نمونه، یک سایت نقد و بررسی محصولات میتواند از مدلهای Safeguard برای شناسایی نقدهای جعلی استفاده کند یا یک انجمن بازیهای ویدیویی میتواند پستهای حاوی تقلب یا تخلف را طبقهبندی کند.
این پروژه با همکاری Discord، SafetyKit و ROOST (سازمان فعال در زیرساختهای ایمنی هوش مصنوعی) توسعه یافته است. مدلها فعلاً در مرحله پیشنمایش تحقیقاتی قرار دارند و OpenAI از بازخورد پژوهشگران و متخصصان ایمنی استقبال میکند.
بهگفته کارشناسان، این اقدام پاسخی از سوی OpenAI به انتقادها دربارهی تجاریسازی سریع و کمتوجهی به اصول اخلاقی هوش مصنوعی است. در حال حاضر ارزش این شرکت حدود ۵۰۰ میلیارد دلار تخمین زده میشود و ChatGPT بیش از ۸۰۰ میلیون کاربر فعال هفتگی دارد. کاربران میتوانند وزن این مدلها را از Hugging Face دریافت کنند.
کامیل فرانسوا، رئیس ROOST، در بیانیهای گفت: «با پیشرفت سریع هوش مصنوعی، ابزارهای ایمنی نیز باید همزمان رشد کنند و در دسترس عموم قرار گیرند.»