مجله خبری سرمایه گذاری اهرم
Loading...

نتایج جستجو

بازگشت
بازگشت

OpenAI دو مدل هوش مصنوعی جدید برای ارتقای ایمنی آنلاین معرفی کرد

OpenAI دو مدل هوش مصنوعی جدید برای ارتقای ایمنی آنلاین معرفی کرد
نوشته شده توسط هدی کاظمی نسب
|
۰۸ آبان، ۱۴۰۴

OpenAI امروز از دو مدل استدلالگر جدید با هدف افزایش ایمنی آنلاین رونمایی کرد که توسعه‌دهندگان می‌توانند از آن‌ها برای شناسایی و طبقه‌بندی انواع آسیب‌های دیجیتال در پلتفرم‌های خود بهره ببرند.
به گزارش CNBC، این مدل‌ها با نام‌های gpt-oss-safeguard-120b و gpt-oss-safeguard-20b معرفی شده‌اند. هر دو نسخه، مدل‌های بهینه‌شده و تطبیق‌یافته‌ی gpt-oss هستند که OpenAI در آگوست معرفی کرده بود.



معرفی مدل‌های جدید ایمنی آنلاین

این مدل‌ها از نوع وزن باز (open weight) هستند؛ به این معنا که پارامترهای داخلی آن‌ها به‌صورت عمومی در دسترس قرار گرفته تا شفافیت و کنترل بیشتری برای کاربران فراهم شود. با این حال، برخلاف مدل‌های متن‌باز، کد منبع آن‌ها برای ویرایش در دسترس نیست.
OpenAI اعلام کرده است سازمان‌ها می‌توانند این مدل‌ها را با سیاست‌ها و نیازهای اختصاصی خود تنظیم کنند. این دو مدل توانایی استدلال و توضیح فرآیند تصمیم‌گیری را دارند؛ بنابراین توسعه‌دهندگان می‌توانند بفهمند مدل چگونه به یک نتیجه خاص رسیده است.
برای نمونه، یک سایت نقد و بررسی محصولات می‌تواند از مدل‌های Safeguard برای شناسایی نقدهای جعلی استفاده کند یا یک انجمن بازی‌های ویدیویی می‌تواند پست‌های حاوی تقلب یا تخلف را طبقه‌بندی کند.
این پروژه با همکاری Discord، SafetyKit و ROOST (سازمان فعال در زیرساخت‌های ایمنی هوش مصنوعی) توسعه یافته است. مدل‌ها فعلاً در مرحله پیش‌نمایش تحقیقاتی قرار دارند و OpenAI از بازخورد پژوهشگران و متخصصان ایمنی استقبال می‌کند.
به‌گفته کارشناسان، این اقدام پاسخی از سوی OpenAI به انتقادها درباره‌ی تجاری‌سازی سریع و کم‌توجهی به اصول اخلاقی هوش مصنوعی است. در حال حاضر ارزش این شرکت حدود ۵۰۰ میلیارد دلار تخمین زده می‌شود و ChatGPT بیش از ۸۰۰ میلیون کاربر فعال هفتگی دارد. کاربران می‌توانند وزن این مدل‌ها را از Hugging Face دریافت کنند.
کامیل فرانسوا، رئیس ROOST، در بیانیه‌ای گفت: «با پیشرفت سریع هوش مصنوعی، ابزارهای ایمنی نیز باید هم‌زمان رشد کنند و در دسترس عموم قرار گیرند.»

اشتراک گذاری:
کپی شد