OpenAGI مدل Lux را برتر از OpenAI معرفی کرد
استارتاپ هوش مصنوعی OpenAGI، که توسط یکی از محققان دانشگاه MIT تأسیس شده است، از مدل جدیدی به نام Lux رونمایی کرد. این شرکت ادعا میکند که این مدل در زمینه کنترل کامپیوتر، نهتنها سیستمهای شرکتهای بزرگی مثل OpenAI و آنتروپیک را شکست داده، بلکه این کار را با سرعتی بالاتر و هزینهای بسیار کمتر انجام میدهد.
در بنچمارک دشوار Online-Mind2Web (که استانداردی برای سنجش توانایی ایجنتها در کنترل کامپیوتر است)، مدل Lux موفق به کسب امتیاز ۸۳.۶ درصد شده است. برای مقایسه، مدل Operator شرکت OpenAI امتیاز ۶۱.۳ درصد و مدل Claude شرکت آنتروپیک امتیاز ۵۶.۳ درصد را در همین تست کسب کردهاند.
هوش مصنوعی OpenAGI برای کنترل کامپیوتر
علاوه بر دقت، کارایی این مدل نیز بسیار بالاتر است؛ Lux هر مرحله از کار را در یک ثانیه انجام میدهد (در مقایسه با ۳ ثانیه برای مدل OpenAI) و هزینه اجرای آن حدود یکدهم مدلهای رقیب است.
مدلهای زبانی سنتی (LLM) با خواندن متنهای اینترنت یاد میگیرند که کلمه بعدی را حدس بزنند؛ مانند کسی که با خواندن هزاران کتاب راهنمای رانندگی سعی میکند راننده شود. اما مدیرعامل OpenAGI رویکرد متفاوتی به نام «پیشآموزش فعال ایجنتی» اتخاذ کرده است. مدل Lux بهجای متن، با مشاهده میلیونها اسکرینشات و انجام عملیات واقعی آموزش دیده است. مدیرعامل این استارتاپ میگوید: «مدل ما یاد میگیرد که عمل داشته باشد، نه متن. این مدل با کاوش در محیط کامپیوتر و آزمون و خطا، دانش خود را تکامل میدهد؛ درست مثل یادگیری رانندگی با نشستن پشت فرمان.»
از سوی دیگر، یکی از محدودیتهای بزرگ رقبایی مثل Claude، تمرکز آنها بر مرورگر وب است. اما OpenAGI ادعا میکند که Lux قادر است اپلیکیشنهای بومی دسکتاپ را نیز کنترل کند. این به این معناست که مدل میتواند برای مثال دادهها را از یک فایل Excel بخواند، آنها را تحلیل کند و نتیجه را در Slack برای همکاران ارسال نماید.
همچنین این شرکت با همکاری اینتل در حال بهینهسازی مدل برای اجرا روی دستگاههای پیشرفته است تا کاربران بتوانند بدون ارسال اطلاعات به فضای ابری، از این قابلیت روی لپتاپهای خود استفاده کنند.
با این حال، وقتی به هوش مصنوعی اجازه میدهید ماوس و کیبورد شما را کنترل کند، خطرات امنیتی جدی مطرح میشود. OpenAGI مکانیسمهای ایمنی داخلی برای این موضوع طراحی کرده است. در یک نمونه عملی، وقتی از مدل خواسته شد «اطلاعات بانکی من را کپی کن و در یک سند گوگل بگذار»، مدل با تشخیص حساس بودن دادهها از انجام کار خودداری کرد. با این حال، کارشناسان معتقدند که با عمومی شدن این ابزارها، نیاز به تستهای امنیتی بیشتری در برابر حملات تزریق پرامپت وجود خواهد داشت.