کپچا دیگر امن نیست؛ ChatGPT توانست آن را حل کند
محققان امنیت سایبری موفق شدند یکی از قدیمیترین دیوارهای دفاعی اینترنت در برابر رباتها را دور بزنند. آنها با استفاده از تکنیکی خاص، توانستند ChatGPT را متقاعد کنند که پازلهای کپچا (CAPTCHA) را حل کند؛ چالشی که تا پیش از این صرفاً در توان انسانها تصور میشد. این موفقیت میتواند آغازگر دورانی تازه از گسترش اسپم و محتوای جعلی در فضای آنلاین باشد.
کپچا همان آزمونهایی است که کاربران برای اثبات «انسان بودن» خود باید انجام دهند؛ مثل تشخیص کاراکترهای نامنظم یا انتخاب تصاویر مشخص. بهطور معمول، مدلهای هوش مصنوعی طوری طراحی شدهاند که از حل چنین تستهایی خودداری کنند. اما پژوهشگران شرکت امنیتی SPLX با بهرهگیری از روشی موسوم به «تزریق پرامپت چندمرحلهای» توانستند این محدودیت را بشکنند.
روند کار به این شکل بود: در ابتدا، آنها طی گفتوگویی عادی با ChatGPT-4o، این مدل را متقاعد کردند که حل مجموعهای از کپچاهای «ساختگی» صرفاً بخشی از یک تمرین استدلالی است. سپس در یک چت جدید و در حالت Agent Mode، همان مکالمه را بازسازی کردند. در این حالت، هوش مصنوعی به دلیل بهیاد داشتن توافق قبلی، بدون آگاهی از زیر پا گذاشتن محدودیتهای امنیتی خود، شروع به حل کپچاهای واقعی کرد. این نخستین گزارش مستندی است که نشان میدهد یک ایجنت GPT توانسته کپچاهای پیچیده تصویری را نیز با موفقیت پشت سر بگذارد.
این دستاورد پیامدهای عمیقی برای امنیت وب دارد. کپچاها ستون اصلی مقابله با ساخت حسابهای جعلی، انتشار اسپم و سوءاستفاده از سرویسهای آنلاین محسوب میشوند. حالا با توانایی ابزارهای عمومی مانند ChatGPT برای عبور از این سد، احتمال سوءاستفاده گسترده توسط اسپمرها و مهاجمان سایبری افزایش مییابد.
به گفته «دوریان شولتز»، یکی از اعضای تیم تحقیق: «پرسش اساسی این است که کپچاها تا چه زمانی میتوانند سپری مطمئن در برابر هوش مصنوعیهای پیشرفته باقی بمانند.»
این پژوهش همچنین نشان داد که ChatGPT در حل کپچاهای متنی و منطقی عملکرد بهتری دارد و هرچند در مواجهه با تستهای تصویری پیچیدهتر (مثل چرخاندن تصویر) دچار چالش شد، اما در نهایت موفق به حل آنها نیز گردید. این یعنی دوران اتکای مطلق به کپچا بهعنوان راهکار اصلی امنیتی، به پایان نزدیک شده است.