AI

گوگل جزئیات اقدامات امنیتی برای قابلیت‌های عامل‌محور کروم را شرح می‌دهد

3 دقیقه مطالعه
منبع
گوگل جزئیات اقدامات امنیتی برای قابلیت‌های عامل‌محور کروم را شرح می‌دهد
چکیده کوتاه
- گوگل با نظارت چندمدلی و رضایت کاربر، عوامل مرورگر هوش مصنوعی خود را تقویت می‌کند و خطرات از دست دادن داده و اقدامات غیرمجاز را کاهش می‌دهد.
- مجموعه‌های مبدأ عامل (Agent Origin Sets)*- و منتقدان هم‌ترازی کاربر (User Alignment Critics)*- دسترسی را محدود کرده و اجرای وظایف را تأیید می‌کنند و امنیت مرورگری خودکار را افزایش می‌دهند.

تعداد فزاینده‌ای از مرورگرها در حال آزمایش قابلیت‌های عامل‌محور هستند که اقداماتی را از طرف شما انجام می‌دهند، مانند رزرو بلیط یا خرید اقلام مختلف. با این حال، این قابلیت‌های عامل‌محور خطرات امنیتی را نیز به همراه دارند که می‌تواند منجر به از دست دادن داده یا پول شود.

گوگل رویکرد خود را برای مدیریت امنیت کاربر در کروم با استفاده از مدل‌های ناظر و رضایت کاربر برای انجام اقدامات شرح داد. این شرکت قابلیت‌های عامل‌محور را در ماه سپتامبر در کروم پیش‌نمایش کرد و گفت که این ویژگی‌ها در ماه‌های آینده عرضه خواهند شد.

این شرکت اعلام کرد که از کمک چند مدل برای کنترل اقدامات عامل‌محور استفاده می‌کند. گوگل گفت که یک منتقد همسویی کاربر (User Alignment Critic) با استفاده از جمنای (Gemini) ساخته است تا موارد اقدام ایجاد شده توسط مدل برنامه‌ریز برای یک وظیفه خاص را بررسی کند. اگر مدل منتقد فکر کند که وظایف برنامه‌ریزی شده هدف کاربر را برآورده نمی‌کنند، از مدل برنامه‌ریز می‌خواهد که استراتژی را بازنگری کند. گوگل خاطرنشان کرد که مدل منتقد فقط فراداده (metadata) اقدام پیشنهادی را می‌بیند و نه محتوای واقعی وب.

مجموعه‌ای از اسکرین‌شات‌ها که نشان می‌دهد مدل عامل کروم از یک وب‌سایت چه چیزی را می‌تواند ببیند.

علاوه بر این، برای جلوگیری از دسترسی عامل‌ها به سایت‌های غیرمجاز یا غیرقابل اعتماد، گوگل از مجموعه‌های مبدأ عامل (Agent Origin Sets) استفاده می‌کند که مدل را محدود به دسترسی به مبدأهای فقط خواندنی و مبدأهای خواندنی-نوشتنی می‌کند. مبدأ فقط خواندنی داده‌هایی است که جمنای مجاز به مصرف محتوا از آن‌ها است. به عنوان مثال، در یک سایت خرید، لیست‌ها مربوط به وظیفه هستند، اما تبلیغات بنری نیستند. به طور مشابه، گوگل گفت که عامل فقط مجاز است در برخی از iframe های یک صفحه کلیک کند یا تایپ کند.

این شرکت در یک پست وبلاگی گفت: «این تفکیک تضمین می‌کند که فقط داده‌های مربوط به مجموعه‌ای محدود از مبدأها برای عامل در دسترس است و این داده‌ها فقط می‌توانند به مبدأهای قابل نوشتن منتقل شوند. این بردار تهدید نشت داده‌های بین مبدأ را محدود می‌کند. این همچنین به مرورگر این امکان را می‌دهد که برخی از این جداسازی‌ها را اجرا کند، مانند عدم ارسال داده‌های خارج از مجموعه قابل خواندن به مدل.»

گوگل همچنین با بررسی URL ها از طریق یک مدل ناظر دیگر، ناوبری صفحه را کنترل می‌کند. این شرکت گفت که این می‌تواند از ناوبری به URL های مضر تولید شده توسط مدل جلوگیری کند.

اسکرین‌شاتی که مدل عامل کروم را قبل از پرداخت برای خرید یک کالا در حین خرید، از کاربر اجازه می‌گیرد.

غول جستجو گفت که برای وظایف حساس، اختیار را به کاربران واگذار می‌کند. به عنوان مثال، هنگامی که یک عامل سعی می‌کند به یک سایت حساس با اطلاعاتی مانند بانکی یا داده‌های پزشکی شما دسترسی پیدا کند، ابتدا از کاربر سؤال می‌کند. برای سایت‌هایی که نیاز به ورود به سیستم دارند، از کاربر اجازه می‌گیرد تا کروم از مدیر رمز عبور استفاده کند. گوگل گفت که مدل عامل به داده‌های رمز عبور دسترسی ندارد. این شرکت افزود که قبل از انجام اقداماتی مانند خرید یا ارسال پیام، از کاربران سؤال خواهد کرد.

گوگل گفت که علاوه بر این، یک طبقه‌بندی‌کننده تزریق اعلان (prompt-injection classifier) برای جلوگیری از اقدامات ناخواسته دارد و همچنین قابلیت‌های عامل‌محور را در برابر حملات ایجاد شده توسط محققان آزمایش می‌کند.

سازندگان مرورگر هوش مصنوعی نیز به امنیت توجه دارند. اوایل این ماه، Perplexity یک مدل جدید تشخیص محتوای منبع باز را برای جلوگیری از حملات تزریق اعلان علیه عامل‌ها منتشر کرد.

این مقاله توسط هوش مصنوعی ترجمه شده است و ممکن است دارای اشکالاتی باشد. برای دقت بیشتر، می‌توانید منبع اصلی را مطالعه کنید.