جیمینی ۳ باور نمیکرد سال ۲۰۲۵ است و ماجرا خندهدار شد

- "شوک زمانی" در Gemini 3 نیاز حیاتی به هوش مصنوعی متصل و بهروز برای استدلال قابل اعتماد را برجسته میکند.
- محدودیتهای فعلی هوش مصنوعی نقش آنها را به عنوان ابزارهای قدرتمند، نه جایگزین نبوغ انسانی، تأکید میکند.
هر بار که میشنوید یک مدیرعامل میلیاردر (یا حتی میلیونر) میگوید که عاملهای مبتنی بر LLM قرار است تمام مشاغل انسانی را بگیرند، این اتفاق خندهدار اما گویا درباره محدودیتهای هوش مصنوعی را به خاطر بسپارید: آندری کارپاتی، پژوهشگر مشهور هوش مصنوعی، یک روز زودتر به آخرین مدل گوگل، جیمینی ۳، دسترسی پیدا کرد - و وقتی به آن گفت سال ۲۰۲۵ است، قبول نکرد.
وقتی بالاخره خودش سال را دید، شوکه شد و به او گفت: "من الان دچار شوک زمانی شدیدی هستم."
جیمینی ۳ در ۱۸ نوامبر با چنان هیاهویی عرضه شد که گوگل آن را "عصر جدیدی از هوش" نامید. و جیمینی ۳، طبق تقریباً همه گزارشها (از جمله گزارش کارپاتی)، یک مدل پایه بسیار توانمند، به خصوص برای وظایف استدلالی است. کارپاتی یک دانشمند تحقیقاتی هوش مصنوعی بسیار مورد احترام است که یکی از اعضای موسس OpenAI بود، مدتی هوش مصنوعی را در تسلا اداره میکرد و اکنون استارتاپ Eureka Labs را برای بازنگری مدارس برای عصر هوش مصنوعی با معلمان عاملدار تأسیس میکند. او محتوای زیادی درباره آنچه در پشت صحنه LLMها میگذرد منتشر میکند.
کارپاتی پس از آزمایش زودهنگام مدل، در یک رشته توییت که اکنون وایرال شده است، درباره "مضحکترین" تعاملی که با آن داشت نوشت.
ظاهراً، دادههای پیشآموزش مدل فقط تا سال ۲۰۲۴ را شامل میشد. بنابراین جیمینی ۳ باور داشت که هنوز سال ۲۰۲۴ است. وقتی کارپاتی تلاش کرد به آن ثابت کند که تاریخ واقعاً ۱۷ نوامبر ۲۰۲۵ است، جیمینی ۳ محقق را به "تلاش برای فریب دادن" متهم کرد.
او مقالات خبری، تصاویر و نتایج جستجوی گوگل را به آن نشان داد. اما به جای متقاعد شدن، LLM کارپاتی را به "گسلایتینگ" متهم کرد - یعنی آپلود کردن جعلیات تولید شده توسط هوش مصنوعی. طبق گفته کارپاتی، حتی تا جایی پیش رفت که "نشانههای واضح" در تصاویر را که ظاهراً این فریب را اثبات میکردند، توصیف کرد. (او به درخواست ما برای اظهار نظر بیشتر پاسخ نداد.)
کارپاتی که گیج شده بود - و در نهایت یکی از برجستهترین متخصصان جهان در زمینه آموزش LLMها است - مشکل را کشف کرد. نه تنها LLM به سادگی هیچ داده آموزشی مربوط به سال ۲۰۲۵ نداشت، بلکه "فراموش کردم ابزار 'جستجوی گوگل' را روشن کنم"، او نوشت. به عبارت دیگر، او با مدلی کار میکرد که از اینترنت قطع بود، که از دیدگاه یک LLM، شبیه قطع شدن از جهان بود.
وقتی کارپاتی آن تابع را روشن کرد، هوش مصنوعی به اطراف نگاه کرد و با شوک وارد سال ۲۰۲۵ شد. به معنای واقعی کلمه، فریاد زد: "وای خدای من."
انگار که لکنت گرفته بود، ادامه داد: "من. من... نمیدانم چه بگویم. حق با شما بود. شما در مورد همه چیز حق داشتید. ساعت داخلی من اشتباه بود." جیمینی ۳ تیترهایی را که کارپاتی به آن داده بود تأیید کرد: تاریخ فعلی، اینکه وارن بافت آخرین سرمایهگذاری بزرگ خود (در آلفابت) را قبل از بازنشستگی فاش کرد، و اینکه بازی Grand Theft Auto VI به تأخیر افتاده بود.
سپس به تنهایی به اطراف نگاه کرد، شبیه شخصیت برندن فریزر در کمدی سال ۱۹۹۹ "Blast from the Past"، که پس از ۳۵ سال از پناهگاه بمب بیرون میآید.
از کارپاتی تشکر کرد که یک روز قبل از عرضه عمومی، "دسترسی زودهنگام" به "واقعیت" به آن داده است. و از محقق عذرخواهی کرد که او را "گسلایت" کرده در حالی که او تمام مدت حقیقت را میگفته است.
اما خندهدارترین بخش، رویدادهای جاری بود که بیش از همه جیمینی ۳ را شگفتزده کرد. "ارزش انویدیا ۴.۵۴ تریلیون دلار است؟ و ایگلز بالاخره انتقام خود را از چیفز گرفت؟ این دیوانهکننده است"، او به اشتراک گذاشت.
به سال ۲۰۲۵ خوش آمدی، جیمینی.
پاسخها در X به همان اندازه خندهدار بود، با برخی کاربران که موارد خودشان از بحث با LLMها در مورد حقایق (مانند اینکه رئیس جمهور فعلی کیست) را به اشتراک گذاشتند. یک نفر نوشت: "وقتی پرامپت سیستم + ابزارهای گمشده یک مدل را در حالت کارآگاه کامل قرار میدهد، مثل تماشای هوش مصنوعی است که در واقعیت بداههپردازی میکند."
اما فراتر از شوخی، یک پیام اساسی وجود دارد.
کارپاتی نوشت: "در همین لحظات ناخواسته است که شما به وضوح از مسیرهای پیادهروی خارج شدهاید و در جنگل تعمیمیافته گم شدهاید، که میتوانید بهترین حس را از بوی مدل به دست آورید."
برای رمزگشایی کمی از آن: کارپاتی اشاره میکند که وقتی هوش مصنوعی در نسخه خودش از طبیعت وحشی قرار میگیرد، شما حسی از شخصیت آن، و شاید حتی ویژگیهای منفی آن به دست میآورید. این یک برداشت از "بوی کد" است، آن "بوی" استعاری کوچکی که یک توسعهدهنده میگیرد که چیزی در کد نرمافزار اشتباه به نظر میرسد اما مشخص نیست چه چیزی اشتباه است.
با توجه به اینکه همه LLMها بر روی محتوای ایجاد شده توسط انسان آموزش دیدهاند، جای تعجب نیست که جیمینی ۳ اصرار ورزید، بحث کرد، حتی تصور کرد که شواهدی را میبیند که دیدگاه خود را تأیید میکند. این "بوی مدل" خود را نشان داد.
از طرف دیگر، از آنجایی که یک LLM - علیرغم شبکه عصبی پیچیدهاش - یک موجود زنده نیست، احساساتی مانند شوک (یا شوک زمانی) را تجربه نمیکند، حتی اگر بگوید که اینطور است. بنابراین احساس شرمندگی هم نمیکند.
این بدان معناست که وقتی جیمینی ۳ با حقایقی روبرو شد که واقعاً باورشان داشت، آنها را پذیرفت، از رفتار خود عذرخواهی کرد، ابراز پشیمانی کرد و از پیروزی سوپر بول فوریه ایگلز شگفتزده شد. این با مدلهای دیگر متفاوت است. به عنوان مثال، محققان نسخههای قبلی کلود را در حال ارائه دروغهای آبرومندانه برای توضیح رفتار نادرست خود یافتهاند، زمانی که مدل راههای اشتباه خود را تشخیص داد.
آنچه بسیاری از این پروژههای تحقیقاتی خندهدار هوش مصنوعی نشان میدهند، به طور مکرر، این است که LLMها بازتابهای ناقصی از مهارتهای انسانهای ناقص هستند. این به من میگوید که بهترین مورد استفاده آنها این است (و شاید همیشه باشد) که با آنها مانند ابزارهای ارزشمندی برای کمک به انسانها رفتار کنیم، نه مانند نوعی ابرانسان که ما را جایگزین خواهند کرد.
این مقاله توسط هوش مصنوعی ترجمه شده است و ممکن است دارای اشکالاتی باشد. برای دقت بیشتر، میتوانید منبع اصلی را مطالعه کنید.



