🟣 قابلیتهای جدید هوش مصنوعی از کجا میآیند؟ آیا محدودیتی وجود دارد؟
امسال مدلهای هوش مصنوعی گوگل (AlphaProof and AlphaGeometry) موفق شدند در المپیاد جهانی ریاضی با حل ۴ سوال از ۶ سوال امتیاز ۲۸ از ۴۲ کسب کنند و امتیازی معادل دریافت مدال نقره کسب کنند (حداقل امتیاز لازم برای کسب مدال طلا ۲۹ بود).
توانایی استدلال ریاضی در این سطح، یک قابلیت جدید هوش مصنوعی است که نسخههای قبلی آن را نداشتهاند. این قابلیت سبب شده چشمانداز تازهای برای حل مسائل باز و بغرنج علوم توسط هوش مصنوعی در آینده ایجاد شود. چه چیزی سبب پیدایش قابلیتهای تازه در نسلهای جدید مدلهای هوش مصنوعی میشود؟
اغلب مدلهای هوش مصنوعی جدید مثل مدلهای زبانی بزرگ با تکیه بر شبکههای عصبی عمیق کار میکنند. در این مدلها، بزرگی شبکه مدل یا به عبارت دقیقتر تعداد یالها، (پارامترهای قابل تنظیم) به عنوان معیاری برای انعطاف و پیچیدگی مدل در نظر گرفته میشود. برای مثال، مدل جیپیتی۳ دارای ۱۷۵ میلیارد پارامتر است که هنگام مدلسازی باید مقدار آنها با به کارگیری یک سختافزار بزرگ تعیین شود، در حالی که نسخههای اولیه این مدلها تنها میلیونها یا چند میلیارد پارامتر بیشتر نداشتند.
این مشاهده تا حدی شبیه به ایده پیدایش ویژگیهای جدید در مطالعات سیستمهای پیچیده است. منظور از پدیدار شدن ویژگیهای جدید، ویژگیهایی است که با نگاه به اجزای تشکیل دهنده سیستم قابل مشاهده نباشد و مشاهده آن را احتمالا باید به تعاملات پیچیده بین نورونها در شبکه عصبی مصنوعی مدل نسبت داد.
این تعاملات در مقیاس بزرگ به مدل اجازه میدهد تا الگوهای پیچیدهتری را شناسایی کند که در مقیاسهای کوچکتر دستنیافتنی هستند. اگر یک ویژگی با تعداد مشخصی از پارامترها محقق شود، آیا با افزایش تعداد پارامترهای بیشتر میتوان به ویژگیهای مهمتری دست یافت؟ آیا محدودیتی وجود دارد؟
🔘 برای مطالعه بیشتر به یادداشت علیرضا کدیور در وبسایت مدرسه دقیقه مراجعه کنید:
d-learn.ir/llm-emeging-properties
------------------------------
👈 دوره آموزشی: پردازش زبانهای طبیعی و مدلهای زبانی بزرگ در پایتون (شروع: یکشنبه ۴ آذر ۱۴۰۳ ساعت ۱۸:۰۰)
تماس:
@dlearnsup
@dlearn_ir