[ad_1]
نوشته و ویرایش شده توسط مجله ی رنگو
قسمت هوش مصنوعی شرکت سامسونگ با اراعه یک مدل انقلابی، باوری ریشهدار در صنعت فناوری مبنی بر این که مدلهای بزرگتر لزوماً بهتر عمل میکنند را به طور جدی به چالش کشیده است. این شرکت اخیراً جزئیات معماری یک مدل هوش مصنوعی تازه و کوچک به نام Tiny Recursive Model یا TRM را انتشار کرده که با وجود ابعاد زیاد کوچکتر، موفق شده است برخی از بزرگترین مدلهای زبان بزرگ جهان (LLMs) را در آزمونهای استدلال منطقی ناکامی دهد.
به نقل از قسمت گسترش رسانه اخبار تکنولوژی و فناوری تکنا، این مدل که تنها از یک شبکه دو لایهای راه اندازی شده است با منفعت گیری از رویکردی نوآورانه به نام استدلال بازگشتی، خروجیهای خود را برای تعیین مرحله های بعدی پردازش به کار میگیرد و یک حلقه بازخورد خودبهبود را شکل میدهد. این فرآیند به مدل اجازه میدهد تا بدون نیاز به حافظه و هزینههای محاسباتی سنگین، کارکرد یک معماری زیاد عمیقتر را همانندسازی کند و به نتایج شگفتانگیزی دست یابد.
کارکرد خیرهکننده مدل TRM سامسونگ در معیارهای سختگیرانهای همانند پازلهای Sudoku-Extreme و Maze-Hard و به اختصاصی در بنچمارک معتبر ARC-AGI به اثبات رسیده است. این مدل توانست به دقت ۸۷.۴ درصدی در حل سودوکو و ۸۵ درصدی در حل پازلهای پیچیده ماز دست یابد. مهمتر از آن TRM در آزمون ARC-AGI-1 به دقت ۴۵ درصد و در نسخه دشوارتر آن یعنی ARC-AGI-2 به دقت ۸ درصد رسید.
این نتایج از آن جهت اهمیت دارد که مدل TRM به شکل قابل توجهی از رقبای زیاد بزرگتر خود همانند DeepSeek R1 و Gemini 2.5 Pro گوگل و o3-mini شرکت OpenAI پیشی گرفته است در حالی که تنها از کسری از پارامترهای آنها منفعت گیری میکند. این پیروزی مشخص می کند که رویکرد سامسونگ که شبیه بازخوانی و اصلاح پیشنویس توسط یک انسان است در حل مسائل منطقی زیاد برتر از راه حلهای متداول عمل میکند.
این دستاورد سامسونگ یک مطلب روشن برای صنعت هوش مصنوعی دارد و آن این است که سادگی و کارایی میتواند بر پیچیدگی و ابعاد تسلط کند. مدلهای زبان بزرگ جاری زیاد تر در روبه رو با مسائل منطقی شکننده می باشند و یک خطای کوچک در زنجیره استدلال میتواند کل فرآیند را مختل کند.
در روبه رو روش بازگشتی مدل TRM با تکرار و اصلاح مداوم، این ضعف را رفع میسازد. محققان سامسونگ حتی دریافتند که افزایش لایههای این مدل به علت اتفاق بیشبرازش یا overfitting تبدیل افت کارکرد آن میبشود که این خود تاکیدی بر اصل “کمتر، زیاد تر است” در این معماری خاص است. پیروزی TRM ثابت میکند که الگوریتمهای هوشمندتر و بهینهتر میتوانند جانشین قوت محاسباتی خام شوند و مسیر آینده گسترش هوش مصنوعی را به سمت مدلهای تخصصیتر و کارآمدتر هدایت کنند.
دسته بندی مقالات
[ad_2]