
شرکت متا مجموعه جدیدی از مدلهای پرچمدار هوش مصنوعی خود با نام Llama ۴ را منتشر کرد. این مدلها شامل چهار نسخه هستند: Llama ۴ Scout، Llama ۴ Maverick و Llama ۴ Behemoth. تمامی این مدلها با حجم بالایی از دادههای متنی، تصویری و ویدیویی بدون برچسب آموزش دیدهاند تا درک وسیعی از محتوای بصری داشته باشند.
به گزارش انگجت، گزارشها حاکی از آن است که موفقیت مدلهای متنباز شرکت چینی دیپ سیک که عملکردی مشابه یا حتی بهتر از نسخههای پیشین لاما داشتند، باعث شد توسعه Llama سرعت بگیرد. گفته میشود متا تیمهایی برای تحلیل روشهای دیپ سیک در کاهش هزینههای پردازش و پیادهسازی مدلهایی نظیر R۱ و V۳ تشکیل داده است.
مدلهای Scout و Maverick بهصورت آزاد از طریق وبسایت Llama.com و پلتفرمهایی مانند Hugging Face در دسترس هستند، در حالی که مدل Behemoth همچنان در حال آموزش است. دستیار هوش مصنوعی متا با بهرهگیری از Llama ۴ در ۴۰ کشور بهروزرسانی شده، اما ویژگیهای چندرسانهای فعلاً محدود به ایالات متحده و به زبان انگلیسی هستند.
با این حال، مجوز استفاده از Llama ۴ محدودیتهایی دارد. کاربران و شرکتهایی که محل اصلی فعالیتشان در اتحادیه اروپا است، اجازه استفاده یا توزیع این مدلها را ندارند. همچنین شرکتهایی با بیش از ۷۰۰ میلیون کاربر فعال ماهانه، تنها با دریافت مجوز ویژه از متا مجاز به استفاده هستند.
مدلهای جدید برای نخستین بار از معماری Mixture of Experts (MoE) استفاده میکنند. در این معماری، وظایف به زیرمدلهای تخصصی واگذار میشود تا کارایی بیشتری داشته باشد. بهعنوان نمونه، مدل Maverick دارای ۴۰۰ میلیارد پارامتر کلی و تنها ۱۷ میلیارد پارامتر فعال در میان ۱۲۸ متخصص است. مدل Scout نیز ۱۰۹ میلیارد پارامتر کلی و ۱۷ میلیارد پارامتر فعال دارد.
به گفته متا، مدل Maverick در برخی ارزیابیها مانند کدنویسی، استدلال، پشتیبانی از زبانهای مختلف، درک متنهای طولانی و تحلیل تصویر، از GPT-۴o و Gemini ۲.۰ عملکرد بهتری دارد. اما نسبت به مدلهای پیشرفتهتری مانند Gemini ۲.۵ Pro، Claude ۳.۷ Sonnet و GPT-۴.۵ کمی عقبتر است. مدل Scout نیز برای کارهایی مانند خلاصهسازی اسناد و تحلیل کدهای بزرگ مناسب بوده و دارای پنجره متنی ۱۰ میلیون توکنی است.
مدل Scout میتواند تنها با یک کارت گرافیک Nvidia H۱۰۰ اجرا شود، در حالی که Maverick به سیستم قدرتمندتری مانند Nvidia H۱۰۰ DGX نیاز دارد. مدل Behemoth که هنوز منتشر نشده، دارای ۲۸۸ میلیارد پارامتر فعال و نزدیک به دو تریلیون پارامتر کلی است و به سختافزار بسیار قدرتمندتری نیاز دارد. این مدل در ارزیابیهای داخلی متا، از GPT-۴.۵ و سایر مدلها در مهارتهای STEM پیشی گرفته است.
هیچیک از مدلهای Llama ۴ هنوز بهعنوان مدل «استدلالی» (reasoning) شناخته نمیشوند. مدلهای استدلالی معمولاً پاسخهای دقیقتری میدهند، اما زمان بیشتری برای ارائه پاسخ نیاز دارند.
متا اعلام کرده که مدلهای Llama ۴ کمتر از قبل از پاسخ به سوالات جنجالی امتناع میورزند و در پاسخدهی به موضوعات سیاسی و اجتماعی حساس، متعادلتر عمل میکنند. این اقدام در واکنش به انتقادهایی است که برخی از متحدان رئیسجمهور سابق آمریکا، دونالد ترامپ، درباره «سوگیری سیاسی» چتباتها مطرح کردهاند.
به گفته متا، هدف از این تغییرات، ارائه پاسخهای دقیق و مفید بدون قضاوت و افزایش توان پاسخدهی به دیدگاههای مختلف است.
انتهای پیام/