Mistral AI представила модель Mistral Small 3, яка перевершує аналоги від OpenAI та Google

Європейська компанія Mistral AI презентувала Mistral Small 3 — нову модель штучного інтелекту з 24 млрд параметрів. Попри меншу кількість параметрів, вона демонструє ефективність на рівні з більшими моделями, такими як Llama 3.3 70B і Qwen 32B, а також працює швидше.
За результатами тестування у MMLU-Pro, Mistral Small 3 перевершує модель GPT-4o mini від OpenAI, яка використовується у ChatGPT як резервна при вичерпанні запитів до GPT-4o. Крім того, нова модель має нижчу затримку під час виконання запитів.

Mistral AI випустила модель у відкритий доступ під ліцензією Apache 2.0 у двох версіях: попередньо навчену модель і варіант із додатковим налаштуванням. Компанія зазначає, що Mistral Small 3 не не вчили за допомогою підкріплення чи синтетичних даних, що робить її початковою у виробничому циклі. Вона може стати основою для подальших покращень у сфері логічного мислення моделей.
Модель Mistral AI може працювати локально на високопродуктивних пристроях. Для запуску Mistral Small 3 достатньо відеокарти Nvidia RTX 4090 або MacBook із 32 ГБ оперативної пам’яті.
Порівняно з конкурентами, Mistral Small 3 показала кращі результати в тестах з понад 1000 запитів на кодування та загальні завдання. Вона випередила Gemma-2 27B і Qwen-32B, проте поступилася Llama 3.3 70B і GPT-4o mini за оцінками людей.

Модель вже доступна на платформі la Plateforme під назвами mistral-small-latest і mistral-small-2501.
Джерело: Neowin