Meta представила ранні версії своєї нової моделі ШІ LLaMA 3
Архів
Компанія Meta випустила ранні версії своєї останньої великої мовної моделі LLaMA 3 та генератора зображень, який оновлює картинки в режимі реального часу, поки користувачі вводять підказки.
Про це пише Reuters.
Компанія планує інтегрувати нові моделі у віртуального асистента Meta AI, який подають як найдосконалішого з безкоштовних аналогів. Асистент отримає новий окремий веб-сайт, за прикладом ChatGPT від OpenAI.
Meta оснастила LLaMA 3 новими можливостями, зокрема надала їй можливість генерувати не лише текст, але й зображення. Крім того, версії, які компанія планує випустити в найближчі місяці, також будуть здатні до "мультимодальності", тобто вони зможуть генерувати як текст, так і зображення.
Також включення зображень у навчання LLaMA 3 покращить оновлення, яке цього року буде випущено для смарт-окулярів Ray-Ban Meta, що дозволить ШІ Meta ідентифікувати об'єкти, які бачить користувач, і відповідати на запитання про них.
Meta також оголосила про нове партнерство з Alphabet's Google, щоб включити результати пошуку в реальному часі у відповіді асистента, доповнивши існуючу угоду з Bing від Microsoft.
Додається, що з оновленням асистент Meta AI розширюється на більш ніж десяток ринків за межами США, включно з Австралією, Канадою, Сінгапуром, Нігерією та Пакистаном.
Генеральний директор Meta Марк Цукерберг сказав, що найбільша версія LLaMA 3 наразі навчається на 400 млрд параметрів і вже набрала 85 MMLU (Massive Multitask Language Understanding), посилаючись на метрики, які використовуються для передачі сили і якості роботи ШІ-моделей. Дві менші версії, які зараз впроваджуються, мають 8 і 70 млрд параметрів, і остання набрала близько 82 MMLU.
Економічна правда.