GPT-4 больше и лучше ChatGPT, но OpenAI не объясняет, почему. Что известно о новой модели?
14 березня компанія OpenAI офіційно представила нову модель штучного інтелекту (ШІ) GPT-4.
За кілька днів до презентації в соціальних мережах активно обговорювався можливий потенціал нового ШІ. GPT-4 пророкували статус технології, яка назавжди змінить правила гри для всього суспільства.
Очікувалося, що GPT-4 буде в 500 разів потужніший за свого попередника і зможе працювати з візуальним контентом, не просто його аналізуючи, а й створюючи фото та відео.
Проте реліз п’ятого покоління в сімействі GPT виправдав не всі очікування користувачів.
Популярний ChatGPT базувався на GPT-3.5, який має 175 млрд параметрів. GPT-4 вивчав значно більші обсяги даних. Однак керівництво OpenAI відмовилося розкрити, скільки даних отримала мова моделі, і назвати число її параметрів.
Головна відмінність – GPT-4 є мультимодальним і може сприймати зображення як вхідні дані. Тобто тепер чат-бот не лише читає текст, а й аналізує зображення. Це нововведення стало одним з найголовніших у презентації GPT-4.
Що може GPT-4
У своїй презентації OpenAI скромно заявляє про досягнення нової моделі, акцентуючи увагу на стабільності, безпеці та прогнозованості. У компанії відзначають, що виправили помилки, виявленні під час використання GPT-3.5.
Розробники виділяють три напрямки прогресу нової моделі.
Перше – це творчі здібності. GPT-4 став більш креативним і придатним для співпраці, ніж його попередник GPT-3,5. Він може генерувати, редагувати і виконувати з користувачами творчі й технічні письмові завдання: створювати пісні, писати сценарії, вивчати стиль письма користувача.
Друге – це візуальний вхід. Новий GPT-4 здатний приймати зображення як вхідні дані. Зокрема, нова мовна модель здатна генерувати свої відповіді на основі вхідних даних, що складаються з тексту і зображень.
Тобто ви можете завантажити йому документ з текстом, фотографіями, діаграмами та скриншотами. GPT-4 проаналізує їх і дасть відповіді, що ґрунтуються на всіх цих даних.
Наприклад, з моделлю можна поділитися знімками продуктів і вона запропонує варіанти приготування страв.
With its multimodal capabilities, GPT-4 can take images as input and generate captions, classifications, and analyses. pic.twitter.com/B62zTKDpXS
— elvis (@omarsar0) March 14, 2023
У компанії додають, що вхідні дані у вигляді зображень – не загальнодоступна, а дослідницька версія.
Третє – це можливість працювати з великими текстами. GPT-4 здатний обробляти понад 25 тис слів, що дозволяє використовувати його для створення довгих текстів, розгорнутих розмов, а також для пошуку та аналізу документів.
Чат-бот здатний набагато краще резюмувати великі тексти. Навіть коли користувач додасть одне випадкове речення, ШІ вкаже на неточність.
Також GPT-4 покращив свої аргументаційні здібності і розуміння контексту. Він здатен створювати більш оптимізовані відповіді, які нагадують розмову з реальною людиною.
GPT-4 – успішний студент
GPT-4 у звичайній розмові може не сильно відрізнятися від свого попередника GPT-3.5. Однак у компанії запевняють, що при більш поглибленій взаємодії з чат-ботом GPT-4 надійніший, креативніший та продуктивніший.
Для демонстрації різниці між двома моделями OpenAI протестували їх на різних завданнях, включаючи імітацію іспитів, які спочатку були розроблені для людей.
Іспити, які використали в компанії, складалися з тестів та розгорнутих питань з різних напрямків науки – від гуманітарних до технічних дисциплін.
Складаючи іспити, GPT-4 продемонстрував значно кращі результати за GPT-3.5. Його результати на більшості професійних та академічних іспитах відповідають рівню успішних студентів.
Наприклад, ШІ склав симульовану версію єдиного адвокатського іспиту з результатом, що входить до 10% найкращих учасників тестування. Також він ідеально складає стандартизований тест, який перевіряє навички аналітичного письма для вступу до магістратури та докторантури університетів.
Крім того, GPT-4 оцінили за традиційними тестами, розробленими для моделей машинного навчання. Результати значно перевищують великі мовні моделі ШІ.
Ба більше, в OpenAI вирішити перекласти один з таких тестів MMLU – набір з 14 тис задач з множинним вибором, що охоплює 57 тем, – 26-ма мовами за допомогою Azure Translate.
Тести засвідчили, що у 24 випадках GPT-4 перевершив англійську продуктивність GPT-3.5 та інших LLM (Chinchilla, PaLM), зокрема серед таких рідковживаних мов як латиська, валлійська та суахілі.
Досі має обмеження
В OpenAI відзначають, що GPT-4 має ті ж обмеження, що й попередні моделі GPT, оскільки він не абсолютно надійний. У компанії це називають "галюцинаціями".
Розробники запевняють: хоча "галюцинації" залишаються, GPT-4 має їх значно менше порівняно з попередніми моделями. Так, нова модель ШІ отримала на 40% більше балів, ніж GPT-3.5, за оцінками самої компанії.
GPT-4, як і попередня модель, не має знань про події після вересня 2021 року. Також у компанії додають, що ШІ не вчиться на власному досвіді.
Безпека
Окрему увагу творці GPT-4 приділяли питанням безпеки.
"Ми витратили шість місяців, щоб зробити GPT-4 безпечнішим і більш узгодженим. GPT-4 на 82% рідше реагує на запити щодо забороненого контенту і на 40% частіше, ніж GPT-3.5, надає фактичні відповіді", – запевняють у компанії.
Під час навчання нейромережі розробники додавали сигнали, щоб знизити ймовірність надання небезпечних порад. GPT-4 має кращі межі безпеки, що повинно унеможливити шкідливе використання чат-боту.
GPT-4 з’явиться не тільки в ChatGPT Plus
Скористатися GPT-4 через чат-бот, як це було з його попередником, зможуть не всі. Мовна модель буде доступна у платній версії чат-боту ChatGPT Plus за 20 дол на місяць і як API для розробників для створення програм та служб.
На презентації GPT-4 розробники заявили, що нова модель ШІ інтегрована в низку проєктів за межами компанії.
Microsoft підтвердила, що її інтернет-пошуковик Bing уже працює на GPT-4.
Крім того, OpenAI поширила свою технологію на інші продукти, зокрема на застосунок для вивчення мов Duolingo. У ньому GPT-4 виконуватиме функцію співрозмовника та роз’яснювача правил, коли користувач помиляється.
Данський стартап Be My Eyes, який створює технологію для допомоги людям з проблемами зору, також використовуватиме GPT-4. Be My Eyes почав розробку Virtual Voluntee на базі GPT-4 в додатку, який може генерувати той самий рівень контексту та розуміння, що й людина-волонтер.
Банківський холдинг Morgan Stanley, який управляє капіталами, використовуватиме нову модель від OpenAI для роботи внутрішнього чат-бота.
Некомерційна освітня організація Khan Academy заявила, що використовуватиме GPT-4 для роботи Khanmigo. Це помічник на основі ШІ, який функціонує як віртуальний репетитор для студентів та асистент для вчителів.
Уряд Ісландії використовуватиме GPT-4 для збереження своєї мови.
Американська технологічна компанія Stripe, що розробляє рішення для прийому та обробки електронних платежів, скористається можливостями GPT-4 для оптимізації взаємодії з користувачами і боротьби з шахрайством.