• GPT-4: OpenAI выпустила мультимодальную версию GPT

    OpenAI сообщила о создании GPT-4 – обновленной версии GPT-3.5, способной принимать на вход изображения и сдающей экзамены лучше 90% студентов. Модель уже доступна для использования подписчикам ChatGPT Plus и интегрирована в чат-бот поисковой системы Bing.


    neurohive telegram channel banner desktop

    В OpenAI утверждают, что качество ответов модели на простые вопросы почти не увеличилось по сравнению с GPT-3.5, однако на сложных запросах GPT-4 демонстрирует большие точность и стабильность. В частности, разработчики значительно повысили память модели (до 32 768 токенов), что позволяет ей вести продолжительные диалоги.

    Ключевой особенностью GPT-4 является ее мультимодальность, то есть возможность принимать на вход не только текст, но и изображение. Например, можно попросить GPT-4 объяснить мем на изображении, перевести текст на фото или решить задачу по физике из скриншота. Выходным результатом модели, тем не менее, является только текст.

    Разработчикам также удалось на 40% снизить частоту «галлюцинаций» модели (придумывание несуществующих фактов) и увеличить количество поддерживаемых языков до 26. GPT-4 была протестирована на нескольких десятках экзаменов, в том числе по математике, адвокатскому праву и биологии. В среднем, модель сдавала эти экзамены на 90% лучше студентов.

    Модель доступна подписчикам ChatGPT Plus с ограничением – 100 запросов в одном четырехчасовом слоте. Для доступа к API GPT-4 необходимо записаться в список ожидания. Модель уже используется в ряде продуктов партнеров OpenAI, включая Bing и Duolingo.



    Подписаться
    Уведомить о
    guest

    0 Comments
    Межтекстовые Отзывы
    Посмотреть все комментарии