OpenAI постоянно совершенствует свою технологию искусственного интеллекта для запуска новых моделей. В 2024 году на рынке появится бесчисленное множество чат-ботов, и большинство компаний, таких как Google, Anthropic, а теперь и Microsoft, разрабатывают несколько моделей, предназначенных для разных целей, а не просто разрабатывают одну флагманскую модель.

OpenAI последовала этому примеру, выпустив GPT-4o, шаг вперед по сравнению с прошлогодней моделью GPT-4, которая дебютировала в марте 2023 года как платный чат-бот, предлагаемый через членство ChatGPT Plus.

В GPT-4o «o» означает «omni», намек на то, что OpenAI называет «гораздо более естественным взаимодействием человека и компьютера». Новая модель способна принимать любую комбинацию текста, изображений и аудио, анализировать ее, а затем реагировать с помощью любой комбинации трех вышеупомянутых носителей.

Чат-боты с искусственным интеллектом прошли долгий путь всего несколько лет назад. OpenAI утверждает, что GPT-4o также может реагировать на звук всего за 232 миллисекунды (одну пятую секунды).

Помимо улучшенного анализа изображения и звука, бот также был обновлен по сравнению с прошлогодней версией, чтобы лучше реагировать на языках, отличных от английского. Похоже, что боту еще есть над чем поработать в определенных областях.

Несмотря на возможности, которые OpenAI рекламирует, компания выпускает только версию GPT-4o, которая позволяет вводить и выводить текст и изображения. Тем, кто заинтересован в использовании его для просмотра аудио, придется подождать.

GPT-4o будет доступен на бесплатном уровне, хотя участникам Plus будет выделено в пять раз больше лимита сообщений.

Источник