OpenAI выпустила большую мультимодальную версию: GPT4

OpenAI выпустила большую мультимодальную версию: GPT4

После нескольких месяцев ожидания OpenAI выпустила модель искусственного интеллекта для распознавания изображений и текста GPT-4, что знаменует собой новую веху для компании. Текущее поколение GPT-3.5 в чрезвычайно популярном чат-боте OpenAI ChatGPT могло обнаруживать и отображать только текст.

ChatGPT стал умнее с GPT4

Согласно OpenAI, GPT-4 может принимать изображения и текст и работать на «человеческом уровне» в различных профессиональных и академических тестах. Компания сообщила, что GPT-4 сдал смоделированные экзамены (такие как Uniform Bar, LSAT, GRE) с оценкой «около 10 процентов лучших участников теста» по сравнению с GPT-3.5. OpenAI также заявляет, что новая система превосходит свою предшественницу в «фактичности, управляемости и непреодолимых барьерах». Хотя GPT-4 принимает входные изображения, пока он может возвращать только текст. OpenAI также предупреждает, что системы сохраняют многие из тех же проблем, что и предыдущие языковые модели, в том числе склонность к фабрикации информации, а также способность создавать жестокие и вредоносные тексты.

Спекуляции о GPT-4 и его возможностях продолжались в течение последних месяцев, и многие предполагали, что это будет огромный скачок вперед по сравнению с предыдущими системами. Однако похоже, что GPT4 — это модель, ориентированная на устранение недостатков и повышение производительности. Однако набор данных, на котором снова обучалась GPT-4, не включает данные после сентября 2021 года. Похоже, что OpenAI подготовил GPT4 для тех, кто хочет интегрировать его в свои системы или приложения. Подчеркивается, что новая модель на 82 процента реже отвечает на несанкционированные запросы контента по сравнению с GPT-3.5.

Комментарии