Компания OpenAI представила нейросетевую ИИ-модель GPT-4. В отличие от GPT 3.5, новая технология может работать не только с текстовыми запросами, но и способна распознавать изображения.
Благодаря этому нововведению, GPT-4 может решать графические загадки и задачи, находить на снимках «лишние» или необычные объекты, описывать увиденное и даже подробно объяснять происхождение и значение мемов. В OpenAI признаются, что в GPT-4 остаются баги и недоработки, но их уже гораздо меньше, а в целом нейросеть стала более точной, творческой и способной.
В случае с простыми запросами, GPT-4 работает примерно так же, как GPT 3.5, улучшения становятся заметны лишь при усложнении задач. Например, GPT-4 может подсказать несколько рецептов, если пользователь загрузит фотографию, на которой изображено содержимое его холодильника и кратко расскажет о своих предпочтениях.
Доступ к GPT-4 появился у обладателей платной подписки ChatGPT Plus и пользователей поисковой системы Bing. Через некоторое время технология станет доступна всем пользователям чат-бота ChatGPT.
+43