Глава OpenAI Сэм Альтман сообщил, что пользователи бесплатной версии ChatGPT вскоре получат доступ к модели Deep Research — передовой системе для создания подробных исследовательских отчетов.
Deep Research использует технологию "test-time computing", позволяющую генерировать детальные аналитические материалы. Процесс может занимать от 30 минут до нескольких часов, что делает эту модель потенциально пригодной для замены специалистов в сферах бизнес-аналитики и финансов.
Кроме того, Альтман сообщил о глобальном обновлении для объединения различных моделей ИИ в единую систему. По словам Альтмана, следующим шагом станет выпуск GPT-4.5 (известной внутри компании как Orion) — последней модели без технологии цепочки рассуждений. В дальнейшем компания намерена создать универсальную систему, способную эффективно решать широкий спектр задач.
Согласно анонсу, бесплатные пользователи получат ограниченный доступ к Deep Research — всего 2 запроса в месяц, в то время как подписчики ChatGPT Plus смогут использовать ее 10 раз ежемесячно. Компания обещает постепенно увеличивать эти лимиты. Сейчас эта система доступна только подписчикам Pro за $200 в месяц.
Нейросети вроде ChatGPT по сути представляют собой вероятностные машины — продвинутые системы автодополнения текста. Они обрабатывают миллиарды фрагментов написанных людьми текстов и генерируют новые, похожие на человеческие. При этом технология test-time thinking заставляет модель проверять собственные выводы перед ответом, разбивая сложные вопросы на простые составляющие.
ИИ-индустрия продолжает экспериментировать с новыми подходами к развитию языковых моделей. Помимо Deep Research, компании работают над ИИ-агентами, способными управлять компьютером пользователя для выполнения конкретных задач, например, бронирования авиабилетов. Такие решения могут быть особенно полезны для пожилых людей, хотя пока работают медленно и часто допускают ошибки.
Точность ИИ-моделей остается проблемной зоной. Недавно Google выпустил рекламу своего чат-бота Gemini с неточной информацией, а пользователи заметили, что ChatGPT часто ошибается при ответах на вопросы о составах спортивных команд, несмотря на доступ к официальным данным. Apple вовсе пришлось ограничить функционал ИИ-уведомлений из-за неправильных сводок новостей BBC.
Некоторые эксперты полагают, что убедительность текста часто свидетельствует о его достоверности, но главная проблема заключается в том, что пользователи склонны доверять любой информации от ИИ. Показательный пример — демонстрации Google, где компания представляет неверные данные, не проводя фактчекинг.
Кроме того, существует проблема того, что у людей могут ослабнуть навыки критического мышления и скиллы.