OpenAI делает серьёзную ставку на аудио‑ИИ

06 января 2026

OpenAI делает серьёзную ставку на аудио‑ИИ — и речь не только о том, чтобы улучшить голос ChatGPT. Как сообщает The Information, за последние два месяца компания объединила несколько инженерных, продуктовых и исследовательских команд, чтобы кардинально переработать свои аудиомодели. Всё это — подготовка к выпуску ориентированного на голос персонального устройства, запуск которого ожидается примерно через год.

Этот шаг отражает общий вектор всей индустрии: мир движется к будущему, где экраны отходят на второй план, а аудио становится главным интерфейсом. Умные колонки уже сделали голосовых ассистентов привычной частью жизни более чем трети домохозяйств в США. Meta недавно представила функцию для смарт‑очков Ray-Ban: массив из пяти микрофонов помогает лучше различать речь в шумных помещениях, по сути превращая ваше лицо в направленный «слуховой прибор». Google с июня тестирует “Audio Overviews” — функцию, которая превращает результаты поиска в удобные разговорные аудио‑саммари. Tesla, в свою очередь, интегрирует чат‑бота Grok от xAI в автомобили, чтобы создать голосового ассистента, способного в диалоге управлять навигацией, климатом и другими функциями.

Ставку на аудио делают не только технологические гиганты. На этом поле бурно экспериментируют и стартапы — с очень разными результатами. Создатели Humane AI Pin потратили сотни миллионов долларов, прежде чем их носимое устройство без экрана стало примером неудачного продукта. Кулон‑ассистент Friend AI, по задумке записывающий жизнь владельца и предлагающий «компанию», вызвал волну вопросов о приватности и смысле таких устройств. А как минимум две компании — Sandbar и проект под руководством основателя Pebble Эрика Мигиковски — разрабатывают ИИ‑кольца, которые должны выйти в 2026 году и позволят буквально «разговаривать с рукой».

Форм‑факторы отличаются, но идея одна: аудио — интерфейс будущего. Любое пространство — дом, автомобиль, даже ваше лицо — превращается в поверхность управления.

Новая аудиомодель OpenAI, запланированная к релизу на начало 2026 года, по слухам, будет звучать заметно естественнее, научится корректно обрабатывать перебивания, как живой собеседник, и даже говорить одновременно с пользователем — то, чего нынешние модели делать не умеют. Компания также рассматривает линейку собственных устройств, среди которых могут быть очки или «безэкранные» умные колонки — не просто инструменты, а что‑то ближе к постоянным спутникам.

Это развитие событий нельзя назвать неожиданным. Как отмечает The Information, бывший главный дизайнер Apple Джони Айв, присоединившийся к аппаратному направлению OpenAI после её майской сделки по покупке его студии io за 6,5 млрд долларов, ставит одной из ключевых задач снижение зависимости людей от экранов. Аудио‑первый подход он рассматривает как шанс «исправить ошибки» прошлых поколений потребительской электроники.