Помните вайб-кодинг — когда нейросеть пишет код по вашему описанию на человеческом языке? Google пошла дальше и применила тот же принцип к виртуальной реальности. Вчера, 25 марта, команда Google Research представила Vibe Coding XR — инструмент, который превращает текстовый промпт в полноценное интерактивное XR-приложение. За минуту. Без единой строчки кода вручную.

Как это работает
Идея простая, а реализация — нет. Вы открываете XR Blocks Gem (работает в обычном Chrome), вводите текстом или голосом что-то вроде «Создай красивый одуванчик, который разлетается от прикосновения». Gemini разбирает запрос, продумывает сцену, физику, взаимодействия — и выдаёт работающее WebXR-приложение.
Не макет. Не картинку. Рабочее приложение с физикой, анимацией и распознаванием жестов.
Причём скорость генерации впечатляет: на модели Gemini Flash простые сцены собираются за 15–20 секунд. Более сложные на Gemini Pro — чуть дольше, но и результат надёжнее.
Под капотом работает фреймворк XR Blocks — открытый, на базе WebXR и three.js. Google написала для Gemini специальный системный промпт, который «учит» нейросеть правилам пространственного дизайна: как размещать объекты в комнате, на каком расстоянии от пользователя, как обрабатывать взаимодействие руками. Плюс контекстное окно набито примерами кода и шаблонами, чтобы модель не галлюцинировала несуществующие API.
Примеры, которые показали
Google продемонстрировала несколько сценариев — и некоторые выглядят как учебные пособия из будущего.
Репетитор по математике. Промпт: «Визуализируй теорему Эйлера в геометрии, покажи вершины, рёбра и грани на разных примерах». Gemini сама выбрала тетраэдр, куб и октаэдр, построила их в 3D и добавила подсветку элементов по нажатию. Студенты могут щипковым жестом переключаться между режимами отображения.
Физическая лаборатория. Весы с разными грузами. Пользователь берёт гирьки руками и учится балансировать — прямо в виртуальном пространстве. Всё это из одного текстового запроса.
Кот Шрёдингера. Тут вообще красота: вы жестом отправляете 3D-кота в коробку, приближаетесь — коробка раздваивается, показывая оба квантовых состояния одновременно. Ещё один жест — суперпозиция схлопывается, и вы видите результат. Квантовая механика, объяснённая без единой формулы.
А ещё — VR-волейбол с отслеживанием рук, XR-версия хромовского динозаврика и визуализация звёздной карты NASA.
Что по надёжности
Тут Google честна. На ранних этапах примерно 30% генераций заканчивались ошибками — баги в самом фреймворке или галлюцинации модели, вызывающей несуществующие функции. За полгода и 11 крупных релизов ситуацию подтянули.
По результатам тестов на наборе из 60 промптов (от 20 участников внутренних воркшопов): Gemini Pro в «Pro Mode» показывает наилучшую надёжность при генерации с первого раза. Flash быстрее, но чаще спотыкается на сложных сценах с анимацией и обработкой жестов.
Впрочем, это всё ещё исследовательский прототип, не коммерческий продукт.
Где попробовать
Демо доступно бесплатно на xrblocks.github.io/gem — работает в Chrome на десктопе (со встроенным симулятором виртуальной реальности) и на гарнитурах Android XR. Код фреймворка открыт на GitHub.
На десктопе можно протестировать основные сценарии без гарнитуры, но полноценный опыт с отслеживанием рук, глубиной пространства и физикой окружения — только на устройстве.
Кстати, Gemini — та самая модель, которая стоит за этим проектом — доступна и через AI-Flip, если нужен доступ к ней для обычных задач без VPN.
Почему это важно
XR-разработка традиционно требует серьёзных навыков: Unity или Unreal, понимание 3D-графики, работа с SDK гарнитур. Порог входа высокий. Vibe Coding XR этот порог сносит.
Понятно, что генерация по промпту не заменит профессиональную разработку сложных VR-игр или промышленных симуляций. Но для прототипирования, обучения, быстрой проверки идей — это сдвиг. Разработчик может за час набросать и протестировать десяток концепций вместо того, чтобы два дня настраивать одну сцену. Учитель может собрать интерактивный урок по химии, не написав ни строчки кода.
Google покажет живую демонстрацию на конференции ACM CHI 2026. А пока — можно зайти и попробовать самому.
