всё об играх

Epic Games устроила большую презентацию State of Unreal в рамках конференции разработчиков GDC 2018. Вместе с несколькими партнёрами компания показала технологии, которые, возможно, станут основой для видеоигр будущего.

Среди внушительных демонстраций State of Unreal — видео с говорящей головой актёра Энди Сёркиса (Andy Serkis). Он часто испытывает на себе технологии захвата движений: Сёркис оживил Сноука из «Звёздных войн», Голлума из «Властелина колец» и «Хоббита», а также персонажей Heavenly Sword и Enslaved: Odyssey to the West. Вот и для State of Unreal Сёркис показал захват лицевой анимации следующего поколения.

Ролики ниже рендерятся в реальном времени. Графическая технология — Unreal Engine, а вот анимация производится при помощи Meta Human Framework от 3Lateral. По словам создателей, Meta Human Framework улавливает массу нюансов человеческого лица, благодаря чему компьютерная версия Сёркиса выглядит крайне правдоподобно.

Энди Сёркис читает отрывок из классической шекспировской пьесы «Макбет». Для пущей наглядности 3Lateral записала не только обычное человеческое лицо, но и лицо своего вымышленного существа Osiris Black — его тоже оживляет Сёркис.

3Lateral подчёркивает: показанный способ на данный момент будет применяться только в области профессиональных визуальных эффектов. Почему — компания не уточняет, но, видимо, мощности пользовательских устройств до такой красоты пока не доросли. 3Lateral ожидает, что когда-нибудь показанную технологию начнут использовать в интерактивных развлечениях (читай видеоиграх), симуляциях, исследованиях, интерфейсах для невербальной коммуникации и приложениях смешанной реальности.

Отметим, что 3Lateral — маститые специалисты в области лицевой анимации. Они, например, помогали Ninja Theory создавать уникальную технологию захвата мимики из Hellblade: Senua’s Sacrifice.

А сама Epic Games во время State of Unreal показала результат совместной работы с NVIDIA и ILMxLAB (подразделение LucasFilm). В видео демонстрируются возможности трассировки лучей («raytracing») в реальном времени. Как говорит Epic Games в официальном блоге, ролик включает целую охапку технологий рендеринга следующего поколения: textured area lights, ray-traced area light shadows, ray-traced reflections, ray-traced ambient occlusion, cinematic depth of field и NVIDIA GameWorks ray tracing denoising.

Epic Games утверждает, что трассировку лучей обычно связывают с дорогущим специализированным оборудованием и часами сложных вычислений. Но на Unreal Engine впервые в индустрии можно использовать рейтрейсинг киношного качества в реальном времени.

Демонстрацию запускали при помощи видеопроцессоров Volta от NVIDIA, технологии трассировки лучей NVIDIA RTX и DXR API от Microsoft. А партнёрство с ILMxLAB, по всей видимости, позволило использовать персонажей из фильма «Звёздные войны: Последние джедаи».

Судя по аналогичной презентации трассировки лучей от Electronic Arts, в рядовых видеоиграх все эти графические примочки появятся ой как нескоро. Хотя студия 4A Games уже объявила, что рейтрейсинг от NVIDIA в реальном времени нагрянет в Metro: Exodus. Полагаем, в сильно упрощённом виде, который всё равно поставит на колени топовые видеокарты.