Unreal Engine 4 Games Featuring Ray-Tracing DXR Will Release In Late 2018

Unreal Engine 4 DXR

Теорія ніндзя Hellblade може бути, а може і не бути чашкою чаю для певних геймерів, але одне було однозначно і безперечно заслуговує уваги на проект: можливість прямого перекладу зйомки продуктивності з кінематографічною якісною графікою в реальний час роботи двигуна Unreal Engine 4 дизайн та анімація трубопровід.

Простіше кажучи, замість того, щоб мати величезну студію для зйомки в голлівудському стилі, пройти всі процедури голосового та рухового захоплення в окремій студії, а потім захопити дані і відправити їх до команди анімації, щоб очистити її та впровадити в Гра в іншій студії, Ninja Theory вдалося виконати все кінематографічне захоплення і записати її безпосередньо в Unreal Engine 4, не вимагаючи очищення, зміни або модифікації сторонніх виробників.

Значення цього кроку полягає в тому, що робота, яку Ninja Theory зробила на побудові інжектора для Unreal Engine у ​​співпраці з 3Lateral і кубічний рух дозволили їм побудувати гру подібно Hellblade на значно меншому бюджеті але з таким же типом кінематографічної якості, як правило, можна знайти в іграх AAA з бюджетами в розмірі $ 100 мільйонів доларів. Все зроблено за частку вартості і ніякої втрати візуальної вірності.

Ну, Epic було б відмовлено в нагоді використовувати та розширювати цю технологію для Unreal Engine 4. Під час цьогорічної конференції розробників ігор студія представила нові партнерські стосунки з Tencent, Vicon, 3Lateral та Cubic Motion, щоб допомогти покращити потік креативного дизайну в Unreal Engine 4, що дозволяє розробникам легко і зручно знімати виступи в Unreal Engine 4 в реальному -час при кадрах 60 в секунду. Це було продемонстровано с Сирена- реальна азіатська модель з надійністю якості CG, що працює в режимі реального часу в режимі виконання Unreal Engine 4 з безперебійними кадрами 60 в секунду. Ви можете переглянути демонстрацію нижче, люб’язно Engadget.

Як було зазначено у відео, обробка обличчя працює в унісон з процедурним анімаційним трубопроводом, щоб люди, які не схожі на модель 3D, могли діяти та виконувати замість моделі, яка спочатку була відсканована для використання в проекті. Раніше актор і сканована модель 3D повинні були бути тією ж людиною, щоб уникнути розбіжностей у русі між сфальсифікованою моделлю та актором реального життя.

Нова технологія означає, що ви можете мати одного актора, який виконує кілька життєвих символів без диморфних невідповідностей, що з'являються в кінці анімації. Ви можете перевірити безперервну версію Сирена демонстрація нижче.

Як пояснили в Epic Games, для продовження довгої та важкої подорожі з долини неповторної долини, в самій моделі було вкладено багато робіт для вищого рендерінгу завдяки кубічному руху та 3Lateral, що працюють з Epic, щоб покращити шлях модель представлена ​​в Unreal Engine. Сюди входить покращений підземний розсіювач, так що тонші ділянки шкіри напівпрозорі при конкретних умовах освітлення, а також подвійні окулярні відбиття для більш м'якого відображення градієнтів світла від жорстких до м'яких вогнів на обличчі персонажа, а також опромінення екрану, яке допомагає уникнути нулінгу ефект мертвих риб очей.

Epic дає можливість дизайнерам і художникам передавати дані анімації Vicon від захоплення продуктивності безпосередньо в конвеєр анімації Unreal Engine. Отже, якщо ви хочете поєднати і зіставити різних співаків з реальним життям з акторами 3D, ви можете зробити це без необхідності проходити вперед і назад процес збору даних до екіпажу анімації, очищення його, а потім застосування до трубопроводу двигуна після виконання студійної роботи. Ви можете побачити результати відразу в Unreal Engine, прямо там під час зйомок.

Досягнення цих методів зйомки демонструвалися виступом ветерана голлівудського актора Енді Серкіса, який виступав у виконанні від Macbeth.

Використовуючи в режимі реального часу високі точності цілей стиснення та скорочення м'язів у реальному часі, аніматори мають можливість змінювати продуктивність актора за допомогою набору інструментів для анімації в реальному часі Unreal Engine 3.

Можна використовувати набори даних анімації на будь-якій правильно сфальсифікованій моделі, навіть якщо сама модель зовсім не схожа на актора. Це пов'язує з тим, що згадувалося раніше, про пристосувальні засоби анімації, які Vicon і Tencent використовували для азіатської моделі, навіть коли актриса в реальному житті виглядала не так, як сканована модель 3D. Епік використав захоплені дані з вистави Енді Серкіса Macbeth і застосував їх до вигаданого чужорідного персонажа, який був належним чином сфальсифікований для читання з наборів даних. Результати є досить вражаючими.

Деякі оновлення для Unreal Engine 4, що містять багато цих функцій, будуть доступні з квітня 20th.

Це стосується також глибокого занурення Epic у візуалізацію променів.

Після того, як Хайссам Кейлані вдалося реалізувати в реальному часі технології відстеження шляхів у шейдерах для ігор подібних GTA IV Половина десятиліття тому Epic, нарешті, активізувала свою гру і зуміла досягти життєвого освітлення в режимі реального часу через трасування променів для багатопрохідних джерел світла і тіней.

Epic продемонстрував цю техніку короткометражним фільмом Зіркові війни.

Трасування в режимі реального часу може бути дуже обтяжливим, і тому компанія Epic співпрацює з Nvidia і Microsoft для розробки нового API, який називається DXR, що є прямим трафіком прямого зв'язку з GPU для виконання складних завдань освітлення та шейдерів з використанням апаратних засобів -залежна технологія під назвою RTX.

За версією Epic Games, ми побачимо деякі ігри, випущені пізніше цього року, використовуючи технологію DXR Microsoft та нові трубопроводи E-Ігри Microsoft.