Unreal Engine 4 Games Featuring Ray-Tracing DXR Will Release In Late 2018
Unreal Engine 4 DXR

Теорія ніндзя Hellblade може, або не може бути чашкою чаю для певних геймерів, але одна річ була однозначно і невизначно заслуговує на увагу в проекті: можливість безпосереднього перекладу захоплення продуктивності з кінематографічною якісною графікою в реальному часі під час роботи двигуна Unreal Engine Дизайн і анімація трубопроводів 4.

Простіше кажучи, замість того, щоб мати величезну студію для зйомки в голлівудському стилі, пройти всі процедури голосового та рухового захоплення в окремій студії, а потім захопити дані і відправити їх до команди анімації, щоб очистити її та впровадити в Гра в іншій студії, Ninja Theory вдалося виконати все кінематографічне захоплення і записати її безпосередньо в Unreal Engine 4, не вимагаючи очищення, зміни або модифікації сторонніх виробників.

Значення цього кроку полягає в тому, що робота, яку Ninja Theory зробила на побудові інжектора для Unreal Engine у ​​співпраці з 3Lateral і кубічний рух дозволили їм побудувати гру подібно Hellblade на значно меншому бюджеті але з таким же типом кінематографічної якості, як правило, можна знайти в іграх AAA з бюджетами в розмірі $ 100 мільйонів доларів. Все зроблено за частку вартості і ніякої втрати візуальної вірності.

Добре, Epic би був remiss упустити нагоду взяти та розширюють на цій технології для Unreal Двигуна 4. Під час цьогорічної конференції Game Developers, студія оприлюднила нові партнерські відносини з Tencent, Vicon, 3Lateral і Cubic Motion, щоб допомогти поліпшити потік креативного дизайну в Unreal Engine 4, що дозволяє розробникам легко і зручно захоплювати вистави в Unreal Engine 4. -часу на кадрах 60 в секунду. Це було продемонстровано з Сирена, реалістичною азіатською моделлю з відмінною якістю CG, що працює в режимі реального часу в середовищі Unreal Engine 4 при безперервному кадрі 60 в секунду. Ви можете переглянути демонстрацію нижче, люб'язно Engadget.

Як зазначалося у відео, фальсифікація обличчя працює в унісон з процедурним конвеєром анімації, щоб дозволити людям, які не виглядають як модель 3D, діяти і виконувати замість моделі, яка спочатку була сканована для використання в проекті. Раніше актор і сканована модель 3D мали бути однією людиною, щоб уникнути розбіжностей у русі між фальсифікованою моделлю і реальним актором.

Нова технологія означає, що ви можете мати одного актора, який виконує кілька життєвих символів без диморфних невідповідностей, що з'являються в кінці анімації. Ви можете перевірити безперервну версію Сирена демонстрація нижче.

Як пояснюють Epic Games, для того, щоб продовжити довгу і важку подорож із звичної долини, багато роботи було вкладено в саму модель для висококласного рендеринга завдяки роботі Cubic Motion і 3Lateral з Epic, щоб поліпшити спосіб модель відображається в Unreal Engine. Це включає в себе поліпшення зворотного розсіювання, так що більш тонкі частини шкіри є прозорими при певних умовах освітлення, а також як подвійне дзеркальне відображення для більш м'якого перетворення градієнтів світла від жорстких до м'яких вогнів на обличчі персонажа, а також просторового опромінення екрану, щоб допомогти з нульовим зменшенням ефект очей мертвої риби.

Epic дає можливість дизайнерам і художникам передавати дані анімації Vicon від захоплення продуктивності безпосередньо в конвеєр анімації Unreal Engine. Отже, якщо ви хочете поєднати і зіставити різних співаків з реальним життям з акторами 3D, ви можете зробити це без необхідності проходити вперед і назад процес збору даних до екіпажу анімації, очищення його, а потім застосування до трубопроводу двигуна після виконання студійної роботи. Ви можете побачити результати відразу в Unreal Engine, прямо там під час зйомок.

Досягнення цих методів зйомки демонструвалися виступом ветерана голлівудського актора Енді Серкіса, який виступав у виконанні від Macbeth.

Використовуючи компресію в реальному часі 3Lateral і цілі з високою точністю скорочення м'язів, аніматори мають можливість змінювати продуктивність актора за допомогою набору інструментів анімації в реальному часі Unreal Engine 4.

Можна використовувати набори анімаційних даних на будь-якій правильно налаштованій моделі, навіть якщо сама модель взагалі не має жодного видимості до актора. Це пов'язано з тим, що згадувалося раніше про адаптивні анімаційні інструменти, які Vicon і Tencent використовували для азіатської моделі, навіть коли актриса реального життя виглядала не так, як сканована модель 3D. Epic використовував захоплені дані з продуктивності Макбета Енді Серкіса і застосував їх до вигаданого чужорідного персонажа, який був належним чином налаштований для читання з наборів даних. Результати дуже вражаючі.

Деякі оновлення для Unreal Engine 4, що містять багато цих функцій, будуть доступні з квітня 20th.

Це також стосується глибокого занурення Epic у рендеринг трасування променів.

Після того, як Хайссам Кейлані вдалося реалізувати в реальному часі технології відстеження шляхів у шейдерах для ігор подібних GTA IV Половина десятиліття тому Epic, нарешті, активізувала свою гру і зуміла досягти життєвого освітлення в режимі реального часу через трасування променів для багатопрохідних джерел світла і тіней.

Epic продемонстрував цю техніку короткометражним фільмом Зіркові війни.

Трасування в режимі реального часу може бути дуже обтяжливим, і тому компанія Epic співпрацює з Nvidia і Microsoft для розробки нового API, який називається DXR, що є прямим трафіком прямого зв'язку з GPU для виконання складних завдань освітлення та шейдерів з використанням апаратних засобів -залежна технологія під назвою RTX.

Згідно з Epic Games, ми побачимо деякі ігри, випущені в кінці цього року, використовуючи технологію Microsoft DXR і нові конвеєри трасування променів Epic Games.

про

Біллі був шелест Jimmies протягом багатьох років, що охоплюють відеоігри, технології та цифрові тенденції всередині електроніки розважального простору. GJP плакали і їх сльози стали його молочний коктейль. Потрібно увійти в контакт? Спробуйте Зв'язатися сторінку.

НЕ слідуйте за цим посиланням або вас буде заборонено з сайту!