Hvordan var artiklen?

1516480cookie-tjekUnreal Engine 4-spil med Ray-Tracing DXR udkommer i slutningen af ​​2018
Industri Nyheder
2018/03

Unreal Engine 4-spil med Ray-Tracing DXR udkommer i slutningen af ​​2018

Ninja Theory s Hellblade kan eller måske ikke have været kop te for visse spillere, men én ting var utvetydigt og utvetydigt bemærkelsesværdig ved projektet: evnen til direkte at oversætte performance capture med filmisk kvalitetsgrafik til real-time in-engine runtime af Unreal Engine 4's design- og animationspipeline.

Kort sagt, i stedet for at lade et gigantisk Hollywood-stil optagelsesstudie gennemgå alle stemme- og bevægelsesoptagelsesprocedurerne i et separat studie, og derefter fange dataene og sende dem til animationsteamet for at rydde op og implementere dem i spillet i et andet studie, lykkedes det Ninja Theory at lave al den filmiske præstationsindfangning internt og optage den direkte i Unreal Engine 4 uden at kræve nogen tredjepartsoprydning, ændringer eller modifikationer.

Betydningen af ​​dette trin er, at det arbejde, som Ninja Theory lavede med at bygge en injektor til Unreal Engine i samarbejde med 3 Lateral og Cubic Motion tillod dem at bygge et spil som Hellblade på et meget mindre budget men med nøjagtig samme slags filmkvalitet, som normalt findes i AAA-spil med $100 millioner dollars budgetter. Alt sammen for en brøkdel af prisen og intet tab i visuel troskab.

Nå, Epic ville have undladt at gå glip af en mulighed for at tage og udvide på denne teknologi til Unreal Engine 4. Under dette års Game Developers Conference afslørede studiet nye partnerskaber med Tencent, Vicon, 3Lateral og Cubic Motion for at hjælpe med at forbedre det kreative designflow i Unreal Engine 4, der giver udviklere mulighed for nemt og bekvemt at fange præstationer i Unreal Engine 4 i realtid med 60 billeder i sekundet. Dette blev demonstreret med Siren, en naturtro asiatisk model med CG-kvalitet, der kører i realtid inden for Unreal Engine 4's køretid med uafbrudte 60 billeder i sekundet. Du kan se demonstrationen nedenfor, høfligt af Engadget.

Som påpeget i videoen fungerer ansigtsriggingen i forening med den proceduremæssige animationspipeline for at tillade folk, der ikke ligner 3D-modellen, at agere og optræde i stedet for den model, der oprindeligt blev scannet til brug i projektet. Tidligere skulle skuespilleren og den 3D-scannede model være den samme person for at undgå bevægelsesforskelle mellem den riggede model og den virkelige skuespiller.

Den nye teknologi betyder, at du teknisk set kan have én skuespiller til at optræde for flere naturtro karakterer, uden at dimorfe uoverensstemmelser optræder i det endelige animationspas. Du kan tjekke en uafbrudt version af Siren demonstration nedenfor.

Som forklaret af Epic Games, for at fortsætte den lange og besværlige rejse ud af den uhyggelige dal, blev der lagt meget arbejde i selve modellen til avanceret gengivelse takket være Cubic Motion og 3Lateral, der arbejdede med Epic for at forbedre måden modellen er gengivet i Unreal Engine. Dette inkluderer forbedret tilbagespredning under overfladen, så tyndere dele af huden er gennemskinnelige under specifikke lysforhold, såvel som dobbelte spejlende refleksioner for en blødere gengivelse af lysgradienter fra hårdt til blødt lys hen over en karakters ansigt, og skærmrumsbestråling for at hjælpe med nulstilling virkningen af ​​de døde fisks øjne.

Epic gør det muligt for designere og kunstnere at streame Vicon-animationsdata fra performance-optagelsen direkte ind i Unreal Engine-animationspipeline. Så hvis du vil mikse og matche forskellige tespianere fra det virkelige liv med 3D-skuespillere, kan du gøre det uden at skulle gennemgå frem og tilbage-processen med at tage dataene til animationsholdet, rydde op og derefter anvende dem til motorens rørledning. efter at have udført studiearbejdet. Du kan bare se resultaterne med det samme i Unreal Engine, lige der under optagelserne.

Fremskridtene inden for disse performance capture-teknikker blev demonstreret med en optræden af ​​den veteran Hollywood-skuespiller Andy Serkis, der gav en optræden fra Macbeth.

Ved at bruge 3Laterals realtidskompressions- og muskelkontraktions-high-fidelity-mål, har animatorer mulighed for at ændre en skuespillers præstation ved hjælp af real-time Unreal Engine 4-animationsværktøjssættet.

Det er muligt at bruge animationsdatasættene på en hvilken som helst korrekt rigget model, selvom modellen i sig selv slet ikke ligner skuespilleren. Dette hænger sammen med det, der blev nævnt før om de adaptive animationsværktøjer, som Vicon og Tencent brugte til den asiatiske model, selv når den virkelige skuespillerinde ikke lignede den 3D-scannede model. Epic brugte de fangede data fra Andy Serkis' Macbeth-optræden og anvendte dem på en fiktiv alien-karakter, der var korrekt rigget til at læse fra datasættene. Resultaterne er ret imponerende.

Nogle af opdateringerne til Unreal Engine 4, der indeholder mange af disse funktioner, vil være tilgængelige fra den 20. april.

Dette gælder også for Epics dybe dyk i ray-trace-gengivelse.

Efter Hayssam lykkedes det Keilany at implementere stisporingsteknikker i realtid i shaders til spil som f.eks GTA IV For et halvt årti siden har Epic endelig optrappet deres spil og har formået at opnå livagtig realtidsbelysning gennem ray-tracing til multi-pass lyskilder og skygger.

Epic demonstrerede denne teknik med en kortfilm med Star wars.

Real-time ray-tracing kan være meget belastende, og derfor samarbejdede Epic med Nvidia og Microsoft om at udvikle en ny API kaldet DXR, som er en DirectX ray-tracing pipeline, der taler direkte til GPU'en for at udføre komplekse lys- og shader-opgaver ved hjælp af hardware -afhængig teknologi kaldet RTX.

Ifølge Epic Games vil vi se nogle spil udgivet senere på året, der gør brug af Microsofts DXR-teknologi og Epic Games' nye ray-tracing pipelines.

Andre nyheder i branchen