Ray tracing na kartach GeForce i Radeon - Crytek prezentuje demo Neon Noir [AKT.]
Zademonstrowane demo technologiczne Neon Noir prezentuje potencjał techniki śledzenia promieni w czasie rzeczywistym. Nie byłoby w tym nic nadzwyczajnego gdyby nie to, że nie musi ona działać na kartach Nvidia RTX.
Śledzenie promieni w czasie rzeczywistym (ray tracing) to jedna z tych technologii, która pozwala poprawić realizm w najnowszych grach. Funkcja wymaga jednak odpowiedniej mocy obliczeniowej, więc można z niej korzystać tylko na najnowszych kartach graficznych Nvidii z dedykowanymi jednostkami RT… a przynajmniej tak było do tej pory.
Firma Crytek opublikowała nagranie z dema technologicznego Neon Noir, które wykorzystuje potencjał silnika CryEngine 5.5 i zaawansowanej funkcji odpowiedzialnej za pełne oświetlenie. Efekty możecie zobaczyć na poniższym filmiku.
Technologia Cryteka pozwala uzyskać efekt śledzenia promieni w czasie rzeczywistym, ale, w odróżnieniu od dotychczasowych rozwiązań stosowanych w grach (np. w Battlefield V), bazuje na interfejsie programowania – można z niej korzystać niezależnie od sprzętu, a według producenta wystarczy tutaj karta graficzna GeForce lub Radeon ze średniej półki zgodna z DirectX 12 lub Vulkan.
Wygląda więc na to, że Nvidia właśnie straciła główny atut swoich nowych kart graficznych. Oczywiście wszystko będzie zależeć od deweloperów i tego czy rzeczywiście chętniej będą korzystać z rozwiązania programowego (za którym na pewno przemawia szersza dostępność dla graczy).
Aktualizacja 08.05.2019 18:50
Firma Crytek opublikowała na swoim blogu wpis poświęcony demu Neon Noir i technologii Total Illumination, gdzie ujawniono kilka ciekawych szczegółów na temat implementacji technologii śledzenia promieni w czasie rzeczywistym w silniku CryEngine.
Wykorzystana funkcja nie jest powiązana ze sprzętowymi jednostkami czy interfejsem programowania (API), dzięki czemu może działać praktycznie na dowolnej nowej karcie graficznej AMD lub Nvidia. Silnik daje jednak możliwość sterowania złożonością efektów, co może mieć wpływ na jakość i płynność animacji.
Wspomniana karta graficzna Radeon RX Vega 56 pozwoliła na wyświetlanie animacji w rozdzielczości 1080p przy płynności 30 kl./s, ale zmniejszenie jakości odbić od połowy rozdzielczości pozwoliłoby uzyskać ponad 40 kl./s w rozdzielczości 1440p.
Deweloperzy przyznali jednak, że zastosowana technologia może wykorzystać potencjał sprzętowych jednostek do Ray-tracingu, co przełoży się na jeszcze lepszą jakość obrazu i płynność animacji. Przykładowo karta GeForce GTX 1080 (bez takich jednostek) pozwala na wyświetlanie animacji w rozdzielczości 1080p przy ograniczonej jakości odbić, ale model z serii GeForce RTX (już wyposażony w takie jednostki) prawdopodobnie pozwoliłby na zwiększenie rozdzielczości do 4K i zastosowanie pełnej jakości odbić.
Technologia Total Illumination została dodana do planu rozwoju silnika CryEngine na bieżący rok. Można zatem podejrzewać, że za jakiś czas zostanie ona wykorzystana w konkretnej grze.
Źródło: Crytek, Guru3D
Komentarze
105Czyli nowe konsole dostaną Ray-Tracing działający na standardowych jednostkach wykonawczych GPU.
nVidia po raz kolejny zostanie z kwitkiem za swoje uber-luxury własnościowe technologie ograniczone dla najdroższego sprzętu.
Co wybierze developer? RTX dla ledwie garstki najbogatszych graczy PC? Czy funkcje API DX12/Vulkan dostępne dla większości graczy PC oraz wszystkich nabywców nadchodzących konsol?
Znowu bełkot marketingowy sprawił że kazali nam wierzyć że tylko przeprojektowane karty że stajni Nvidii na to pozwalają..
I jeszcze pokazali to na Vedze 56 , demo chodzilo w 4K niestety nieznane są klatki na sekundę... Podobno do końca następnego tygodnia ma być dostępny do pobrania benchmark na bazie tego dema...
A ja wciąż czekam na przyzwoitą kartę za przyzwoite (realną wartość) pieniądze bez marketingowego bełkotu o RT, tensorach i innych bzdurach.
Dzięki temu uzyskują bardzo dobrą wydajność a jakość jest prawie ta sama jakby gi i odbicia robili pełnym raytracingiem
W grach dynamiczne oświetlenie czy odbicia są od dawna oraz "raytracing".
W tym w Cryengine. Problemem było limitowanie funkcji do elementów statycznych i problematyczne działanie. Działało to na Maxwellach już, więc kij z tym.
W Turningach NV wprowadziło dedykowane jednostki do liczenia pathtracingu i soft do wsparcia tego i tyle. Na jednostka SP i w OpenCL policzycie to nawet na radeonach HD48xx ale bardzo wolno.
Znowu bełkot marketingowy sprawił że kazali nam wierzyć że tylko przeprojektowane karty że stajni Nvidii na to pozwalają..
I jeszcze pokazali to na Vedze 56 , demo chodzilo w 4K niestety nieznane są klatki na sekundę... Podobno do końca następnego tygodnia ma być dostępny do pobrania benchmark na bazie tego dema...
Łatwiej tworzyć gry w oparciu o uniwersalne rozwiązania, które pójdą zarówno na PC jak i konsolach, niż tworzyć mocno dedykowane wersje z wykorzystaniem rdzeni RT i bez.
Kolejny cud grafiki będzie :3 i zarzynacz na poziomie Metro :333
Znowu bełkot marketingowy sprawił że kazali nam wierzyć że tylko przeprojektowane karty że stajni Nvidii na to pozwalają..
I jeszcze pokazali to na Vedze 56 , demo chodzilo w 4K niestety nieznane są klatki na sekundę... Podobno do końca następnego tygodnia ma być dostępny do pobrania benchmark na bazie tego dema...
Przecież raytracing można było uruchomić np na kartach Pascal !! Jednak to nie znaczy, że będzie działał tak szybko i wydajnie jak na Turingach. Kurcze przecież to było dawno powiedziane, a teraz będą teorie, że NVIDIA oszukuje
no to by było na tyle xD
Do tej pory:
"RT po co to komu? Nvidia kosi hajs na idiotach."
Po demie z Cryteka:
"A masz Nvidia! AMD też będzie miało RT! Ale super!"
Gdyby nie Nvidia to nikt by RT nie ruszył nawet kijem przez szmatę. A teraz nagle to Crytek ratuje świat.
Ja się cieszę, że temat się rusza i potrzeba jak najszerszej implementacji i możliwości użycia na wszystkich platformach, żeby można było faktycznie skorzystać z dobrodziejstw tej technologii. To przecież nie jest tak, że Nvidia wymyśliła RT, oni się po prostu za to wzięli. Postanowili dać dodatkowe dedykowane sprzętowe wsparcie - to jest ich implementacja. W mojej ocenie pełniejsza, bo to co Crytek dorzuci do swojego silnika, to jest do wykorzystania tylko w tym silniku i tak jak oni to wymyślili. CryEngine nie jest jakiś bardzo popularny, żeby nagle w każdej grze tego używano. I to jest główna różnica. Nvidia chce stworzyć standard w DirectX, z którego wszyscy developerzy mogą korzystać i używać w swoich silnikach, Crytek rozbudował tylko swój silnik.
Co do samego dema... trochę jakość tych odbić myślę, że kuleje. Ale nie ma co oceniać po filmiku na youtube. Jak wydadzą demo publicznie to chętnie zobaczę u siebie na żywo i porównam do tego co mogę zobaczyć w BF5 na RTX2080. Pamiętajcie, że Crytek pokazuje tylko demo, to nie jest gra, która jest dużo bardziej złożona niż przejazd kamerą. Jak ktoś myśli, że na Vega 56 pogra w 4k @ 30fps z tym śledzeniem promieni od Crytek w jakiejś grze to się grubo rozczaruje. (Pomijam już to, że nie wiadomo kiedy i czy w ogóle pojawi się jakaś gra na CryEngine z wykorzystaniem tych efektów).
Pamiętajcie, im więcej prac nad RT tym ta technologia się szybciej upowszechni a implementacje będą coraz bardziej wydajne. Trzymam kciuki za wszystkich, którzy dokładają swoją cegiełkę.
Będę się cieszył jak pierwsza gra to wykorzysta.
Silnik crytek znów może być w centrum zainteresowania jak za czasów pierwszego crysisa. To by było cos.
Jakby silnik wykorzystał jeszcze jednostki RTX to by była oczekiwana wydajność a nie to co pokazuje dzisiaj BF1 czy tomb raider.
niestety problem jest zasadniczy i zapewne takim zostanie - implementacja tego sposobu realizacji RT znajdzie miejsce tylko w cryengine.
Jeden silnik to za mało.
Tak czy inaczej wystarczy trochę zdrowego rozsądku i zaznajomienia z tematem, żeby widzieć, że to nie jest możliwe, żeby Crytek nagle odkrył jakąś magiczną implementację RT bez rdzeni RTX, która daje tak niesamowite efekty. A cały świat do tej pory nawet nie wpadł na pomysł, żeby coś w tym kierunku robić, mimo że już wydajność pozwala od jakichś 2 lat. Tylko ta zła oszukańcza Nvidia. Crytek odkrył prawdę o Nvidii...
Nvidia uderza w prawdziwy RayTracing, a bez akceleracji sprzętowej nie będzie to jeszcze możliwe. A Crytek jak dobrych efektów nie uzyskał, to dalej tylko wariacja na ten temat, z całą masą ciekawych, fajnych sztuczek dla zaoszczędzenia mocy. Ale dalej jednak sztuczek. Dlatego każdy kto ma choć trochę oleju w głowie, wiedział, że gdzieś jest haczyk. Albo to nie jest 4k albo to demo nie jest w całości w real-time. I tyle. A tu i nie tylko tu, wiwatujący tłum jakby obalono jakiegoś okrutnego monarchę.
Ja się cieszę, że RT się rozwija, Nvidia to wszystko ruszyła i teraz wszyscy w to idą. Tak samo jak w smartfonach prześciganie się o powierzchnię ekranu. Ukrywanie kamerki i głośników w coraz to bardzie wymyślny sposób. I tego właśnie oczekuję, że będą różne implementacje w silnikach gier i zaczną powstawać kolejne gry z RT i wykorzystaniem rdzeni RTX.
">nVidia po raz kolejny zostanie z kwitkiem za swoje uber-luxury własnościowe technologie ograniczone dla najdroższego sprzętu.
lol, ale ty specjalista w dziedzinie jesteś
nvidia nie zostanie z kwitkiem bo nieżalenie jaka technologia przejdzie to mainstreamu to ich karty z RT cores będą ja wspierać i będą sobie z tym radzić lepiej niż karty bez wyspecjalizowanych jednostek"
... i został zakopany pod stertą minusów i do tego jeszcze komentarze, że skąd on może wiedzieć, czy to będzie działać na RTX. A teraz sami twórcy mówią, że będzie wspierać i korzystając z rdzeni RT będzie można wyciągnąć jeszcze większą wydajność.
Ale największą bekę mam z @Eternal1:
"DEMO było odpalone na Vega56 w 4K@30FPS.
Podobną mocą dysponuje już Pascal GTX1070/1070Ti."
Buahahaha tępy fanboyu. Na połowie jakości może ledwie starczy na 1440p w konsolowej płynności. A ten się rozmarzył, że 4k... że 30fps... że Vega56 taka super... Ah... po prostu nie mogę przestać się śmiać... hahahahah haha hahaha haha hahah ha...