Nvidia GeForce GTX 1080 i GTX 1070 - oficjalna prezentacja kart graficznych
Prezentacja desktopowych kart graficznych GeForce z generacji Pascal już za nami - czego, kiedy i za ile możemy się spodziewać?
Stało się! Nvidia zaprezentowała swoje dwie najwydajniejsze karty graficzne z generacji Pascal z segmentu konsumenckiego – mowa oczywiście o modelach GeForce GTX 1080 i GTX 1070.
GeForce GTX 1080 przejmuje miano najwydajniejszej konstrukcji „zielonych” - podobno oferuje on lepsze osiągi niż dwa modele GeForce GTX 980 połączone w SLI (!). Na pokładzie znalazł się procesora graficzny Pascal GP104 z 2560 rdzeniami CUDA oraz 8 GB pamięci GDDR5X 256-bit. Standardowe taktowania to 1607/1733 MHz dla rdzenia i efektywne 10 000 MHz dla pamięci wideo.
Na śledziu wyprowadzono pięć wyjść wideo: DL-DVI, HDMI 2.0b i 3x DisplayPort 1.4. Współczynnik TDP oszacowano na 180 W, więc karta wymaga podłączenia tylko jednej 8-pinowej wtyczki zasilającej.
W wirtualnej rzeczywistości 1080-tka ma być nawet 2-krotnie wydajniejsza i oferować 3-krotnie lepszą efektywność energetyczną w porównaniu do Titana X - jesteśmy ciekawi czy to rzeczywiście prawda
Referencyjne chłodzenie nie powinno być dla nikogo zaskoczeniem, bo jego model wyciekł do sieci już jakiś czas temu - mamy do czynienia z 2-slotową konstrukcją opartą o turbinę, a całość schowano pod kanciastą obudową (nie zapomniano też o płytce backplate na rewersie laminatu).
Model | GeForce GTX 980 | GeForce GTX 980 Ti | GeForce GTX 1080 |
Generacja | Maxwell - 28 nm | Maxwell - 28 nm | Pascal - 16 nm |
Układ graficzny | Maxwell GM204 | Maxwell GM200 | Pascal GP104 |
Procesory strumieniowe | 2048 | 2816 | 2560 |
Jednostki teksturujące | 128 | 176 | ? |
Jednostki rasteryzujące | 64 | 96 | ? |
Taktowanie rdzenia | 1127/1216 MHz | 1000/1076 MHz | 1607/1733 MHz |
Moc obliczeniowa | 4,6 TFLOPS | 5,6 TFLOPS | 9 TFLOPS |
Pamięć wideo | 4 GB GDDR5 256-bit | 6 GB GDDR5 384-bit | 8 GB GDDR5X 256-bit |
Taktowanie pamięci | 7000 MHz | 7000 MHz | 10 000 MHz |
TDP | 165 W | 250 W | 180 W |
Dodatkowe zasilanie | 6+8-pin | 6+8-pin | 8-pin |
Cena (premierowa) | $549 | $649 | $599 ($699 FE) |
GeForce GTX 1080 ma zadebiutować 27 maja – wersja Founders Edition została wyceniona na 699 dolarów, natomiast sugerowana cena wersji autorskich wynosi 599 dolarów (na nie poczekamy trochę dłużej).
Oto i GeForce GTX 1080 #Nvidia pic.twitter.com/OIcjIOEZPJ
— benchmark.pl (@benchmarkpl) 7 maja 2016
Prezentacja modelu GeForce GTX 1080 - nowego lidera wydajności
O karcie GeForce GTX 1070 wiadomo trochę mniej, aczkolwiek też zapowiada się bardzo obiecująco – także i w tym przypadku mamy do czynienia z rdzeniem Pascal GP104 (jeszcze nie wiadomo dokładnie w jakiej konfiguracji), którego moc obliczeniowa sięga 6,5 TFLOPS. Całość wspomaga 8 GB pamięci GDDR5 256-bit.
Jak z wydajnością? GeForce GTX 1070 bez problemu ma pokonywać dotychczasowego lidera wydajności Nvidii, czyli model GeForce GTX Titan X - a pamiętajmy, że mamy do czynienia z kartą o znacznie lepszym stosunku ceny do oferowanych możliwości – ceny wersji niereferencyjnych mają zaczynać się od 379 dolarów, a za wersję Founders Edition zapłacimy 449 dolarów. Na oficjalną premierę jednak jeszcze trochę poczekamy, bo ma ona nastąpić dopiero 10 czerwca.
Model | GeForce GTX 970 | GeForce GTX 1070 |
Generacja | Maxwell - 28 nm | Pascal - 16 nm |
Układ graficzny | Maxwell GM204 | Pascal GP104 |
Procesory strumieniowe | 1664 | ? |
Jednostki teksturujące | 104 | ? |
Jednostki rasteryzujące | 56 | ? |
Taktowanie rdzenia | 1050/1178 MHz | ? |
Moc obliczeniowa | 3,5 TFLOPS | 6,5 TFLOPS |
Pamięć wideo | 4 GB GDDR5 256-bit | 8 GB GDDR5 256-bit |
Taktowanie pamięci | 7000 MHz | 8000 MHz |
TDP | 148 W | ? |
Dodatkowe zasilanie | 6+8-pin | ? |
Cena (premierowa) | $329 | $379 ($449 FE) |
Trzeba przyznać, że nowa generacja kart graficznych GeForce „Pascal” w niższym, 16-nanometrowym procesie technologicznym robi spore wrażenie – przynajmniej jeżeli chodzi o suchą specyfikację i deklaracje producenta. Jak będzie w praktyce? Na pewno to sprawdzimy. Stay Tuned :-)
Przy okazji przygotowano nowe mostki do łączenia kart GeForce w trybie SLI - podobno oferują one 2-krotnie wyższą przepustowość niż te z poprzedniej serii Maxwell, a przy tym naprawdę nieźle wyglądają.
Źródło: Nvidia, inf. własna, foto: Marcin Jaskólski
Komentarze
109Pozostaje kwestia realnej ceny. W momencie premiery GTX 980 kosztował 500$, a GTX 980 Ti został wyceniony na 700$. Na starcie mamy o stówkę więcej - za co? Za postęp? Jak tak dalej będzie to przekładając to na logikę nVidia porównują dwa telewizory - te czarno-białe i obecne 4K to za TV 4K powinniśmy płacić równowartość mieszkania. Absolutna kpiną jest Founders Edition - kolejna "stówka".
Tak czy inaczej poczekam na prawdziwe testy w różnych grach a nie wyłącznie tych wyselekcjonowanych przez "zielonych".
Zobaczymy co będzie z dostępnością nowych kart i raz jeszcze wspomnę jaka będzie realna cena w sklepie, gdyż jak nam wiadomo wiadomo sugerowaną w $$, nasi europejscy sprzedawcy podcierają tyłek. :\
PS Czekam na odpowiedź AMD. Niech to będzie równa walka.
/a klienci na tym zyskują niższymi cenami =]!
Czekamy na testy i odpowiedź (oby dobrą) AMD, a wszyscy na tym zyskamy.
Jest tak jak planowano? Nigdzie o tym podczas prezentacji nie wspomniano. Czy może będzie? :)
1 - GeForce GTX 980 Ti - 3506 MHz - 384 Bit = 336 GByte/s
po OC na 4000Mhz - 385 GByte/s
GeForce GTX 1080 - 5508 MHz - 256 Bit = 320 Gbyte/s
2- GeForce GTX 980 Ti - 2816 Shader - 1500 MHZ po OC
GeForce GTX 1080 - 2560 - Shader - 1733 MHz
3- Tak wiem że GTX 1080 też się kreci ale jak będzie 10-20 % szybsza to max
4- Mój EVGA 980Ti Hybrid zostaje i czeka na GTX 1080 Ti / Polaris
Pozdrawiam.
"Gwiazdki" wyjaśniającej skąd taka niesamowita moc przerobowa nowej 1080-tki. Jak wiemy GTX 1080 miał osiągać wydajność lepszą niż spięte w w SLI karty GTX 980"
Mirrors Edge Catalyst, Quantum Break, Paragon, Forza Motorsport 6 Apex, DOOM
http://gamegpu.com/images/stories/Test_GPU/Action/Mirrors_Edge_Catalyst_Beta/test/MirrorsEdge_1920.jpg
http://gamegpu.com/images/stories/Test_GPU/Action/Quantum_Break_/test/QB_1920.jpg
http://gamegpu.com/images/stories/Test_GPU/MMO/Paragon/test/paragon_1920.jpg
http://gamegpu.com/images/stories/Test_GPU/Simulator/Forza_Motorsport_6_Apex/test/Forza_1920.jpg
http://gamegpu.com/images/stories/Test_GPU/Action/doom_beta/test/DOOM_1920.jpg
Wyniki są zachęcające :)))
Widząc szczątkowe testy pewnie kupię Polarisa bo będzie tańszy, ale mniej wydajny. I tak pewnie wystarczy do grania w 1680x1050, którą obsługuje mój monitor :)
Poczekajmy na realne testy :)
- takie slajdy AMD pokazalo kilka miesiecy temu,
- NVidia pokazala atrape i wszyscy klaskali,
- AMD pokazala dzialajacy uklad, pokaz mozliwosci nowego procesu.
Zastanawiam sie tez nad pamięcią uzyta do 1080. Nie miala pokazac sie pozniej?
Do tego ceny. Drozej, niz poprzednia generacja. O wiele drozej.
I tak jak kolega wyzej napisal, jesli to kotlet w mniejszym procesie, to bedzie powielal bledy maxwella, czyli problemy w DX12 i moze tez w wulkanie. Ciekawie sie zapowiada.
2. Dopóki deweloperzy nie będą stosować downgrading grafiki, tak aby była porównywalna z PS4, to zakup super nowoczesnej karty graficznej nie ma sensu !!!!
NVIDIA mogła już dawno wypuścić super kartę graficzną, ALE CO Z TEGO !!! Jak grafika w grach jest rodem z 2012 roku.
Po co Ci super karta TERAZ, jak na razie grafika w grach jest niemal identyczna jak na starym PS4 !!!!, jedynie jest więcej klatek, ale i tak jak pojawia się opcja jakiegoś MODA grafiki, to ludzie kosztem zmniejszenia klatek poprawiają grafikę, każdy chce lepszej grafiki, nawet kosztem mniej FPS.
Po co komu karta graficzna, żeby grać wiedźmina na ultra z 150 klatek na sekundę albo i więcej. Tak naprawdę tego nie rozróżnisz od 60 klatek na sekundę.
Wiedźmin czy The Devision, już w 2013 roku na targach E3 wyglądały świetnie, ale wykonawcy byli zmuszeni obniżyć grafikę, aby to poszło również na słabsze konsole PS4 i XB1.
Eksperci obawiają się, że jeżeli grafika pomiędzy PS4 a PC będzie się mocno różniła, to posiadacze konsol przestaną kupować gry!!! *(gracze to takie dorosłe dzieci, obrażalskie, takie są fakty!)
Rynek PS4 i XBOX1 jest ogromny, a dodatkowo kupuje oryginalne gry.
Jeżeli znacząco gorsza grafika na konsole zniechęci graczy do kupowana produktów (gier) to wydawcy na tym stracą !!! – ogromne pieniądze, może nawet będą większe koszty niż zyski !
Na tych kartach graficznych z 2016 roku, można by było zrobić gry, które wyglądałyby lepiej niż gry na targach E3 z 2013 roku(typu wiedźmin, watch dogs czy Devision), ale takie gry na konsole PS4 i XB1 śmigałyby na ULTRA LOW i nawet nie na Full HD, a to by mocno zniechęciło posiadaczy konsol do zakupu tej gry!!!
A na to wydawcy gier nie mogą sobie pozwolić, i wymuszają aby grafika była jak z 2012/2013 roku.
Zawsze jest coś kosztem czegoś.
Okazuje się, że nie pójdzie.
I zaczynają ucinać wszystko co się da- jest to trochę bez sensu ale tak jest.
To tak jakby lecieć samolotem i się dowiadujesz, że jest za mało paliwa i nie dolecisz do lotniska w PS4 i zaczynasz wyrzucać całe wyposażenie samolotu i zostaje tylko szkielet i drążek sterujący.
Zadajecie takie pytania że głowa boli -_- tu macie konferencje Nvidii na której macie wszystko pokazane(nie tylko zdjęcia) i wytłumaczone https://www.youtube.com/playlist?list=PLZHnYvH1qtOZ0oLpKsdHWjw6rCRT2vhIM
1. Gdzie nowe technologie? nie ma
2. Gdzie Full DX12? nie ma, dlaczego? bo "Pastecall" jest naprawdę upgrejdem MaskWell tylko że w 16nm
Posiada Polymorph Engine do teselacji (znany od Fermi) i Giga Thread (znany od 780).
3. A ficzersy są? są do VR i robienia zdjęć z gier (to jest in +)
4. A cena? Dojarka nV w całej krasie, czemu? ano bo urobek z wafla w 16nm jest jeszcze bardziej wydajny (liczę zdatne czipy) niż duży 28nm, czyli tak naprawdę zarabiają jeszcze lepiej jednostkowo niż przy 28nm !
5. Async Shader by odciążać CPU? nie ma, czemu? patrz wyżej.
Myślałem że będzie coś naprawdę nowego, cóż dla mnie Polaris.
Aha Polaris:
480X wydajność -/+ 1070 cena ok 220USD (mowa o średniej wydajności, są gry lepsze dla ATI lub nV różnie to bywa)
490X wydajność -10% lub równa 1080 - cena 299USD
BigPolaris (nie zapowiedziany jeszcze) 8GB HBM_1 - cena 499-599USD wydajność (?)
Rok Radeona.
Czemu ceny Radeonów są "niskie", są normalne, urobek lepszy to i zarobek lepszy i cena dla nas może być niższa (taką politykę ma Radeon Group). Polaris ma pokryć tzw. niszę z użytkownikami, których nie stać lub nie chcą dużo inwestować w GPU. Za tym idzie także postęp technologiczny łączony z API DX12, deweloperom będzie się opłacało tworzyć lepsze i ładniejsze gry bo 80% graczy będzie miało GPU, które temu podoła. Są na YT wywiady z R.Konduri i innymi ;-)