Karty graficzne

benchmarki na słabszej maszynie

przeczytasz w 4 min.

Przeprowadziłem porównanie na super wydajnym systemie, ale chciałbym się teraz dowiedzieć, którą z tych kart lepiej wstawić do mojego domowego komputera. Jak duży wpływ na osiągi ma moc CPU i chipsetu, i czy faktycznie karta 9800 GX2 nie straci na osiągach na platformie nie wykorzystującej technologii SLI. Do tego posłuży mi moja standardowa platforma testowa, którą być może znacie już z zestawienia kart graficznych.

  • procesor:
    Intel Core2 Duo E6400, podkręcony @ 2.6GHz, przez szynę FSB333,
  • płyta główna: ASUS P5K Deluxe, chipset - intel P35
  • pamięci RAM: Kingston 2x1GB DDR2 800 CL4
  • dysk twardy:
    Seagate 320 GB Barracuda 7200.10 (16MB, Serial ATA II, zapis prostopadły)

W nawiasach za wynikiem zaznaczyłem procentową różnicę w stosunku do wyników na mocnej platformie.

Widać wyraźnie, że nawet składnikowy test HDR w 3DMark06 jest w pewnym stopniu uzależniony od mocy CPU. Na słabszej maszynie 9800 GX2 traci 17%, Radeon 12%.
Przy włączonym AAx4 moc platformy w zasadzie nie ma wpływu na wyniki.

Obiektywne wnioski: 9800 GX2 i 3870X2 oferują porównywalne osiągi

W przypadku testów HL2 ET na słabszej platformie obie karty tracą dość mocno na osiągach - GX2 aż 46%, Radeon niewiele mniej, bo tylko 37%. Ale dalsze wyniki z włączonym AAx4 i Anizo x16 pokazują coś zaskakującego. O ile spadek FPS w przypadku Radeona zatrzymał się na 1%, GeForce 9800 GX2 dalej mocno traci. Nie sądzę aby takie wyniki były spowodowane wyłącznie słabszym CPU, a raczej pozostałymi elementami platformy - chipsetem i sterownikami. Niewykluczone że w przypadku chipsetu Intela coś szwankuje, bo wygląda to tak, jakby karcie brakowało pasma do przesyłania danych. Pozostaje przeprowadzić jeszcze jeden test - słaby CPU+GX2 na płycie z chipsetem nVidii.

Obiektywne wnioski: Radeon 3870X2 jest nieco szybszy

Crysis bardzo ładnie ujawnia nam skalowanie obu kart z mocą CPU. Przy najwyższych ustawieniach VERY HIGH i najwyższej testowanej rozdzielczości 1920x1200, GX2 i X2 uzyskują takie same wyniki na słabej, co na mocnej platformie. Jedynie przy ustawieniach relatywnie najniższych, spadek FPS jest bardziej odczuwalny na GX2.

Obiektywne wnioski: GeForce 9800 GX2 jest wydajniejszy średnio o 40%

Przy okazji chciałbym odnieść się do niektórych komentarzy pod artykułem, krytykujących testowanie kart jedynie w wysokich rozdzielczościach. No wybaczcie moi drodzy :) ale jestem niemal przekonany, że gracz który kupuje kartę graficzną za 1300 lub 2000 zł, dysponuje monitorem 22 lub 24" z rozdzielczością natywną odpowiednio 1680 i 1920, i bynajmniej nie ma zamiaru uruchamiać na takim sprzęcie gier w rozdzielczości 1280x1024. Nie bardzo rozumiem sens testowania tak drogich kart w niskich rozdzielczościach.


World in Conflict to z kolei przykład gry, której wyniki FPS chyba w większym stopniu zależą od pozostałych elementów komputera, aniżeli karty graficznej. Z takimi grami w ciągu najbliższych lat także będziemy mieć do czynienia, więc niezależnie czy się nam to podoba czy nie, takie przypadki też trzeba rozpatrywać.
W trybie bez wygładzania AA obie karty tracą mniej więcej po równo - rzędu 60~70%. Przy włączonym AA Radeon X2 jest nieco bardziej odporny na spadek FPS.
Przy okazji wypada jeszcze wspomnieć, że osiągi X2 w grze WiC odrobinę poprawiły się na najnowszych sterownikach Catalyst 8.3 (głównie w trybie 1920x1200 VH + AAx4" teraz 17 fps, przedtem 13 fps )

Obiektywne wnioski: Bez wygładzania AA karty oferują porównywalne osiągi. Przy włączonym AAx4 GeForce 9800 GX2 jest wydajniejszy średnio o 45%


W Lost Planet zarówno GX2 jak i Radek X2 praktycznie nie odczuły w wynikach FPS zmiany platformy na słabszą. Tu warto wtrącić kilka faktów, które warto mieć na uwadze porównując wyniki obu chipów graficznych: Lost Planet pierwotnie napisany był na konsolę XBOX 360. 360-tka wyposażona jest między innymi w układ graficzny 'Xenos' (R500) wyprodukowany przez ATi. Jeśli ktoś narzeka na logo nVidii 'TWIMTBP' w grach których używamy do testów, powinien mieć też na uwadze, że tu niemal cała gra została zoptymalizowana pod chip jednego producenta.

Obiektywne wnioski: GeForce 9800 GX2 jest wydajniejszy średnio o 37%


PT Boats to test w którym GX2 ponownie bardzo mocno traci na słabszym CPU - aż 65%. Wyniki FPS Radeona X2 spadły jedynie o ~30%, dzięki czemu różnica w osiągach obu kart na tej konkretnej platformie testowej zmniejszyła się do 22%.

Obiektywne wnioski: GeForce 9800 GX2 jest wydajniejszy średnio o 22%


I na koniec kontrowersyjny Call of Juarez. Radeon 3870 X2 niewzruszony po zmianie plaftormy, GX2 traci niewiele, bo tylko ~7%.

I po raz kolejny chciałbym nawiązać do komentarza po pierwszej części artykułu. Zdaje się, że mamy wyjaśnioną zagadkę 'dziwnych' wyników w tym benchmarku. Wersja na której testujemy to 1.0. Na oficjalnej stronie od pewnego czasu dostępna jest nowsza wersja 1.3, w której Radeon X2 faktycznie uzyskuje lepsze wyniki, ale jak się okazuje tylko w trybie 1680x1050.

Tu chciałbym sięgnąć do historii tego benchmarka. Pierwsze demko Call of Juarez które pojawiło się w sieci - być może wielu z Was to pamięta - zostało skrytykowane przez nVidię, jako zoptymalizowane i faworyzujące układy ATi. Faktycznie w pierwszych testach, podczas premiery układu R600 karta ATi osiągała na wersji 1.0 lepsze wyniki (starcie 2900XT vs 8800 GTX).
Dziś na wersji 1.0, w pojedynku GX2 v X2 lepiej wychodzi nVidia, ale benchmark dostępny jest w nowej wersji 1.3, którego wyniki prezentują się jeszcze inaczej. Pytanie gdzie leży złoty środek? Czy nVidia sztucznie tak mocno zoptymalizowała sterowniki, że w benchmarku 1.0 osiąga wyższe wyniki? Czy wersja 1.3 tak samo traktuje obu producentów?

Witaj!

Niedługo wyłaczymy stare logowanie.
Logowanie będzie możliwe tylko przez 1Login.

Połącz konto już teraz.

Zaloguj przez 1Login