Karta Gigabyte GTX 280, z racji wysokiej ceny, nie jest przeznaczona dla przeciętnego gracza, to wydaje się oczywiste. Jest to najwyższy obecnie segment (pomijając rozwiązania multiprocesorowe – SLi/CrossFire), stąd karty skierowane są w stronę najzamożniejszych entuzjastów.
To co mnie tutaj pozytywnie zaskoczyło, to poprawione odprowadzanie ciepła (względem modelu referencyjnego), oraz niższy niż zakładano pobór energii podczas gry. Dla tych, dla których wysupłanie tak wysokiej kwoty nie jest problemem, a poszukują topowego produktu, kartę można z czystym sumieniem polecić.
Dla pozostałych, którzy mają nieco większą „alergię” na pozbywanie się oszczędności na elektronikę, lepszym stosunkiem cena – wydajność mogą pochwalić się karty GeForce GTX 260 oraz Radeon HD4870; nie wspominając już o HD4850 spiętych ze sobą w tryb CrossFire.
Na zaprezentowanych testach wydajności, przeprowadzonych na najnowszych dostępnych sterownikach, także przy wyższych ustawieniach Aniso-x16, AA-x8, widać że w porównaniu do GTX280 świetnie wypadają dwie karty Radeon HD4850 w trybie CrossFire. Koszt takiej inwestycji to zaledwie 1000 zł.
Jako, że Gigabyte w naszym sklepie oferowany jest w najniższej cenie, wśród wszystkich kart opartych o GTX 280, przyznaję mu znaczek „Dobry Produkt” za świetną wydajność, stosunkowo niską temperaturę pracy, stabilność, oraz akceptowalny poziom szumu generowanego przez zamontowany wentylator podczas intensywnej gry. Jedyną rzeczą do której można się tak naprawdę przyczepić jest tu cena za High End nVIDII, która niestety nie należy do najniższych.
- orientacyjna cena karty w chwili testów: do 1400 zł
Moja ocena: Gigabyte GeForce GTX 280 1GB | |
plusy: • rewelacyjna wydajność (jak na konstrukcję jednoprocesorową) • HDMI / DisplayPort (opcja) • niski pobór energii w 2D / odtwarzaniu wideo • niski poziom szumu w 2D / akceptowalny w 3D | |
minusy: • średnia podatność rdzenia na podkręcanie • wysoka cena • duże gabaryty | |
Komentarze
24w koncu wiarygodne wyniki miedzy kartami ati a nvidi. szkoda tylko ze nie na najnowyszch sterownikach ati Catalyst 8.7
pozdrawiam
Pozdr.
Sam posiadam ten tandem 2x 4850 PowerColor @ 700/2200 + Q9450@3.72 i na sterownikach 8.6 + Assasin Creed bez uaktualnienia mialem 20fps (CF) po wylaczeniu CF 73fps (1600x1200) wszystko max , po wgraniu najwnoszych sterownikow 8.7 + uaktualnienia poprostu gra lata. (FPS sprawdzam frapsem na klawiaturze Logitech G15)
Nawet 3dmark Vantage po wrzuceniu sterownikow 8.7 skacze +1000pkt ... ^^ , nie mowiac o grze LostPlanet ktora w rodzielczosci 1600x1200 (wszystko high+ aax4+ azx16) lata ~70fps. Na poprzednich sterownikach mialem ok ~40fps.
Prosilbym o uaktualnienie wynikow ATI (wgranie najnowszych sterownikow 8.7) gdyz roznica w wydajnosci jest zdecydowanie duza :-).
ps. nie rozumiem tego testu , GF 280 GTX kosztuje 1400zl i dlaczego dajecie do walki 2x 4850 ( 900zl ) , powinniscie dac 2x 4870 ( 1400zl) cenowo bylaby wyrownana walka ^^ i kazdy o tym wie kto wygra to starcie ( nie mowiac o podkreceniu kart 4870 ) xD
Juz w sieci kraza testy 2x 4870 x2 vs 3x GF 280GTX - i kto wygrywa ? oczywiscie ze ATI ^^
Skonczyla sie era GF , nvidia myslala ze znowu odgrzeje kotlet i wcisnie nam kit. Pozatym cena GF jest poprostu smieszna.
PS: Byc moze nawet GTX280X2 o ile cos takiego wyjdzie ;P
Redakcja szuka sposobu na uczynienie wykresów bardziej czytelnymi. Pochwal ich za chęci a nie marudzisz ;]
A odnośnie samego porównania to sprawa wydaje się dość prosta i smutna zarazem. Najlepszym co można teraz zrobić to kupić 1 Radeona 4850 lub przy większej ilości pieniędzy, w zależności od preferencji albo HD 4870, albo GF GTX260 i dać sobie spokój z rozwiązaniami multi-GPU. To aż żenujące, że 5 już seria kart z obsługą Crossfire nadal sprawuje się nijak. Albo zysk jest minimalny, albo nie ma go wcale. Szybciej pojawią się nowe, lepsze karty niż NV i ATI (lub ktokolwiek jest winny) wprowadzą realne wsparcie dla multi-GPU.
Czy jak robione sa testy, jest sprawdzana wydajnosc na rozdzielczosci X przy wlaczonych AA itp, i druga bez? wiem ze to troche roboty, ale niekiedy takie testy sa robione (na pewno tutaj tez; ale nie pamietam) i podawac je na jednych wykresach. Bo tutaj chodzi mi o skoki wydajnosci jakie ma nvidia i ati; a wiem ze ati zawsze MIALO takie problemy, nie wiem jak jest teraz, skad zzera mnie ciekawosc a dobrze byloby wiedziec. I jeszcze taka mala sugestia, Mowicie ze zmienicie platworme testowa, ale moze zrobic dwie? Jedna "najmocniejsza" od AMD; i druga od Intela. Wiem ze pewno to nie dowykonania ale musialem napisac:)
Pozdr.
Czemu skrypt porownawczy do GPU (http://www.gph.benchmark.pl/) nie jest wogole uaktualniany?
Moim zdaniem powinno sie go uaktualnic, nie ma tam zadnych nowych kart, maxymalnie jest 9800GX2 ale bez wynikow ;/
Pozdro.