Nie da się ukryć, że bez ograniczenia ilości klatek nałożonego przez producentów grałoby się przyjemniej. Póki co, jeśli nie chcemy używać nie do końca legalnych programów, musimy wykazać się cierpliwością. Wydaje się, że producent zareaguje w odpowiedni sposób na skargi graczy i wprowadzi niezbędne zmiany.
Bulletstorm nie jest wolny od wad w kwestiach związanych z grafiką. Zdarzają się niczym nieusprawiedliwione spadki płynności animacji, a gra na razie nie darzy kart Nvidii wielką sympatią. Po wyłączeniu antyaliasingu wszystko jednak wraca do normy i grać można nawet na słabiutkich kartach, zbliżonych pod względem wydajności do 8600 GT.
Na wszelki wypadek lepiej posiadać w zanadrzu 3 GB RAM. Nie zalecamy zabawy z Bulletstormem na procesorach jednordzeniowych. Nie są one bowiem w stanie poradzić sobie z utrzymaniem odpowiedniego, stałego poziomu liczby klatek. Rozsądnym minimum wydaje się być dwurdzeniowiec o taktowaniu na poziomie 2,66 GHz.
Moja ocena: | |
Grafika: | dobry |
Dźwięk: | zadowalający plus |
Grywalność: | dobry plus |
Ogólna ocena: | |
Orientacyjna cena w dniu publikacji testu: 119 zł (PC) | |
Przeczytaj także: | ||||||||
Test Drive Unlimited 2 - optymalne karty graficzne | Optymalne karty graficzne do Gothic IV | Dead Space 2 - optymalne karty graficzne |
Komentarze
106tak to plusik poleciał
grafika z minionej epoki, nie wnosi nic nowego...
Nie wierzę.
Pozdrawiam
I fajnie że był test wielordzeniowy CPU, choć nie doszukałem się przy jakiej karcie graficznej.
I wbrew temu co piszecie zmiana jakości tekstur nie ma znaczenia kosmetycznego, podłoże przy Low jest rozmazane, a przy High ostre (tekstury ścian i obiektów tak samo).
2. Co to jest "nasycenie rozdzielczości"?
3. Z testami CPU jest coś nie tak. Minimal fps dla 2@2.66 to 17 fps, a dla 2@3.7 to 30 fps. Czyli zwiększenie zegara o 40% zaowocowało zwiększeniem wydajności o 75%. To niemożliwe.
Reinstal sterownikow nie pomogl, a radek 4850. Nie nieprzegrzewa sie...
Serio? Bo tu piszą inaczej. Co prawda aa "tylko" x4 ale konia z rzędem temu co odróżni aax4 od x8
http://www.techspot.com/review/368-bulletstorm-performance/page5.html
w [Engine.Engine]
bUseBackgroundLevelStreaming=False
oraz
Karta graficzna z 512MB: PoolSize=450
Karta graficzna z 1024MB: PoolSize=900
Problem z sekundowym "lagiem" w intro to już tylko wyłączenie go tzn. zmiana nazwy samego pliku "LoadingMovieStartup.bik"
Wstyd, że w wersji na PC twórcy nie mogli zmienić takich banałów sami !!
wyniki GTX 460 są z tyłka.
gram w rodzielczosci 1920x1080, AAx8, detale max, v-sync on i stałe FPS. skąd tutaj taki wynik? nie mam pojecia.
of kors, moj jest po OC - 850 mhz na rdzeniu, pamiec 1920 mhz.
ale to tam wzrost o ~15-20%.
http://img694.imageshack.us/f/1pngg.jpg/
Gra chodzi słabo na moim GTX260 ostro wykręconym oraz Quadzie Q6600 wykręconym na 3,5GHz.
Płynnych 60fps nie da się uzyskać w 16080/1050 nawet na detalach minimalnych :( da się grać na detalach średnich ~ 30fps i tyle.
Dopiero zauważyłem że gpu-z wskazuje zaledwie 50% obciążenia GP, a procek podczas ostrych starć nie przekracza 25% obciążenia... co tu spowalnia resztę?
Bulletstorm naprawde potrzebuje patcha... zainstalowanie sterów beta od NV pod bulleta nie poprawiło sytuacji.
Żeby nie było - pierwszy raz się z tym spotykam, cała reszta gier które mam działa jak trzeba.
Mała literówka na 2 stronie ;)
Problem jest już zgłoszony na oficjalnym forum gry, a deweloperzy przyglądają się temu problemowi.
Na moim sprzęcie AMD Athlon X2 250 3.0GHz, 4GB RAM i GeForce 8800GS 384MB, dzięki temu zabiegowi gra na najwyższych ustawieniach chodzi w stałych 62fpsach(limit) z minimalnym spadkiem przy wczytywaniu lokacji czy botów do 50fpsów. Dla tych, którym ten zabieg nie będzie działał, polecam jeszcze pobranie najnowszych sterowników.
http://www.overclock.net/pc-games/951124-bulletstorm-artifacts-6900-series-cards-2.html
Czy te problemy wynikają z braku kompatybilności gry z nowymi kartami czy też sterowniki nie są dopracowane? Używam najnowszych (11.2).
Otóż NIE MOŻNA podawać zysku konkretnego efektu jako "zyskanych klatkach na sekundę". FPS jest owszem, najpopularniejszą skalą w "poglądowych" benchmarkach, ale pamiętajmy, że to nie jest skala liniowa- nie można sumować sobie, że jeśli np. tekstury wysokiej jakości zabierają X fps, a postprocessing Y fps, to razem zabiorą X+Y. Nic bardziej mylnego! Stwierdzenie "10 FPS więcej" nie niesie zupełnie żadnych informacji, bo spadek 50->60 FPS i 10->20 FPS to ogromna różnica - w jednym przypadku efekt zajmuje połowę czasu rysowania klatki, w drugim jedynie mniejszy ułamek.
Aby takie benchmarki miały sens, należy używać właściwszej (liniowej) skali, czyli po prostu czasu rysowania klatki - na przykład ms/f.
Pozdrawiam i życzę powodzenia w dalszych artykułach!