Dokładniejsze zbadanie przyśpieszenia działania systemu za pomocą dynamicznie działającej technologii wymaga czasu, a precyzyjne pomiary są trudne. Testy syntetyczne nie do końca pozwalają stwierdzić, na ile szybki może być Momentus XT - jego prawdziwą wartość wykazują dopiero testy w bardziej rzeczywistych zastosowaniach, gdy może on załadować najczęściej używane dane do pamięci flash.
Wstępne testy wykazały, że kilkukrotne powtórzenie danych działań w systemie może faktycznie przynosić wzrost wydajności, w niektórych przypadkach niemal do wspomnianych przez producenta 80%. Po kilku restartach czas ładowania Windows widocznie się skraca, każda aplikacja również będzie się uruchamiać coraz szybciej.
Na pierwszy rzut oka można stwierdzić, że Momentus XT to stary dysk 7200.4 wyposażony w większą ilość pamięci podręcznej, oraz drugą, specyficzną pamieć cache w postaci flash. Oczywiście w pewnym sensie tak jest, jednak nie zapominajmy, że dane zapisane w pamięci flash nie znikają w przypadku braku zasilania – wszystkie nadal spokojnie spoczywają w „części SSD”. Momentus XT oczywiście nie mógł odziedziczyć po dyskach SSD ich energooszczędności – zasilana musi być zarówno sekcja magnetyczna, jak i flash, więc pobór energii nie może być niższy.
Seagate Momentus XT to naprawdę ciekawa konstrukcja, na którą powinni zwrócić uwagę posiadacze nie tylko komputerów przenośnych, ale i pecetów stacjonarnych. Dysk oferuje technologie, które znacznie przyspieszają działanie systemu (Adaptive Memory), a zarazem jest pojemny i znacznie tańszy od dysków SSD. Nie należy jednak po nim oczekiwać świetnych osiągów w każdym przypadku. Czasem będzie on działał po prostu jak szybki dyski magnetyczny.
Pierwsze dyski hybrydowe pojawiły sie na rynku już w 2007 roku, ale były one konstrukcjami delikatnie mówiąc niedoskonałymi, a mówiąc wprost – totalnie nieudanymi. Zupełnie inaczej ma się sprawa z Momentusem XT. Firma Seagate solidnie przemyślała swój produkt i to, co zostało wprowadzone na rynek, faktycznie działa i to zadziwiająco dobrze. Nie sposób nie wspomnieć też o fakcie, że dyski Momentus XT mają aż 5-letnią gwarancję, co powinno pozytywnie wpłynąć na „spokój sumienia” potencjalnych nabywców. :-)
Recenzja produktu Seagate poprzedza kolejny zbiorczy test nośników danych. Pierwsza część testu ukazała się na naszych łamach w maju, druga pojawi się już niedługo. Znajdziecie w niej między innymi zewnętrzne dyski 2,5 cala wyposażone w interfejs USB 3.0, a także najnowszą wersję dysku WD VelociRaptor. W tym zestawieniu znajdzie się także Seagate Momentus XT.
Nasza ocena: Seagate Momentus XT
plusy:
- technologia Adaptive Memory
- pojemny i szybki
- 5 lat gwarancji
- niska emisja ciepła i ograniczenie drgań
- droższy od tradycyjnych twardych dysków
- brak wsparcia dla SATA 6Gb/s
Orientacyjna cena w dniu publikacji testu: ok. 440 zł (300 GB), ok. 650 zł (500 GB)
Komentarze
70Nie potrzeba jakiś ekstra sterowników, baterii podtrzymujących. Dla mnie dysk rewelacja.
Czy programy uruchamiają się szybciej ? Jeśli tak, to jaka jest różnica? Podane jest że wzrost wydajności może w niektórych przypadkach sięgnąć 80%
No ale o jakim "przypadkach" jest mowa ? Co znaczy zauważalnie szybko.. 5 - 10 - 15 sek? Jakie aplikacje lub programy ? Czy system Windows sam będzie mógł dostosować sie to tego rodzaju dysku, czy jedynie kontroler na dysku o tym decyduje gdzie co ma być zapisywane.
Jeśli tej pamięci byłoby więcej - chociaż 16GB to byłby wart uwagi. No i wolałbym sam o tym decydować gdzie jaką aplikację chcę umieścić..
Średnia 2.8 dobrze odzwierciedla jakość tego testu.
Co? ;)
Przecież główną cechą tego dysku jest technologia Adaptive Memory a ta nie działa w syntetykach tylko w praktycznym długotrwałym użytkowaniu, poza tym dlaczego nie ma porównania do Baraki 7200.12 i F3?
Gdybyście dodali test czasu ładowania się systemu, jakiejś aplikacji i np. często uruchamianej gry to zapewne nikt by nie narzekał.
Dlaczego? Zacznę od końca. W minusach czytamy, iż wadą testowanego dysku jest brak obsługi SATA w wersji 6.0 G/s. Czy aby na pewno? Do chwili obecnej żaden dysk talerzowy nie zdołał wykorzystać SATA 3.0 Gb/s w 100%. Cóż zatem dałby tutaj szybszy interfejs? NIC! Absolutnie. Skoro nic by nie dał, to dlaczego jego brak jest wadą? Zgadzam się natomiast, że jego wadą jest _znacznie_ wyższa niż tradycyjnego dysku cena.
W plusach wypisano Adaptive Technology, jednak w artykule brak dowodów na jakikolwiek wpływ tej technologii na wydajność. Odpowiednich testów nie wykonano. Zatem dlaczego pochwala się coś, czego działania w żaden sposób nie sprawdzono??
Bardzo ciekawa jest też kolejna zaleta, pojemny i szybki. Należało by zadać pytanie względem czego? Na rynku od dawna są pojemniejsze dyski, zarówno do notebooków (750 - 1TB) jak i do komputerów stacjonarnych (2TB).
Jeśli chodzi o wydajność? To z tego co widać na wykresach kładzie go na łopatki najtańszy Intelowy SSD, który notabene jest również od niego tańszy. Dopiero stare konstrukcje 5400 obr/min faktycznie polegają.
Jeśli jednak zerkniemy na zestawienie z nowoczesnym Momentusem 7200.4 to różnica wydajności jest niewielka. Ten ostatni natomiast jest prawie o połowę tańszy.
Cała tabelka z plusami i minusami jest rozpisana na siłę i nie ma zbyt wiele wspólnego z faktycznymi zaletami i wadami testowanego dysku!
We wstępie czytamy pochwały na temat słuszności powstania konstrukcji i zapewnienia jak to powinna ona zapewnić klasycznym HDD zbliżenie wydajnością do konstrukcji SSD. Wnioski z przeprowadzonych szczątkowych testów są zgoła inne. Momentus XT poległ z najtańszym dyskiem SSD. Jest niewiele szybszy od dwukrotnie tańszego Momentusa 7200.4, zatem skąd zachwyty nad jego konstrukcją w podsumowaniu?
Autor pisze, że powtórzenie danych działań w systemie powoduje faktyczny wzrost wydajności - no pewnie, działa wtedy mechanizm cache systemu operacyjnego!
Okazuje się, ze testowany dysk jest tak dobry, że w ciemno poleca się go do komputerów stacjonarnych, bez żadnego porównania z jakąkolwiek nowoczesną konstrukcją dysku 3.5''. W takim zestawieniu dysk niestety poległby z kretesem, no ale tych danych nam nie przedstawiono.
Panie Wojtku, skoro zgadza się Pan, że ten test można było zrobić lepiej, dlaczego tego nie zrobiliście? Czy w redakcji nie ma żadnej korekty przeglądającej teksty przed publikacją?
W najlepszym wypadku czytany tutaj artykuł można nazwać niedokończonym. Czy na prawdę problemem było przetrzymanie dysku w redakcji parę dni dłużej w testach? Skoro faktycznie jest to taka nowość, taki rarytas - to dlaczego redakcja prezentuje tak płytkie podejście do tematu?
Brak mi natomiast słów na reakcję w stylu "zróbcie lepiej" Panie Wojtku, to przecież redakcja ma zachęcać czytelników publikacjami, a nie czytelnicy generować publikacje dla redakcji. Zgadza się?
Zdaję sobie sprawę, że mini-recenzje z punktu widzenia redakcji są tanie. Maksymalnie 50zł w punktach plus ewentualne koszta przesyłki sprzętu w obie strony. Bezimienny redaktor tester pewnie zainkasował znacznie więcej. Tylko czy aby na pewno już tylko o to chodzi? Robimy co się da, najtaniej jak się da? Benchmark zawsze słynął z jakości publikacji, dlaczego ten wieloletni dorobek zostaje zaprzepaszczony przez ostatnie miesiące? Wszyscy obserwujemy sukcesywne obniżanie się poziomu publikacji. Dużo niżej już zejść nie można.
PS. Panie Wojtku, nadal czekam na odpowiedzi na moje pytania w stosownym wątku na forum. Skoro miał Pan odwagę zaatakować mnie w komentarzach a następnie na forum - proszę nie chować głowy w piasek!
Osobiscie zaczynajac czytac test nie moglem sie "doczekac" az dojde do czesci praktycznej a tu sie okazalo ze takiej nie ma ;(
Na jakiej zasadzie to działa? Nikt nie raczył napisać, czy po podłączeniu widzimy 2 partycje - 1 SSD i 1 tradycyjna, czy tylko 1-partycjowy kogel-mogel. Zakładam, że to drugie.
Czym właściwie kieruje się "rozum dysku" przy decydowaniu co gdzie zapisać? Powinien w części SSD zapisywać pliki o niewielkim rozmiarze, w przypadku których najbardziej liczy się czas dostępu, bo dysk talerzowy nie zdąży się w ich przypadku rozpędzić. W tekście napisano, że tam trafią najczęściej używane pliki. Czyli może się zdarzyć, że pamięć SSD, zamiast zwiększyć wydajność, stanie się magazynem zdjęć w negliżu, jeżeli użytkownik komputera będzie je z odpowiednią częstotliwością przeglądał. Zresztą co to ma zmienić, skoro SSD to zaledwie 4GB - system na to nie wejdzie.
Jak dla mnie do notka to może jeszcze jest jakiś sens kupować. Ale do puchy? Pierwszy z brzegu dysk SSD 30GB (w testach znacząco zwycięża) + 1TB WDBlack / F3 wyjdzie niewiele drożej (w przeliczeniu cena/pojemność taniej o ok. połowę). Na SSD postawimy system i najczęściej używany soft, a na HDD resztę. I z pewnością będzie to śmigać szybciej.
Z jednej strony jest mowa, że zasada działania jest nowatorska. Z drugiej dysk jest testowany narzędziami które nie są w żaden sposób stanie wykazać działania dynamicznego przenoszenia danych między nośnikiem magnetycznym i flash. I co więcej jest to jasno sygnalizowane komentarzami pod wynikami testów.
No więc po co w ogóle robić takie testy ? Mechanizm wykaże swoje działanie ale "w praniu" - skrócenie czasu uruchamiania systemu, aplikacji przy kilkakrotnym wykonaniu danej operacji (gdy algorytm zakwalifikuje dane jako często używane). Test zawiera spostrzeżenie że takie zjawisko występuje ale poświęcono temu tylko fragment testu.
Wg. mnie powinno być odwrotnie tj. max. jedna strona - klasyczne benchmarki (które pokazują, że dysk jest szybki ale w ogóle nie pokazują działania mechanizmu przenoszenia danych w locie), reszta - testy jak ten mechanizm daje radę w praktyce. O ile skraca się czas uruchamiania aplikacji, jak szybko występuje ta adaptacja itp. itd.
Drodzy koledzy. Technologia ma dość proste założenia i co się z tym wiąże dość mizerne efekty. Ale może od początku: Dysk "nie widzi" plików tylko sektory danych, więc nie liczcie na to, że do pamięci Flash trafią jakieś pliki. Tam trafią najczęściej czytane sektory z talerza. Ile razy musi być czytany sektor aby tam trafił to zalezy od producenta, jakoś to musiał ustalić i czymś się kierował. Od razu widać, że nie jest to prosta sprawa. Zbyt mała liczba spowoduje dużą rotację dublowanych sektorów, zbyt duża liczba wymaganych odczytów spowoduje, że przenoszenie sektorów będzie następować dość rzadko. Wydaje się jednak, że będzie to raczej większa liczba niż mniejsza i "10 wczytań gry" to zbyt mało, żeby zapoczątkować przenoszenie.
Kluczowe znaczenie ma ilość pamięci Flash. Co najmniej z dwóch powodów. Im więcej tej pamięci tym szybciej sektory mogą być przenoszone, no i osiągi podsystemu Flash - im więcej kostek tym szybciej czyta/zapisuje. Tu dochodzimy do sedna sprawy. 4GB pamięci to raptem jedna, może dwie kostki Flash. Pojedyncza kostka wyciągnie 35MB/sec w odczycie. W najlepszym więc przypadku (70MB/sec) odczyt z kostek jest i tak wolniejszy niż z talerzy. Zyskujemy głównie na czasie dostępu, który będzie dużo niższy niż z talerzy. Ale czy skrócenie czasu dostępu do pewnej niewielkiej ilości komórek usprawiedliwi sens tej technologii i jej koszty?
Przyszłość technologii zależy głównie od jej ceny, jednak już teraz widać, że koszty są spore. Muszą być kostki Flash (im więcej tym lepiej), musi być kontroler zarządzający kostkami (tak jak w typowym SSD) i przepływem danych, trzeba ulepszać algorytmy. Póki co, cena niewspółmierna do uzyskiwanych efektów i wydaje się, że za szybko się ten stan rzeczy nie zmieni....
http://allegro.pl/item1163039441_new_hybryda_hdd_ssd_seagate_momentus_xt_500gb_fv.html
pozdro
janek
artykuł oczywiście bardzo interesując, a w kwestii dysków zaczekam na większą ilość komentarzy ich użytkowników ;)
Posiadam takowy dysk 500gb
Gdy go wsadziłem do lapka asusa n53jn zaczął dosłownie pykać.
Jest na to jakaś rada ?
Dane ze smarta jak by były potrzebne
http://img227.imageshack.us/img227/8938/beztytuuhfq.jpg