1997 - Nvidia Riva 128 była jedną z pierwszych kart graficznych, która wykorzystywała nowoczesną (jak na ówczesne czasy) magistralę AGP. Nowa karta „zielonych” pokonała konkurencyjnego 3Dfx Voodoo i okazała się takim hitem, że przez pierwsze cztery miesiące udało się sprzedać jej milion sztuk. (foto: Wikipedia)
1998 – Rok później 3Dfx wprowadziło na rynek model Voodoo 2 – jeszcze wydajniejszy akcelerator, który okazał się być nowym liderem wydajności. Największą nowością było jednak zastosowanie technologii SLI (Scan Line Interleave), która umożliwiała połączenie dwóch kart graficznych, aby wspólnie zajmowały się renderowaniem obrazu – każdy rdzeń generował co drugą linię obrazu. Podobna funkcja ta jest wykorzystywana do dzisiaj w kartach Nvidii. (foto: tdfx)
1999 - ATi Rage Fury MAXX zapisał się w historii jako pierwsza karta graficzna z dwoma procesorami na jednym laminacie. Podobnie jak w Voodoo 2 obydwa rdzenie zajmowały się generowaniem obrazu, ale w tym przypadku wykorzystano technikę AFR (Alternate Frame Rendering – naprzemiennego renderowania klatek). (foto: VGA Museum)
1999 – Narodziny marki GeForce, która pochodzi od połączenia słów Geometry i Force. Na rynku pojawiła się karta GeForce 256, która bazowała na konstrukcji modelu Riva TNT 2. Producent zastosował jednak więcej jednostek obliczeniowych oraz sprzętową obsługę transformacji i oświetlenia (T&L), co można było wykorzystać w takich tytułach, jak Quake III Arena czy Unreal Tournament. GeForce 256 był również zgodny z DirectX 7. (foto: VideoCardz)
2000 – Ostatnie lata XX. wieku to też nieustanna walka między 3Dfx i Nvidią – rozwiązanie tej kwestii miał przynieść Voodoo 5 6000 wyposażony w cztery procesory graficzne VSA-100, ale ostatecznie ta druga firma przejęła swojego konkurenta. Co prawda karta nigdy nie trafiła do masowej sprzedaży, ale najwięksi entuzjaści sprzętu mają w swojej kolekcji mniej lub bardziej dopracowane próbki inżynieryjne Voodoo 5 6000. (foto: tdfx)
2000 – Mieliśmy pierwszego GeForce’a, więc pora na pierwszego Radeona – w 2000 roku pojawił się model ATi Radeon 256 (występujący również pod oznaczeniem ATi Radeon lub ATi Radeon DDR). Karta również oferowała sprzętową obsługę transformacji i oświetlenia (T&L), a ponadto była zgodna z DirectX 8. (foto: VideoCardz)
2002 – ATi kontynuuje ofensywę i dwa lata po modelu Radeon 256 pojawia się Radeon 9700 Pro, a więc pierwsza karta graficzna zgodna z DirectX 9. Producent zastosował tutaj układ graficzny ATi R300 i 128 MB pamięci DDR 256-bit, co pozwoliło roznieść w pył konkurencyjnego GeForce 4 Ti 4600. Co tu dużo mówić, niegdyś marzenie każdego szanującego się gracza.
2004 – Co prawda karty z serii Nvidia GeForce FX 5000 nie należały do zbyt udanych konstrukcji, ale to właśnie one jako pierwsze wykorzystały magistralę PCI-Express (zastosowano tutaj mostek AGP – PCI-Express). Usprawnione modele zostały oznaczone jako seria GeForce PCX - na zdjęciu topowy przedstawiciel: GeForce FX 5950 Ultra (AGP) i GeForce PCX 5950 (PCIe). (foto: TechPowerUp).
2004 – Nvidia wróciła do gry dopiero po wydaniu serii GeForce 6000, która konkurowała z modelami Radeon X, ale oferowała nowsze rozwiązania technologiczne - wprowadziła obsługę DirectX 9.0c i Shader Model 3.0, a topowe modele można było łączyć w trybie SLI. Na zdjęciu tandem dwóch topowych modeli GeForce 6800 Ultra. Co prawda w planach był też wyżej taktowany model GeForce 6800 Ultra Extreme, ale producent ostatecznie zrezygnował z wprowadzenia go na rynek. (foto: PC World)
2005 – ATi najwyraźniej pozazdrościło możliwości łączenia dwóch kart graficznych i rok później wprowadziło swoje konkurencyjne rozwiązanie o nazwie CrossFire – po raz pierwszy wykorzystano je w modelach Radeon X850 XT, ale konieczne tutaj było zastosowanie specjalnej wersji akceleratora (tzw. CrossFire Master). (foto: CdrInfo)
2006 – Seria GeForce 8000 wprowadziła obsługę DirectX 10 oraz zunifikowanych jednostek cieniujących, a tym samym zapoczątkowała całkowicie nową erę kart graficznych. GeForce 8800 GTX przez długi czas dominował w rankingach wydajności, a chip G80 okazał się tak dobry, że Nvidia wykorzystała go w dwóch kolejnych seriach kart graficznych.
2009 – Radeon HD 4890 należał do najlepszych kart graficznych minionego dziesięciolecia. Co prawda ATi chwaliło się, że model ten jako pierwszy przekroczył 1 GHz na procesorze graficznym, ale częstotliwość tą uzyskiwano dopiero po przetaktowaniu (standardowy zegar wynosił „tylko” 850 MHz).
2009 – W tym samym roku na rynku pojawiła się całkowicie nowa generacja kart graficznych ATi Radeon HD 5000, która mogła pochwalić się sprzętową obsługą DirectX 11. Radeon HD 5870 oferował porównywalne osiągi do podwójnego Radeon HD 4870 X2, a przy tym charakteryzował się stosunkowo niewielkim zapotrzebowaniem na energię i cichą pracą. W dniu premiery uznaliśmy go za najnowocześniejszą, a przy tym w wielu zastosowaniach także najwydajniejszą kartą dostępną na rynku.
2010 – Rok później na rynku zadebiutowały karty GeForce 400 „Fermi”, które można uznać za pierwszą generację zgodną z DirectX 12 (przynajmniej częściowo). Topowy przedstawiciel serii - GeForce GTX 480 okazał się tak gorącą propozycją, że przez niektórych był wykorzystywany nie tylko do generowania grafiki, ale również do smażenia jajek :-).
2011 – Pod koniec 2011 roku pojawił się Radeon HD 7970, a więc pierwsza karta graficzna na bazie nowoczesnej architektury Graphics Core Next (wykorzystywanej przez producenta przez kolejne 8 lat). Karta przejęła koronę króla wydajności, a przy tym charakteryzowała się niezbyt wysokimi temperaturami i stosunkowo niewielkim pobór energii w odniesieniu do oferowanej wydajności. Co prawda AMD przejęło ATi już w 2006 roku, ale formalnie była to też pierwsza seria Radeonów pod marką AMD.
2013 – Nvidia najwyraźniej zaczęła obawiać się kart bazujących na architekturze GCN, więc postanowiła wydać konstrukcję, która ostatecznie zdeklasuje konkurencję. Taką kartą miał być GeForce GTX Titan - przedstawiciel nowej marki, która teoretycznie miała łączyć segment konsumencki i profesjonalny.
2014 – Kolejny rok przyniósł generację Nvidia Maxwell. W tym momencie warto jednak wspomnieć nie o topowym modelu GeForce GTX 980 lub GTX 980 Ti, ale o nieco słabszym GeForce GTX 970 - mimo afery z pomniejszoną pojemnością pamięci wideo (3,5+0,5), karta spotkała się z ogromnym zainteresowaniem ze strony klientów. Do dziś jest to najpopularniejsza konstrukcja wśród użytkowników platformy Steam.
2015 – Z biegiem czasu do uzyskania coraz większej wydajności pamięci wideo konieczne było wygospodarowanie coraz większej powierzchni na laminacie kart graficznych. Było to dosyć problematyczne. Firmy AMD i SK Hynix zawiązały więc partnerstwo technologiczne i postanowiły opracować nowy standard pamięci, który nie będzie hamował rozwoju kart graficznych – tak powstała pamięć High Bandwidth Memory (HBM), którą po raz pierwszy wykorzystano w modelu AMD Radeon R9 Fury X.
2016 – Ostatnie lata to rozwój wirtualnej rzeczywistości (VR) – dosyć drogiej technologii, przez co początkowo była ona dostępna dla nielicznych. Firma AMD postanowiła jednak upowszechnić nowe rozwiązanie i w 2016 roku przygotowała kartę Radeon RX 480. Historycznie mówimy o pierwszej taniej konstrukcji (poniżej 200 dolarów), która pozwalała korzystać z gogli VR.
W 2018 roku na rynku zadebiutowały karty graficzne Nvidia GeForce RTX (Turing), które pozwoliły na sprzętową obsługę technologii ray tracing (śledzenia promieni w czasie rzeczywistym). Rozwiązanie przyczyniło się do poprawy realizmu w grach i obecnie jest coraz chętniej implementowane przez deweloperów. Niewątpliwie jest to przyszłość jeżeli chodzi gaming, również na konsolach.
Komentarze
20Uruchomienie planowane na przyszły rok.
EDIT: Nawiązując do ATi 9700 - kto pamięta odblokowywanie potoków renderujących w ATi 9500 sterowniami Omega :) ?
jednak jeśli chodzi o magistralę AGP, to jej bezpośrednim poprzednikiem jest ...... Vesa Local Bus, i na tym projekcie oparło się to całe AGP które było rozwijane do wersji x8, poczym zostało wyparte przez intelowe PCI Express.