Technologia

NVIDIA Niczym Nie Marnuje! Wadliwe RTX 4090 Można Sprzedać!

2024-10-27

Autor: Andrzej

NVIDIA, gigant w dziedzinie technologii graficznych, znalazła sposób na maksymalizację swoich zysków. Procesor graficzny z GeForce RTX 4090 służy również do stworzenia modelu RTX 4070 Ti Super, ale aby to osiągnąć, firma musi znacznie przyciąć specyfikację tego GPU.

W masowej produkcji chipów powstają wadliwe egzemplarze, a ich liczba może być zaskakująco duża. Aby wydobyć jak najwięcej zysków, NVIDIA postanowiła wykorzystać uszkodzone procesory graficzne, które po odpowiednim „okrojeniu” nadają się do produkcji innych modeli kart graficznych. W przypadku flagowego chipu w obecnej generacji, AD102, jest to szczególnie istotne, jako że bazuje na nim karta GeForce RTX 4090.

Nieoczekiwane zastosowanie wadliwych jednostek AD102 jest kluczowym elementem w produkcji RTX 4070 Ti Super. Przykładem takiego modelu jest Zotac Solid OC, który posiada chip oznaczony jako AD102-175-KEF-A1. Warto zauważyć, że tradycyjnie do produkcji RTX 4070 Ti Super używany jest procesor AD103, jak w konstrukcji Zotac AMP Holo.

Rozmiar GPU nie pozostawia wątpliwości!

Najnowsze grafiki ujawniają, że procesor graficzny z Zotac Solid OC jest znacznie większy niż ten użyty w AMP Holo, co wskazuje na to, że odpowiada on jednostce znajdującej się w Zotac RTX 4090 Trinity OC. Aby przekształcić AD102 w RTX 4070 Ti Super, NVIDIA musi znacznie ograniczyć jego specyfikację. Oryginalnie AD102 ma aż 18432 jednostki cieniujące, podczas gdy RTX 4070 Ti Super wymaga tylko 8448, co oznacza redukcję o ponad połowę.

Dodatkowo trzeba zwrócić uwagę na to, że większa powierzchnia rdzenia GPU może wpływać na temperatury karty. Ciepło jest odprowadzane do radiatora z większego fragmentu krzemu, z którego znaczna część jest na dodatek dezaktywowana, co może wpływać na efektywność chłodzenia.

To innowacyjne podejście NVIDII budzi kontrowersje, ale również wskazuje na ich strategiczne myślenie w obliczu rosnącej konkurencji na rynku kart graficznych. Czy to może być przyszłość produkcji GPU? Obserwujcie nas na bieżąco, aby nie przegapić kolejnych nowinek ze świata technologii!