hbm3e
Samsung pracuje nad technologią, która pozwoli umieścić pamięć HBM bezpośrednio na procesorze lub układzie graficznym
Innowacyjność w branży nowych technologii sprawia, że mamy do dyspozycji coraz wydajniejszy sprzęt, który w dodatku cechuje się lepszą efektywnością energetyczną. Także rynek pamięci HBM podlega tym przekształceniom. Firma Samsung planuje już wkrótce wprowadzić do swojej oferty rozwiązania sprzętowe, które zakładają umieszczenie chipów pamięci bezpośrednio na procesorze lub układzie graficznym. Takie podejście będzie miało szereg zalet.
Pamięci HBM3 i HBM3E Samsunga nie przeszły wewnętrznych testów NVIDIA. Problemem wysokie temperatury
Samsung na rynku pamięci operacyjnej HBM nieco odstaje od konkurencji, która obecnie cieszy się pełną masową produkcją chipów HBM3E. Oliwy do ognia dolewają problemy związane z nieprzejściem testów wewnętrznych NVIDIA, co na ten moment wyklucza możliwość dostarczania chipów pamięci dla akceleratorów graficznych B200 i H200. Sytuacja jest dynamiczna, ponieważ dotychczasowy szef działu półprzewodników Samsunga pożegnał się ze stanowiskiem.
SK hynix kolejną firmą, która rozpoczęła masową produkcję pamięci HBM3e. Jej przeznaczeniem będą układy NVIDIA B200
NVIDIA zaprezentowała podczas GTC 2024 pierwszy układ graficzny z rodziny Blackwell. B200 to rozwiązanie przeznaczone na rynek sztucznej inteligencji. Jedną z cech sprzętu będzie niezwykle szybka pamięć HBM3e. Firma SK hynix ogłosiła właśnie uruchomienie jej produkcji masowej. Dużą część zarezerwowała NVIDIA z myślą o nowych akceleratorach. Warto przy tym odnotować, że SK hynix nie jest pierwszym podmiotem, który rozpoczął produkcję tej pamięci.
NVIDIA B200 Tensor Core - akcelerator graficzny oparty na architekturze Blackwell. Na pokładzie m.in. 192 GB pamięci HBM3e
Mniej więcej w podobnym okresie czasu, dwa lata temu, NVIDIA zaprezentowała pierwszy akcelerator graficzny, oparty na architekturze Hopper. Mowa o układzie NVIDIA H100, który dzisiaj jest jednym z kluczowych czynników wpływających na wyniki finansowe przedsiębiorstwa. Po dwóch latach od ujawnienia architektury Hopper, przyszła pora na prezentację jego następcy. Mowa o generacji Blackwell, która tym razem została przygotowana zarówno pod zastosowania profesjonalne, jak również rozwiązania dla graczy....
Micron rozpoczyna masową produkcję chipów pamięci HBM3e o pojemności 24 GB. Trafią do układów graficznych NVIDIA H200
W tym roku na rynku powinny zadebiutować układy NVIDIA H200. Będzie to następca modelu H100, który zdobył bardzo dużą popularność wśród podmiotów zajmujących się treningiem sztucznej inteligencji. Sprzęt kolejnej generacji będzie wyposażony w szybką pamięć HBM3e. Firma Micron ogłosiła właśnie rozpoczęcie masowej produkcji chipów o pojemności 24 GB. W niedalekiej przyszłości ruszy także produkcja chipów 36 GB.
SK hynix nie nadąża z produkcją pamięci HBM. Zapasy przewidziane na 2024 rok zostały już wyprzedane
Sztuczna inteligencja jest ciągle w trendzie wznoszącym. To między innymi z tego powodu firmy zajmujące się produkcją komponentów, wykorzystywanych w szeroko pojętym segmencie centrów danych, nie mogą narzekać na brak zamówień. Dotyczy to również pamięci HBM, którą produkuje między innymi koreański SK hynix. Okazuje się, że także w tym przypadku klienci muszą ustawiać się w długie kolejki i nic nie wskazuje na to, że w najbliższej przyszłości to się zmieni.
NVIDIA zarezerwowała duże ilości pamięci HBM3e. Będzie wykorzystywana przez nadchodzące układy H200
W przyszłym roku NVIDIA wprowadzi na rynek akceleratory H200. Oczywiście cały proces wymaga odpowiednich przygotowań. Ich częścią jest zamówienie wystarczającej liczby podzespołów. Dotyczy to także pamięci HBM3e, którą omawiana konstrukcja będzie wykorzystywała. Koreańskie źródła prasowe donoszą, że amerykańska firma dokonała już odpowiednich zakupów w ramach przedsprzedaży. Ma to zapewnić większą podaż układów w przyszłości.
SK hynix dostarcza już próbki pamięci HBM3E do partnerów. Na liście między innymi NVIDIA
Plany NVIDII na przyszły rok zakładają debiut superchipów GH200 w wariancie, który będzie opierał się na wykorzystaniu pamięci HBM3E. Firma SK hynix ogłosiła, że ukończyła zasadniczą część prac nad nową pamięcią i rozpoczęła rozsyłanie próbek do swoich klientów. Rozpoczęcie produkcji masowej jest spodziewane w pierwszej połowie 2024 roku, co potwierdza, że superchipy GH200 z HBM3E zadebiutują w jego drugiej połowie.
NVIDIA GH200 - układ zostanie wyposażony w pamięć HBM3e o imponującej przepustowości nawet 10 TB/s
NVIDIA GH200 to rozwiązanie przeznaczone przede wszystkim do budowy superkomputerów. Wśród potencjalnych zastosowań jest generatywna sztuczna inteligencja, której algorytmy będą w stanie wykorzystać w pełni potencjał superchipów Grace Hopper. Podczas konferencji SIGGRAPH NVIDIA zapowiedziała nową wersję układów. Główna różnica sprowadza się do zastosowania pamięci HBM3e, która jest obecnie uważana za najszybszą na świecie.
SK hynix przygotowuje się do produkcji nowej pamięci HBM3E. Zaletą rozwiązania jest szybszy transfer danych
Pamięć typu HBM3 znajduje zastosowanie przede wszystkim w zadaniach związanych ze sztuczną inteligencją. Zapotrzebowanie na tego typu sprzęt wzrasta i nieustannie dokonuje się postęp, dzięki któremu do odbiorców trafią coraz wydajniejsze rozwiązania sprzętowe. Przed pojawieniem się HBM4, SK hynix planuje dostarczyć na rynek pamięć HBM3E, która zaoferuje znaczący wzrost wydajności w porównaniu do swojego starszego odpowiednika.
Wyniki konkursu na 18. urodziny PurePC - Rozdaliśmy karty graficznie, laptopy, procesory i wiele innych cennych nagród
Upadek gier z kategorii AAA, czyli dlaczego sięgam coraz częściej po produkcje retro i gry niezależne
AMD Radeon RX 8000 - karty graficzne RDNA 4 zadebiutują w 2025 roku. Najpierw NAVI 48, potem NAVI 44
Noctua NH-D15 G2 - premiera kolejnej generacji flagowych coolerów z wydajnymi i cichymi wentylatorami
Test procesora AMD Ryzen 5 3600 pięć lat po premierze. Tanie sześć rdzeni kontra Intel Core i3-12100F. Obydwa kosztują 350 złotych