Witam! przymierzam się do zakupu nowej karty graficznej. co byście wybrali na moim miejscu RTX 2070 czy radeona RX 5700? pomóżcie mi się zdecydować :)
2070
Jeżeli patrzeć tylko na stosunek cena/wydajność AMD nieznacznie wygrywa ale masz większe prawdopodobieństwo problemów sprzętowych i/lub ze sterownikami.
Nie lepiej RTX 2060 Super? Chyba że kupujesz używaną RTX 2070.
Jakim grzejnikiem?
https://pclab.pl/art81248-24.html
Różnice są bardzo małe na korzysc Nvidii jezeli chodzi o pobór
Za RTX przemawia raytracing i byc moze lepsze sterowniki, ostatnio tez sporo czytalem ze pod Navi sterowniki sa niedopracowane, ale tak naprawde z Nvidia moze byc poodbnie, nie wiem, nie mialem
Ja bym wział jednak tego RTX'a ze wzgledu na wlasnie RT (bo wydajnosc obie karty maja bardzo podobna), bo gry ktore wyjda powiedzmy za rok, moga wymagac rt do samego odpalenia, tak przynajmniej mysle, ze taka sytuacja moze sie zdarzyc
Najlepiej to poczekac imo na RTX 3060, sam moze sie zdecyduje na ta karte
edit. no dobra ma jakies dziwnie wysokie temperatury Radeon, lepiej nie ryzykowac
Radeon w stresie potrafi mieć 90 stopni przy 70 nvidii. Jeśli dodatkowo trafi się na lipne chłodzenie, to karta będzie wyć niemiłosiernie.
https://www.youtube.com/watch?v=5McVc0SQMHU
Tu masz temperatury w 3:58 i 6:38 na tym co wysłałeś są testy referenta.
przy pełnym obciążeniu jest niesłyszalna , temperatura
maksymalna 62 stopnie
przy pełnym obciążeniu jest totalnie niesłyszalna
Chłodzenie daje radę naprawdę temperatury
max to 71°C
Z opinii z xkomu wynika że najtańszy Gigabyte jest cichy i dość chłodny.
Ale wracając do tematu to patrząc na problemy ze sterownikami wziąłbym RTXa
Z tego materiału wynika, że ten giga w stresie temp gpu ma ponad 80 stopni.
Te niskie temperatury mają karty, których ceny zaczynają się od 2k zł.
Tylko że jest to test XT, a ja piszę o nie XT. Wiem trochę pomieszałem
Tak czy inaczej, jeśli dobrze widzę, to następny wykres pokazuje temperatury w systemie auto (popraw mnie jeśli się mylę) i tam temp są od 80 do 90 stopni na luzie.
Radeon jest dla mnie zbyt nieprzewidywalny, niby cena niska ale zawsze jakieś ale.
IMO na temperatury gpu junction nie warto patrzeć szczególnie dlatego że nie wiemy jakie one są na RTXach
Junction temperature is the actual operating temperature of the transistors inside the gpu.
Junction temperature can go as high as 120°c
Tyle dowiedziałem się z reddita
2060 Super. Taniej, szybciej, ekonomiczniej, ciszej od obu :)
NewGravedigger -> od nvidii jak kupisz jakies ega, palita czy inne najtanisze guano tez dostaniesz goraca suszarke. To jak grafa pracuje zalezy od producenta grafiki, a nie tego ze to AMD, a tamto NVIDIA i oczywiscie za komfort sie placi.
Nie oszukuj, przecież rx 5700 jest tak samo wydajny jak 2070 super, a RX 5700xt wygrywa z rtx 2080...
A tutaj prawdziwe wyniki, z testu przeprowadzonego na stabilnej grze (a nie BFV czy AC:O) przy w miare aktualnym oprogramowaniu (sprzed miesiąca)
5700 xt nawet nie dorownuje 2070 Super/2080/1080 ti. Do każdej z tych kart brakuje jakies 10%, zwłaszcza 1080ti
Legion 13 - wiesz dlaczego moc GPU na ten moment odczytuje się w 4K (choćby) aby CPU nie było wąskim gardłem, testy w 1080p czy 1440p zakłamują wynik, są robione po to bo ludzie w tych rozdzielczościach grają. Jeśli chcesz uzyskać realną odpowiedź jakie gpu jak jest wydajne to wybierasz
a) wysokie dociążenie GPU czytaj rozdzielczość i ustawienia
b) grę na silniku która nie powstawała w kooperacji z danym producentem gier, BF jako marka od dawna współpracuje z AMD, tak samo jak wiele innych firm z Nvidią.
po co to robisz, m.in. dlatego że z miesiąca na miesiąc będą wychodziły gry które będą wymagały więcej mocy po stronie GPU i wtedy rozjazd wydajności będzie zawsze na korzyść GPU mocniejszego. Mówiąc dosadniej trzeba być nie lada jeleniem aby wybrać 5700 zamiast 2070, a nawet nie wiele mniejszym wybierając 5700XT bo technologicznie jednak NV oferuje o wiele więcej + dostajemy całkiem fajne dodatki w różnych grach z GW.
Skalowanie pomiedzy rodzielczościami nie jest idealne - wszystko zależy od gry i samej karty, dlatego wydajność sprawdza się w rozdzielczości docelowej. Żeby procesor był bottleneckiem musiałbyś testować gry sprzed 4 lat albo w ustawieniach Medium. W nowych grach w 1440p procesor nie ma prawa ograniczać GPU, nawet 1080p w większości przypadków będzie ok. BTW: Tomb Raider skaluje sie idealnie i 4k różnica jest taka sama - 4%.
Mówiąc jeszcze dosadniej: trzeba być skończonym jeleniem żeby kupic RTX 2070 jak rtx 2060 Super ma tą samą wydajność i jest tańszy.
Legion 13 - oczywiście że CPU ogranicza GPU w 1440p nie mówiąc już o 1080p gdyby było inaczej to nikt by nie robił OC na CPU mając na myśli gry. Pomijam już fakt że gry to kombinacja CPU i GPU. Na ten moment tylko 4K dociska odpowiednio sprzęt i to nie w każdej grze bo tak jak wspomniałeś stare pozycje w 4K też będą ograniczać GPU przez CPU. Jeśli zaś chodzi o wybór 2060S vs 2070 to już kwestia wyboru czego oczekujemy od sprzętu bo nadal 2060S jest kartą słabszą od 2070 i nie ma tej samej wydajności (zbliżoną ale nie tę samą) a rozjazd jest tym bardziej widoczny czym większe będzie OC na obu.
Jednostki cieniujące 2176 2304
Jednostki teksturujące 136 144
Jednostki rasteryzujące 64 64
Rdzenie Tensor 272 288
Jednostki RT 32 36
różnica jak nic to 5-10% na korzyść 2070