Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin
Forum

Raiden ostatnie wypowiedzi na forum i w komentarzach

20.06.2024 00:24
Raiden
odpowiedz
Raiden
143

eee tam, kiedyś granie w tym wieku w D&D było dość popularne. Sam jakoś tak zaczynałem.

Propozycja ode mnie - świeczki (10 świeczek - Ten Candles) zaadoptowane pod coś mniej mrocznego. W świeczkach grałem masę settingów i wszystko działa (obcego, SW, oryginał). Będzie mniej nudny niż przy D&D itp., a potem można myśleć o czymś innym.

post wyedytowany przez Raiden 2024-06-20 00:26:41
02.05.2024 22:22
Raiden
odpowiedz
Raiden
143

Role z filmów Snatch (bardzo pasował i dobrze odegrał) i Ad astra (nie zj*ba* tego, bo scenariusz sam się grał i aktor tu jedynie mógł popsuć - główna postać nieco mono, ale nie to jest clue filmu)

22.04.2024 17:41
Raiden
odpowiedz
1 odpowiedź
Raiden
143

Ustawienie dość proste i jedyne pod "master setting - referencję"
Odpalamy hdr na windows - skrót windows + alt + b (niektóre gry robią to automatycznie, po włączeniu w nich opcji hdr).
Gdy jesteśmy w trybie gry na monitorze - odpalamy ustawienia, zakładka gra >>>> mapowanie tonów HDR:
- HDR10+ gaming podstawowy;
- Gra HDR wyłączone (włączenie zmieni odpowiedź mocy - wszystko w półtonach stanie się jaśniejsze, niż twórca zaplanował - niektórym to się podoba);

2 rzecz to ustawienia >>> obraz >>>> eksperckie:
- gamma powinna sama wskoczyć na BT 2084;
- przestrzeń kolorów dajemy na oryginalną (rec 2020) lub użytkownika i wybieramy rec 2020, dlatego, że windows HDR korzysta z rec 2100, który bazuje na rec 2020;
- szczytowa jasność na wysoko.

Chyba tyle.
Zaznaczę, że to inaczej, niż w SDR, bo tam przestrzeń kolorów dajemy na auto i on wykrywa sRGB. Przy przełączaniu Windowsa w tryb hdr mój G8 sam zmienia sobie przestrzeń kolorów z auto (SDR) na użytkownika - rec 2020 (HDR) - czyli zapamiętuje ustawienia dla danego urządzenia.

post wyedytowany przez Raiden 2024-04-22 17:46:35
11.04.2024 21:16
Raiden
odpowiedz
1 odpowiedź
Raiden
143

Tak społecznie, to rola nadaje sens życiu.
Najczęściej w tej najbliższej grupie społecznej - rodzinie. Bycie ojcem/matką, bratem/siostrą itd.
To tej roli większość podporządkowuje swoje życie.
Gdy jesteśmy po 30, utraciliśmy już dawno rolę syna/córki, brata/siostry, a nie mamy roli ojca/matki, to zaczynają się problemy i szukanie ucieczki lub zastępstwa (bycie "tym" dobrym wujkiem lub jakieś matkowanie kotom/psom).

03.04.2024 17:40
Raiden
Raiden
143

W sumie podchodzę podobnie, ale mam też drugi wyjątek co do oleju - zakup nowego auta i "dotarcie" silnika.
W nowym zmiana po 2tys. km powinna być obowiązkowa. Dla spokoju po kolejnych 2-3 też bym zmienił i dopiero dalej interwały.

03.04.2024 17:29
Raiden
Raiden
143
Wideo

Kriszo
Dość sensowne badania prowadzi właśnie podlinkowane R2D - Laboratorium dla kierowców
Gościu bada oleje przepracowane, ma już sporą bazę do porównań i czasami wychodzi, że to nie liczba kilometrów powinna wskazywać na wymianę oleju. Niby ten sam olej, podobne silniki, ale jeden w gazie i z układem hybrydowym i już kupa. W badaniach wychodzi, że po 5k km olej powinien być już zmieniony. W drugim aucie nadal był "dobry" po 10k km.
https://youtu.be/-hEljdmEu-I?si=wMt28UJzFI-CIX_a

post wyedytowany przez Raiden 2024-04-03 17:32:06
01.04.2024 13:09
Raiden
Raiden
143
Wideo

Tak z ciekawości, co ile i jaki olej. I czy robicie płukankę przed wymianą?
Ja co 8000-10000km lub co rok (w zależności co szybciej).
Leje wyłącznie japoński Eneos, gdyż autka z japońskim silnikami.
A tu ciekawostka, jeżeli ktoś używa longlifówi oraz stosuje się do zaleceń producenta/ASO w kwestii interwałów. Zabawne, jak producenci zalecaj niszczyć nam auta.
https://youtu.be/UfpytP48q5Q?si=I6RQPSMAxfFXvZqI

post wyedytowany przez Raiden 2024-04-01 13:10:40
01.04.2024 12:34
Raiden
Raiden
143

Jeżeli typowo pod gry, to rozsądniej może być wziąć Ryzne 5 7600 i połączyć go z RTX 4070ti, natomiast połączenie, które stworzyłeś nie jest złe - faworyzuje gry oparte na cpu oraz ew. wymiany kart na lepsze w przyszłości.

Z dysków KC3000 lub SN850x.

Z zasilaczy CPX-850FC lepszy (podałeś dwa Chieftec, ale to jeden i ten sam model), gdyż jest na pojedynczej szynie 12V. BeQ ma podwójną, co jest gorszym rozwiązaniem. Chieftec lepszy energetycznie, ale ma dość agresywną krzywą wentylatora (natomiast przy takim zapasie mocy i tak go nie usłyszysz).
Inna sprawa, że do takiego zestawu spokojnie 650W wystarczy i to ze sporym zapasem, ale jak chcesz kiedyś wrzucać jakaś topową kartę graficzną, to można 750W.

Z płyt Asus TUF GAMING B650-PLUS wi-fi w zupełności wystarczy do zasilania każdego procka AMD. Nie wiem, jak pozostałe twoje wymagania - dzwiękówka, porty m.2 itd., ale serio - tę kasę lepiej włożyć w GPU.

Co do zestawu - da się optymalizować. Wybrać tańszy (ale dalej dobry) zasilacz, wybrać tańszą (ale dalej dobrą) płytę i wrzucić kasę w 2tb ssd lub GPU. Da to dużo więcej.

24.03.2024 14:56
Raiden
odpowiedz
Raiden
143

Niech GPU na chwilę będzie poza równaniem.
Jeżeli ma być stałe 60hz, to CPU musi sobie radzić w miejscach procesorowych, niezależnie od GPU (by nie było mikroprzycięć)
Ryzen 5 7600X powinien zapewnić utrzymanie powyżej 60fps, przy minimalnych spadkach.
Resztą powinien zająć się adaptive sync (g-sync, free sync) oraz generator klatek (trochę niezależny od CPU)
Jeżeli dopłacać, to do 7800X3D (R7 7700X względem R5 w grach niewiele da, gdy piszemy o czasach następujących po sobie klatek).
Czy warto? Nie wiem, ja mam R5 5800x3d i nigdzie się z am4 na razie nie wybieram. Jeżeli grasz dużo w gry procesorowe, to może warto (np. The Last of us Part 1 Remake, Hogwart Legacy z odpalonym RT, Dead Space Remake, Spider Man Remaster z RT), inaczej raczej nie (ale to gdybanie, bo gry mają tendencję do coraz mocniejszego nacisku na CPU).

post wyedytowany przez Raiden 2024-03-24 15:01:25
24.03.2024 09:30
Raiden
odpowiedz
Raiden
143

Za dużo, by pisać.
A w co teraz gram, zamiast nadrabiać? Heroes III hota 1.7 (z nową frakcją :)

16.03.2024 22:55
Raiden
odpowiedz
Raiden
143

Czy ja wiem, czy to takie mocarz?
Cała ta specyfikacja (45% mocniejsza, x tyle tflop lepsza, o tyle lepsy RT, ale zależnie od sytuacji), to dokładnie, jakby przesiąść się z RX6700xt na RX 7800xt. Przy czym wiadomo, że PS5 ma moc bardziej 6650xt, wiec pro to jakby 7750xt (nieistniejący).
Ale to nadal gdybanie (chociaż dość prawdopodobny scenariusz).
1,5x fps brzmi spoko, tylko tu nie wymieniamy samego gpu, jak na pc, a musimy kupic PS5 pro, które będzie za 3k+.

14.03.2024 18:36
Raiden
Raiden
143

Ale bieżnik ok? Czy też już zajechany o kilka mm?
Michelin to raczej bardzo ceniona marka.

14.03.2024 18:33
Raiden
Raiden
143

No właśnie mocno rozważałem mocno te Vredenstein, bo kumpel mechanik bardzo chwalił (że obok Michelina będą najlepszymi całosezonowymi).
Czas pokaże, czy Continental da radę.
Z Goodyeara jestem tak średnio zadowolony - były ok, ale po tych paru latach czuć różnicę, a ja tylu km nie robię.

14.03.2024 13:56
Raiden
Raiden
143

Jest na gumie ;)

14.03.2024 13:05
Raiden
Raiden
143

Ja właśnie przed wymianą, więc przeskanowałem rynek od a do z.
Miałem Goodyear Vector 4Seasons gen. 1, zmieniam ponownie na całoroczne (w mieście inne za bardzo nie potrzebne). Padło na Continental AllSeasonContact 2.
Z tańszych rozważałem Vredestein Quatrac lub Kleber Quadraxer 3 (podmarka Michelina), dlatego, że tych km w roku niewiele się robi (5000-10000km) i opona będzie prędzej do wymiany po 5-6 latach, niż z powodu liczby przejechanych km.

Jak u was? Całoroczne czy przekładacie koła? I jakie marki?

12.03.2024 23:46
Raiden
1
odpowiedz
1 odpowiedź
Raiden
143

Będzie bardziej producentów
1. Najlepsze, które tworzyło kiedyś i tworzy dalej dziś.
AAA:
Valve
Nintendo EPD No.3 (Zelda team)
Indie/art:
Ice-Pick Lodge
Larian Studios (nie wiem, czy to nie do wyższej grupy, ale zdecydowanie gdzieś)

Honorlable: Triumph Studios (Age of Wonders, Overlord); PlatinumGames (Nier Automata, Bayo, Astral Chain); Obsidian, Arkane Studios, IO Interactive, Fatshark, 11 bit studios, Flying Wild Hog (pomimo SW3), może jeszcze Respawn Entertainment (bardziej za Titanfalle).

2. Najlepsze kiedyś, ale martwe dziś
Illusion Softworks (dziś trochę osób w Warhorse Studios) - przejęte przez Take2 (2k czech)
New World Computing (Might & Magic) - bankructwo (ale tę historię powinien poznać każdy gracz)
Black Isle Studios (później wielu w Obsidian, Troika, bioware)
Cryo Interactive (Atlantis, Diuna, Kroniki CK) - wchłonięte przez DreamCatcher (restrukturyzacja Cryo) , a ten następnie przez Jowood (ograniczenie do wydawania, zaprzestanie tworzenia gier przez DreamCatcher)
Westwood Studios (Blade Runner, Eye of the Beholder, Dune 2000, Command & Conquer) - 1998 przejęte przez EA i 2003 zamknięte.
LucasArts (ich przygodówki i gry SW) - dziś niby dalej coś wydają, ale już bez produkcji.

Honorlable: Lionhead Studios aka Petera Molyneux mind (Black & White, Fable), Silicon Knights (Eternal Darkness, MGS TS), Factor 5 (Rogue Squadron), Pandemic Studios (Battlefronty, Full Spectrum Warrior, LotR Podbój), The Neverhood, Inc.

3. Najlepsze kiedyś, dziś kicha lub średniawa
Konami
Piranha Bytes
Telltale Games

07.03.2024 17:19
Raiden
Raiden
143

Wujek Władek
RTX 3070Ti był mocno skopany energetycznie - to wyżyłowany rdzeń. Do tego 8gb i używka. No nie paliłbym się do tego. Bardziej 3080, bo to była spoko karta, ale tu cena.

post wyedytowany przez Raiden 2024-03-07 17:20:03
07.03.2024 11:29
Raiden
odpowiedz
3 odpowiedzi
Raiden
143

Rozdzielczość 1080p?
RTX 4060 to jakieś 1400-1500zł. W tej samej cenie zauważalnie wydajniejszy RTX 3060ti, tylko bez generatora klatek i też 8gb vram.
Przyszłościowo patrząc to RTX 4060ti wersja 16gb za ok. 2000 zł ma chyba więcej sensu.
Patrząc na czystą moc, bez generatora, to uśredniając:
RTX 4060 = 100%;
wtedy
RTX 3060ti = 115%;
RTX 4060ti v16gb = 125-130%.
Przedział zależne od gry.
Z drugiej strony do twoich zastosowań RTX 4060 może być wystarczający.

04.03.2024 18:04
Raiden
1
odpowiedz
Raiden
143

Spróbuję dorzucić trochę niewymienionych:
- The Walking Dead: A New Frontier (widać, że najważniejsze osoby opuściły pokład - ucierpiały dialogi, historia, pacing);
- Afterparty (po genialnym Oxenfree poprzeczka była wysoko);
- Star Wars: The Force Unleashed (zakuć gracza w okowy press x - akcji kontektsowych, po Jedi Knight?);
- Gothic 3 Zmierzch Bogów
- Arcania: Gothic 4 (...);
- Wiedźmin 3 (miała być totalna bomba, wyszła gra bardzo mieszana, z elementami formalnymi, jak klimat oraz dość słabymi, jak projekt świata; do tego brak ładunku emocjonalnego w historii, gdyż ta pojawia się co kilka godzin i jak gra się sesjami, "na przestrzeni" kilku tygodni, to...);
- Call of Duty 3 i pominięci PC :);
- seria Uncharted (tyle było gadania co to nie za seria - jak usiadłem do niej po raz pierwszy, to jakoś tej magii nie zobaczyłem, a zamiast tego, stareńka, oskryptowaną grę, która totalnie nie przerwała próby czasu);
- The Last of Us Part 1 (historia, jak historia, ale rozgrywka..., ja chyba coś mam nie tak z Naughty Dogs, chociaż w Crasha kiedyś się zagrywałem i Part II jest też sporo lepszy w tym aspekcie).

post wyedytowany przez Raiden 2024-03-04 18:07:00
04.03.2024 13:30
Raiden
odpowiedz
Raiden
143

Swoją drogą w HotA jest kolejna, 11 frakcja :) - Fabryka

03.03.2024 11:48
Raiden
2
Raiden
143

90% podanych tu dowodów jest prawdziwa
Których? Z powyższego obrazka?
Jak to, że Jezus żył, dowodzi istnienia Boga? Żył gościu, został lub nie ukrzyżowany, a reszta to narracja po latach.
I tak z każdym argumentem tego obrazka.
Dla przykładu - piramidy też istnieją, każdy z Faraonów też żył i był "Bogiem". Czy to czynni ich stwórcami życia?

Żeby zaistniało samo życie też musi być jakaś celowość tego powstania,PRZYCZYNA i problem złożoności organizmów żywych ale nie tylko ich rozum,instykt,emocje,uczucia.A maralność u ludzi też wyewoluowała samoczynie z materii? z samych procesów fizycznych czy biologicznych?
What? Przecież wiązania silne oraz słabe, dekoherencja itd. to prawdopodobnie wierzchołek góry lodowej. Za 10-50 lat pewnie będziemy pisali o "boskich oddziaływaniach", których jeszcze nie będziemy znali, ale wiele będzie wskazywało na ich istnienie, jako podstawy do wiązań dających życie - być może przekazujących informacje, będącą początkiem życia na poziomie kwantowym.

01.03.2024 22:58
Raiden
1
Raiden
143

bar12345q11818
Nudząc się wieczorem :P
Dla was Bóg to jakaś abstrakcja
A jest inaczej?
Które z istot niezdolnych do abstrakcyjnego myślenia mają religie? (bezsensowne pytanie... i tak, krytykuje sam siebie)
Memetyka jest tu kluczowa. Mamy religie przypisane do danych społeczności (bogów Egiptu, Mezopotamii itd.) i można badać, jak memy (nośniki informacji kulturowej) się rozchodziły.
Inna sprawa, że jako nośnik podstawowych norm i wartości, religia jest kluczowa, a jej wyniszczanie i "naturalne" wycieńczanie, związane z globalizacją (przede wszystkim tą cyfrową), może być zgubne z punktu widzenia cywilizacyjnego (ale i tu się wszystko dostosuje, więc bym nie panikował).
Inaczej pisząc:
- usuń dowolnego Boga z naszych umysłów na 100 lat - jeżeli nie odnajdziemy nośników memów (ksiąg itd.), to będzie to koniec takiego Boga;
- usuń dowolnego Boga z naszych umysłów na 100 lat i wszystkie nośniki memów. Zapewniam, że narodzi się nowy Bóg.
To kto kogo tu stworzył?

post wyedytowany przez Raiden 2024-03-01 23:02:33
01.03.2024 20:49
Raiden
Raiden
143

Widzący
chodzi wyłącznie o abstrakcję ;)
Jakby smoków też nie będzie, a sporo osób oglądało grę o tron.

post wyedytowany przez Raiden 2024-03-01 20:49:14
01.03.2024 20:39
Raiden
odpowiedz
3 odpowiedzi
Raiden
143

Może to symulacja.
Dziś łatwiej uwierzyć, że Ty czy ja to chat GPT wersja 45, a nad wszystkim czuwa jakiś zespół komputerów kwantowych (nie tych dzisiejszych, a tych właściwych).
Łatwiej też dojść do wniosku, że kiedyś sami będziemy tworzyli takie symulacje* - ograniczając je pewnymi stałymi (jak maks. prędkość dla cząsteczek energii, zdefiniujemy Fermiony oraz Bozony itd.). Oczywiście będziemy też sprawdzali, w jakim stopniu Chat GPT wersja 30 jest w stanie odnaleźć się w takiej symulacji i odkryć te stałe, opisując je swoimi systemami miar.

Ale bez względu na to, czy to symulacja, czy jakiś dziwny wieloświat strunowy (lub jeszcze inny), religia ma rację bytu i będzie towarzyszyła (mniej lub bardziej) istotom zdolnym do myślenia abstrakcyjnego.
Tu ciekawa jest teoria konsensusu - coś istniej, gdy społecznie zgadzamy się, że to istnieje.

*-stworzymy taką symulację szukając odpowiedzi dla powstania naszej. Będziemy te stałe zmieniali tak długo, aż pojawią się oddziaływania silne i słabe. Później zmieniali, aż pojawią się planety, czarne dziury i kwazary. A gdy nie pojawi się nigdzie życie, to sami jest wprowadzimy do symulacji.

post wyedytowany przez Raiden 2024-03-01 20:50:45
23.02.2024 20:58
Raiden
Raiden
143

Herr Pietrus
Dalej nie wiem, czemu tak usilnie mnie wpasowujesz w takie buty, ale jak dla mnie, to didaskalia czy kanał zero mają na ten moment większą wartość niż TVN czy TVP (aktualne lub pisowskie - bez znaczenia).

post wyedytowany przez Raiden 2024-02-23 20:58:08
20.02.2024 17:34
Raiden
odpowiedz
3 odpowiedzi
Raiden
143
Wideo

W ostatnich 2 miesiącach o CPK naprawdę głośno, a tu cisza...
Nawet nowy rząd wydaje się zmieniać ton...
https://www.youtube.com/watch?v=Ry2Zl3EXzL0

post wyedytowany przez Raiden 2024-02-20 18:47:37
20.02.2024 10:03
Raiden
odpowiedz
Raiden
143

A jaki masz teraz, w ile fps celujesz (=ile hz ma twój monitor)?
Zrzesza, stopniując:
R5 3600
R5 5600
R7 5800x3d lub R7 5700x3d
Wszystko zależnie od budżetu.

18.02.2024 23:48
Raiden
odpowiedz
Raiden
143

Jak po taniości, to ten TCL, jak drożej to OLED (77 lub 83"), a ja nie, to tylko SONY XR-85X95L.

post wyedytowany przez Raiden 2024-02-18 23:55:24
07.02.2024 08:14
Raiden
Raiden
143

Disel? 6 biegów? Jak tak, to uważaj, bo w d4d i dcat wtryski padały przy podobnym przebiegu, a wał 2,4,6 lubił się posypać.

07.02.2024 08:10
Raiden
odpowiedz
1 odpowiedź
Raiden
143

Z ciekawości, ma ktoś LS400 gen 1?

17.01.2024 23:10
Raiden
Raiden
143

A.l.e.X
To nie żaden syntetyk, a spadki do low 30/40 fps w Hogwart to norma w Hogsmeade czy Wieży obrony przed czarną magią i są odczuwalne podczas rozgrywki.
Nie ma znaczenia, czy z gsync (czas klatki na monitorze 25-30ms, czy bez - 33ms, ale stałe w tych lokacjach). Badania wariancji jasno wskazują, że zmiana odtwarzania klatki powyżej 4ms jest przez część użytkowników odczuwalna (poniżej 15%); 8ms przez lekko ponad połowę, a 16 ms przez 95%. Dlatego bada się wariancję, a brak gsync tylko pogarsza sprawę (wydłużając te czasy dla powielania klatek).
Innymi słowy - kupujesz kartę RTX 4090, bo jest o 50% lepsza od RTX 4080? Czemu nie zostać na RTX 4080, skoro w 40 fps da radę grać z gsync?

17.01.2024 10:23
Raiden
odpowiedz
Raiden
143
Image
Wideo

A.l.e.X
Zbadaj to jeszcze raz, używając CapFrameX, wariancji i np. Hogwart Legacy z rt i dlss lub spider mana z włączonym RT i dlss.
Good luck, ale i9 9900k bedzie w plecy w 1440p jakieś 30-40%.
https://youtu.be/6UAES7F48EU?si=zmzfhGlL8TUlMJae

post wyedytowany przez Raiden 2024-01-17 10:35:25
14.01.2024 12:28
Raiden
Raiden
143

A.l.e.X
Jeśli poskładałeś wszystko jak trzeba następny crash w grze zobaczysz -> nigdy.
Windowsa to nie jest tak trudno scrashować.

Sam z rok nie widziałem blue screen (pomijam kwestie testów sprzętu i napięć), ale dwa dni temu, jak testowałem HDR na G8 w RE2 remake, gęsto i często przełączałem się pomiędzy hdr a sdr (window+alt+b). I chyba przy 5 czy 6 przełączeniu blue screen :)

post wyedytowany przez Raiden 2024-01-14 12:28:16
14.01.2024 11:22
Raiden
1
Raiden
143

Bukary
bez znaczenie dla mikroprzycięć, chyba, że przesadzisz z UV i CPU dostanie za mało żarcia.
Lub w drugą stronę, gdyby miał się przegrzewać i zbijać zegary, to UV pomoże.

post wyedytowany przez Raiden 2024-01-14 11:25:48
14.01.2024 11:13
Raiden
Raiden
143
Image

A.l.e.X
Bukary
Wyniki na CPU będą mniejsze nie większe to że raz miałeś większy o rzut kosmetyczny to przypadek
Nope
Oczywiście, że UV może poprawiać wynik w syntetykach, chociaż czynników jest masa (temp. otoczenia itd.). Natomiast zakładając dla wszystkiego constans i jedynie robiąc UV, to przy tym, jak dzisiejsze cpu działają (że boostuja na podstawie warunków termicznych), ma to znaczenie.
To, że maił o kilka stopni mniej po UV to też przypadek?

I teraz na koniec grasz w 1440p 21:9 czyli 3440:1440 jakieś 5Mpx + 4080 = CPU jest bez znaczenia. Bo za nim osiągniesz limit na CPU dostaniesz BN na GPU (w większości nowych gier).
Tu masz trochę racji, ale ogólnie bzdura (zresztą błędnie od lat powtarzana). Bez znaczenia w tym przypadku może być UV, bo w grach nie dobije do limitu termicznego, więc to co zyskuje w grach, to cisza (niższa temp, przekładająca się na obroty wentyli).
To nie dotyczy bukarego, ale wytłumaczę, żebyś nie powtarzał jak inni.
Problem z tym twierdzeniem jest taki, że nawet w 8k dany cpu może wpływać na klatki. Nawet gdy średnia liczba klatek dla prawie wszystkich cpu jest taka sama (limitowana przez BN od strony GPU), to po zbadaniu sprawy mikroprzycieć, okazuje się, że w grach kładących nacisk na cpu (wymiennie ponownie np. The Last of us Part 1 Remake, Hogwart Legacy z odpalonym RT, Dead Space Remake, Spider Man Remaster), CPU dają różne wyniki wariancji następujących po sobie klatek, czyli, prosto pisząc, mikroprzycieć (a to one są gorsze od stałego niskiego FPS). Mikroprzycięcia badamy najlepiej sprzętowo, chociaż programowe badanie też jest dość dokładne (i służy do tego CapFrameX).

Na obrazku obok mikroprzycięcia zbadane sprzętowo przez igorslab dla topowych CPU w Far Cry 6, 4k, RTX 4090.
Tłumacząc dane. na żółto mamy wariancję powyżej 8ms. Oznacza to, że CPU wpłynęło na generowanie dwóch następujących po sobie klatek (np. klatki nr 7355 i klatki nr 7356 w danym teście) i frametime (czas generowania klatki) różnił się 8ms lub więcej (czyli np. klatka 7355 powstawała 4ms, a klatka 7356 ponad 12ms). Jeżeli przez to został przekroczony czas związany z odświeżaniem monitora (16,7ms dla 60hz; 8,3ms dla 120hz itd.), to mamy mikroprzycięcie.
Dlatego na czerwono jest >16ms, bo wtedy mamy pewność, że doszło do szarpnięcia klatek, nawet na monitorze 60hz.
Może się też wydawać, że 0,5% klatek na mikro przycięci to niewiele, ale jest to zauważalne, bo piszemy o szarpaniu gry, a nie niższym fps.
Jak widać nawet w 4k cpu może mieć znaczenie. Żeby było ciekawiej, w 1080p CPU będą dawały inne wyniki, gdyż w niższych rozdzielczościach (=wyższym klatkażu od strony GPU), będzie wyższa przepustowość danych, pamięć cpu (czy to cache, czy ram) będzie miała większe znaczenie itd.

post wyedytowany przez Raiden 2024-01-14 11:26:18
13.01.2024 21:12
Raiden
Raiden
143

Bukary
W zasadzie norma.
Herr pisał dlaczego tak się dzieje, ale każdy "wtajemniczony" dziś robi uv, nie oc ;)

13.01.2024 17:39
Raiden
Raiden
143

Ragn'or
W grach raczej ciężko o dławienie, chyba, że masz coś źle zamontowane.
Ogólnie Cyber bardziej dociska GPU niż CPU, tym bardziej w 4k.

Ja już w tym wątku kilkukrotnie podkreślałem, że nie jestem zwolennikiem wyżyłowanych cpu od intela, chociaż amd też się tu jakoś nie popisało (AM5 ma za gruby odpromiennik, który hamuje przewodnictwo cieplne; AM4 było genialne pod tym względem). W obu przypadkach najlepiej zrobić UV, żeby było chłodniej i, przede wszystkim, ciszej. Czy w grach to może mieć znaczenie? W tych, które dociskają CPU i gdy cenimy ciszę, to tak. Piszę o np. The Last of us Part 1 Remake, Hogwart Legacy z odpalonym RT, Dead Space Remake, Spider Man Remaster, chociaz takich gier jest coraz więcej.

Także polecam UV - dla ciszy.

13.01.2024 16:44
Raiden
Raiden
143

Ragn'or
Zawsze możesz zrobić UV. Bukary zainstalował ramkę i to na pewno coś tam daje.

13.01.2024 16:39
Raiden
Raiden
143

QrKo
Bukary
Pytanie, czy tam (do obudowy Bukarego) wchodzi na górę aio 280 mm?
Arctic Liquid Freezer II 280 lub Thermaltake Toughliquid 280 ARGB Sync byłby ok wtedy.
Jak nie, to wersje 240 tych chłodzeń.

Co do wentylatorów, tak - to te, Vardary. Są świetne, tylko też warto się pobawić krzywą, bo na maxa są dość głośne.

13.01.2024 00:50
Raiden
Raiden
143

Bardziej miałem na myśli, że jakbyś jakieś miał, bo dwa nowe, dobre to będzie koszt połowy aio 240mm. Np. Ek wb vardar.

12.01.2024 22:45
Raiden
odpowiedz
6 odpowiedzi
Raiden
143

Bukary
Luźny pomysł.
Może by wystawić na OLX to chłodzenie i kupić coś, co było proponowane?
Buda Fractal Design Pop Air Black TG Clear Tint?
aio 240 top lub 280mm front

Albo wymianka wentyli. Nie masz jakieś 120mm?

12.01.2024 17:30
Raiden
Raiden
143

Bukary
To może być pompka, ale o ile po cyferkach mogłem pisać, że coś jest nie tak, tak tu sam musisz znaleźć źródło.
Pierw upewnij się, że to to, izolując resztę z testów (np. Wyłączając wentyle).
Wątpię, by się zapowietrzyła, ale może (wtedy można odpowietrzyć).
Trzeba też zobaczyć na recki, bo może ten typ tak ma, a dźwięk, który kogoś nie irytuje, ciebie będzie.

12.01.2024 16:08
Raiden
Raiden
143

Bukary
Ciężko tak na odległość coś stwierdzić po jednym nagraniu, gdzie sugerujesz, że to GPU.
A może to pompa AIO (chociaż po nagraniu wątpię).
A co, gdy dasz wentyle gpu na 70% bez grania?

12.01.2024 15:44
Raiden
Raiden
143

Bukary
temp cpu dobre, score też (uwierz, ramka robi robotę, bo 240 mm aio to też nie liga nowych i7/i9).
Karta brzmi źle - podobnie kiedyś mój Zotack Amp extreeme latał - łożysko jednego z wentyli było walnięte (po paru latach), ale on był głośniejszy pod full load.
Co można z tym zrobić?
Perfekcjonista pewnie oddawałbym kartę na gwarę, ale kto wie, czy to uznają.
Ty możesz zrobić kilka rzeczy (naraz lub osobno):
- UV karty;
- zmiana trybu pracy karty (np. w oprogramowaniu od karty lub przełączajać bios na "S" - silent https://www.techpowerup.com/review/gainward-geforce-rtx-4080-phantom-gs/images/biosswitch.jpg )
- dostosowywanie ustawień gier i blokowanie maks fps. Jak masz odpalonego g-synca, możesz zablokować liczbę klatek np. na 100. Swoją drogą qd oled Dell z "F" w hdr chyba z automatu blokuje się na 100hz, więc w opcjach karty powinieneś dać limit 97 fps.

Tu wklejam jeszcze raz, jakie jest optymalne ustawienie g-sync https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/14/

12.01.2024 14:26
Raiden
Raiden
143

Bukary
Coś z wentylami lub pompką, skoro chłodziwo 38 stoni zamiast 50.
Btw, jaki teraz wynik w cb24?

post wyedytowany przez Raiden 2024-01-12 14:28:45
12.01.2024 11:00
Raiden
Raiden
143
post wyedytowany przez Raiden 2024-01-12 11:01:33
12.01.2024 10:09
Raiden
Raiden
143

Bukary
Albo trafiłeś totalnego kasztana (cpu),
albo nadal coś jest nie tak.
Jak możesz zrobić cb r24, podaj wynik i screena temp.
W grach nie powinno to mieć znaczenia, bo raczej nie dobijesz do limitów, jedynie co, to głośność zestawu i mbie to by bardziej martwiło.

10.01.2024 11:27
Raiden
odpowiedz
Raiden
143
Wideo

Obscure
https://youtu.be/rIEB37QXq1M?si=KVP_3KHLarp0Z5-I
W zasadzie pojedynek pomiędzy qd-oled (Dell AW3423DWF lug Samsung G8) a MLA woled (ASUS PG27AQDM lub lg 27GR95QE-B).
Masz już TV Samsunga na qd-oled - w monitorze G8 będzie bardzo podobnie co do jakości obrazu, w tym HDR. Sam mam G8 od jakiegoś miesiąca. Nadal testuje.
Soft jest ok, w dodatku to jeden z dwóch panelów qd oled, które w hdr nadal oferują 175hz zarówno po hdmi, jak i DP (drugi to MSI, ale tylko po hdmi). Dell AW3423DWF z odpalonym HDR daje tylko 100hz; AW3423DW 144hz.
Port micro HDMI oraz mini DP mi nie przeszkadzają. Kabel obsługujący hdmi 2.1 micro do zwykłego hdmi to 50zł. DP jest w zestawie.
Nie testowałem jeszcze żadnego MLA woleda.
Samsung G8 ma też jeszcze jedną przewagę względem wszystkich pozostałych monitorów OLED - HDR10+. Ty do filmów masz TV i to dużo lepszy wybór, bo chociaż ten monitor ma też system z TV Samsunga, to procesor obrazu jest gorszy i gdy oglądasz coś w HDR z appek na monitorze, to często pojawia się mocna posteryzacja (w SDR jest ok). Także do oglądania filmów czy coś polecam dorzucić tu apple tv box gen 3 2022, natoamsit nadal - ty masz od tego TV.
HDR10+ niedługo już w grach i tam może już ci się przyda.

Co do minusów:
- czcionki są nieco rozmazane w stosunku do ekranów LCD ips, ale nie ma dramatu (gorzej jest na woled), a w Windows 11 możemy to dostosować;
- stutter (chyba największy minus OLED) - pojawia się głównie przy filmach (24fps) i na pc (w trybie gry lub grafiki) nic z tym nie zrobimy. Gdy oglądamy z poziomu systemu monitora (tizen Samsung) lub apple tv, możemy ustawić "wyrazistość obrazu", idąc na kompromis pomiędzy niwelowaniem stuttera a zwiększaniem nadpłynności.

Ogólnie:
- HDR super (ale to wiesz po TV);
- perfekcyjna czerń;
- płynność dobra (do CRT daleko, ale lepiej niż na LCD bez stroba), tylko ten stutter;
- wypaleń raczej się nie obawiam (jest dużo funkcji przeciwdziałających - najważniejsza to szybki refresh, wykonywany po wyłączeniu do stand by, po 4h działania łącznego, więc nie odłączać go od prądu);

BTW - jak walczyć ze stutterem: https://youtu.be/E5qXj-vpX5Q?si=14Bm0M91ax5cM0JW&t=576

post wyedytowany przez Raiden 2024-01-10 11:43:38
10.01.2024 10:15
Raiden
Raiden
143

A.l.e.X
Trochę racji masz (w tym sensie, że im jaśniejszy TV, tym lepiej sobie radzi w HDR10), ale nie - HDR10+/DV zawsze bezie miało przewagę nad HDR10 i wynika to z faktu informacji o maks jasność dla każdej sceny.
Dla przykładu oglądam dowolny film na Disney plus w HDR10 na swoim G8.
Najjaśniejsza scena filmu ma 1000 nitów i dajmy na to, że jest to jakiś wybuch. Inna bardzo jasna scena - np. na plaży ze słońcem w tle, ma już tylko 700 nitów dla maksymalnych detali świateł, ale mój G8 nie jest w stanie tego odtworzyć, bo APL (średnia jasność) sceny na plaży wynosi 60%, a dla 60% G8 uzyskuje 285 nitów.

Odpalam ten sam film na Apple TV (apka lub box gen3 2022) w HDR10+. Wybuch ma 1000 nitów, scena na plaży ma 1000 nitów, ale dzięki metadanym 285 nitów pozwala zachować detal oraz zwiększyć jasność punktową maksymalnych detali świateł (gdyż zmienia się APL i nie jest to już 285 nitów).

Gdzie twoim zdaniem S95c/G8 i HDR10 ma tu przewagę względem HDR10+?
To widać. Porównywałem tak kilka filmów. Kolory w HDR10+ maja większy volume względem HDR10, a każda scena jest w HDR (zachowuje szeroki zakres dynamiki), czego w HDR10 nie widać (zazwyczaj ucinane są detale w światłach).

post wyedytowany przez Raiden 2024-01-10 10:20:54
09.01.2024 17:57
Raiden
Raiden
143

Drackula
Możesz jak nakbardziej spróbować z ustawieniami rtings, ale filmaker mode też jeat dobry... gdy działa (wybrane treści).
Ogólnie ten tv będzie najlepiej wyglądał w hdr10+, czyli prime lub apple tv (czy to apka z tv czy box).
Hdr10 bez danych dla każdej sceny wygląda raczej słabo.

07.01.2024 17:58
Raiden
Raiden
143

Bukary
Nie jest normalne, ale takie chwilowe peaki się zdarzają.
Robiłeś może reset biosu zworką?
Sytuacje u ciebie jest naprawdę dziwna. W idle temp ok, pod obciążeniem takie klocki. Jaką masz temp. po takich 2h grania, a następnie 10 min idle na samym pulpcie?

PS
Jeżeli cię Bukary pocieszy, to znalazłem dwa tematy na redicie z 13700k, których właścicieli ciągle mieli po 100 stopni pomimo aio 360mm i u obu ramka była rozwiązaniem.

post wyedytowany przez Raiden 2024-01-07 18:28:56
06.01.2024 11:17
Raiden
odpowiedz
Raiden
143
Wideo

Bukary
Przed wydaniem pieniędzy zrób to, co możesz bez kosztów:
- reset bios zworką; https://www.asus.com/support/FAQ/1030210/
- rozbierz chłodzenie i ponowny montaż.

Ramki są bezpieczne.
Tu masz testy na dobrych mobo, które niby się nie gną, ale to jakby nie o mobo chodzi, a samo gniazdo cpu.
https://youtu.be/lm42GqNEWAs?si=K2M8ei20FVnMmyGt&t=536
https://youtu.be/iYU1OskbY-Q?si=TtjyTrhYr5J4YRjV&t=772

post wyedytowany przez Raiden 2024-01-06 11:19:09
05.01.2024 23:33
Raiden
Raiden
143

Bukary
Jakby to równanie ma dwie zmienne - drugą jest wyniki w CB (o ile uległ poprawie)
Ale w tym momencie powinna być już zmiana co do temp.
Czyli problem z przekazem termicznym leży gdzieś dalej w obiegu.
Dlaczego tak naciskałem na UV? Mamy tu małą powierzchnię z 250W. Obniżenie do 210W lub mniej (przez UV - u ciebie dalej lekko ponad 220W) spokojnie powinno zmniejsza problem przepełnienia termicznego. Jeżeli dalej występuje, to problem jest wyżej w łańcuch i może to jakaś błahostka. Coś z pastą, montażem, pompką, podłączeniem tego, wentylami (chociaż ciecz nagrzewa się w miarę prawidłowo).
Wbrew pozorom aż tak dużo możliwości nie ma. Trzeba zrobić listę i eliminować:
- zostawiamy CPU i UV na boku;
- to co możesz sprawdzić bez odkręcania chłodzenia już chyba było (pompa działa, wentyle też, wszystko dokręcone, ciecz nabiera temp.);
- zostaje czapka i transfer ciepła do AIO (pasta, naklejka, banan na ihs - czyli ramka montażowa itd.).
Pierw sprawdzamy rzeczy bezkosztowe i te, które robimy małym nakładem pracy.

post wyedytowany przez Raiden 2024-01-05 23:34:33
05.01.2024 22:48
Raiden
Raiden
143

Bukary
Ja bym dał -0,065. Na 99% mobo i cpu to pójdzie. Sprawdź temp wtedy. Później można bawić się "aż do utraty stabilności, jak się chcę.

05.01.2024 22:29
Raiden
Raiden
143

QrKo
Maks temp dla wielu chłodziw w AIO to 60 stopni.
Raczej wszystko tu jest ok od tej strony.

05.01.2024 21:52
Raiden
Raiden
143
Wideo

Bukary
QrKo ma 1.308, a obniżył tylko -0.085,
To nie jest tylko, -0,085 do -0,1 to zazwyczaj maks, jaki uzyskuje się na tych intelach przy obniżeniu offestem.
I może to dać dużą różnicę.
Tu uzyskano 9 stopni w CB;
https://youtu.be/GKLyZQ1yuV8?si=fz1lmfAHM2OYTesC&t=228
Tu uzyskano 8 stopni w dół:
https://www.youtube.com/watch?v=fTKt9AeAwoA
Tu uzyskano 11 stopni:
https://www.youtube.com/watch?v=_oZ4is-nTi4
Na PC lab ludzie też uzyskiwali spokojnie 10-15 stopni i to masa przypadków.

QrKo
Jak dasz radę, zrób test CB bez UV, a potem zaraz z UV, bo "2-3 stopnie" to raczej mało możliwe na tym CPU.

post wyedytowany przez Raiden 2024-01-05 21:53:02
05.01.2024 19:38
Raiden
Raiden
143

Bukary
Drackula
QrKo
Czyli po nitce do kłębka. Na razie zostawmy ramkę - asus tuf nie powinien łatwo ulegać, więc pewnie docisk jest ok.
Skoro temp. cieczy też, to pompka lata;
Wentyle też kręcą.
Bukary sprawdzał czy wszystko poodkręcane i poprawnie zmontowane.
Ja dalej szukałbym winny w tym auto oc, zawyżonym ustawieniu load line lub czymś takim. ODIN85 zwracał uwagę na zbyt wysokie napięć. Skądś to się bierze - skoro qrko ma 1,308, a Bukary 1,37V, to albo jeden jest po UV, albo drugiemu leci vcore w górę przez coś (lub to i to).
Problem może kryć się jeszcze pomiędzy cpu a chłodzeniem - może coś z pastą, ale to mało prawdopodobne.


jak możesz, podaj jaki vcore leci u ciebie przy teście cb r24?
A tak btw - chyba pamięci nie są w optymalnym trybie - 6000mhz cl48? Takie kupiłeś?

05.01.2024 13:50
Raiden
Raiden
143
Image

QrKo
Tylko szkoda, że nie pokazałeś temp. odczytanej przez czujniki procka, a przez mobo.
U mnie temp odczytywana przez mobo 70 stopni dla CPU;
przez CPU - 83.
Oczywiście - po wyniku widać, że u ciebie jest dużo lepiej.

post wyedytowany przez Raiden 2024-01-05 13:51:31
05.01.2024 13:27
Raiden
Raiden
143

Bukary
Myślałem, że może rzeczywiście problem polega na tym, że chłodzenie założone na LGA 1200 albo coś nie jest dokręcone, ale tu musi być jakiś inny problem. :(
Tylko jaki. Score w CB r24 w miarę poprawny. Jasne, niższa temp w pokoju, zmiana pasty na nieco lepszą zawsze może pomóc, ale czy problem faktycznie istniej.
Kupiłeś lekki grzejnik, i grzeje. Na moje nie ma co panikować. Czynników jest masa. Płyta może podawać trochę zawyżone napięć (może w biosie ustawiłeś jakąś opcję auto oc lub coś takiego), ta sztuka procka już tak może mieć, może być, że zrobił się banan (ramka prostująca zalecana, ale przecież tragedii nie ma).
Drackula może też wykonać test na swoim i7 w R24 i możecie porówać.

- Dokupię tę ramkę. Możecie podać konkretny model, który warto zamówić?

Są dwie firmy, obie sprawdzają się tak samo: Thermalright LGA1700-BCF lub Thermal Grizzly LGA1700 Contact Frame. Ale czy warto to montować? Hymmm, bo ja wiem - sprawdź wcześniej czy pasuje do twojego chłodzenia aio.

post wyedytowany przez Raiden 2024-01-05 13:27:57
05.01.2024 12:04
Raiden
Raiden
143

Bukary
QrKo
No już dawno ustaliliśmy, że grzeje się za mocno. Teraz trzeba sprawdzić dlaczego. Odkręć chłodzenie z procka i pokaż fotki spodu bloku i samego procesora.
No właśnie niczego nie ustaliliście - w zmiennych warunkach (gdzie spory wpływ miało gpu), bez znanej wartości oczekiwanej (czyli "grzanie się w grze").

Oto wynik testu i zrzut ekranu z temperaturami na 3 sekundy przed zakończeniem testu.
Wynik nie jest zły, a cpu miał tu osiągnąć 100 stopni - celowo. Średnia dla twojego cpu w R24 multi to 1602 pkt, a większość użytkowników ma go na aio.
Szybko idzie znaleźć wątek na redicie, gdzie gościu z jednym z najlepszych aio 420 mm ma 1630 pkt.
Na twoim aio spodziewałbym się wyniku w okolicach średniej, a twój wynik daleko nie odbiega. Ludzie poprawiają temp., a co za tym idzie wyniki w R23/R24 (stałe warunki działanai cpu, bez wpływu gpu, ze znaną wartością oczekiwaną) na kilka sposobów przy tym cpu:
- UV;
- płytka prostująca gniazdo (intel CPU Contact Frame LGA1700).
Oba działają dobrze i pozwalają na uzyskanie niższych temp i ciszy w grach; czy wyższych wyników w takim R23/R24.
Z doświadczenia polecam UV.

post wyedytowany przez Raiden 2024-01-05 12:04:26
04.01.2024 22:56
Raiden
Raiden
143
Image

Bukary
Dokładnie, tylko wersja 2024 ma mniejsza bazę danych póki co, ale też może być.
Test trwa 10 min
Optymalny byłby taki screen >>
Gdzie widać temp maks, średnia poszczególnych rdzeni, do tego wszystkie info o poborach itd.

post wyedytowany przez Raiden 2024-01-04 23:42:31
04.01.2024 21:52
Raiden
odpowiedz
5 odpowiedzi
Raiden
143

Bukary
Czyli jednak konieczne jest UV? Już widzę Raidena i "a nie mówiłem". ;)
Ale mam też drugie :P
"było brać AMD"

A tak serio, by jakkolwiek pomóc, to w grach ciężko stwierdzić, czy to się przegrzewa, czy może miałeś operę w tle odpaloną i miała ona jeden ze swoich skoków na cpu (co skutkuje właśnie osiągnieciem maks temp na większości współczesnych procków), bo średnie temp nie są jakieś tragiczne, chociaż nie są też dobre jak na grę jadącą bardziej po GPU.
Moja recepta i już ją przepisywałem: zrobić test CB R23 z monitorowaniem temp. hw info w tle (wszystko inne pozamykane) i porównać wyniki z innymi i7.

02.01.2024 18:27
Raiden
Raiden
143
Wideo

Jak ja nie lubię się powtarzać ;) UV
https://www.youtube.com/watch?v=GKLyZQ1yuV8

02.01.2024 00:30
Raiden
Raiden
143

Bukary
Co do 10 Bit i 165mhz, to akurat zastanawiające. MSI na tej matrycy po DP 1.4 ma max 144hz, tak samo Dell bez "F". MSI ma tę przewagę, że ma jeszcze HDMI 2.1 i tam mam 175hz@10bit.
Jedynie Samsung G8 daje 175hz 10 bit zarówno po HDMI 2.1, jak i DP.

tak nie da się ustawić wartości większej niż 500 (HDR jest włączony w Windows, a tryb HDR 1000 w ustawieniach monitora).
Co do Alan, to chyba trochę inaczej jest, niż piszesz.
Mamy tam 2 jasności:
- jasność gry, czyli "biel kartki", co powinno odpowiadać jasności 100% white screen i powinieneś chyba ustawić bardziej 250 nitów, bo tyle te panele osiągają na 100% white, żeby nie mieć ucinanych detali w jasnościach (screen z gry z detalami białego nieba - gdzie przy 500 nitach ma wszystko zlane);
- maksymalna jasność ekranu - dal świateł punktowych (2-10% powierzchni) i tu sama gra wykryła dobrze.
Oczywiście takie ustawienie na początku wyda ci się bardziej wypłowiałe, bo obniżysz odpowiedź EOTF, ale jest to bardziej adekwatne odwzorowanie HDR (czyl izachownia detali od cienie po światła).

Widać to na załączonym obrazku. Nie wiem, czy to ograniczenie związane z moim systemem (złymi ustawieniami) czy tak po prostu jest.
Co do sreenów, właśnie ciężko tak porównać, bo screen ma jednak pełna informacje kolorystyczną, zdjęcie z tel już nie.

31.12.2023 10:23
Raiden
Raiden
143

A.l.e.X
nie możesz zrobić screena w HDR i pokazać nam na forum taki screen jest bez kolorów całkowicie wyprany i wyblakły u ciebie jakieś tam kolory widać nadal więc nie wiem czy faktycznie masz włączony HDR czy tylko napis uruchom grę w trybie HDR, SDR masz właśnie na tym monitorze w okolicach 400 nitów.

To akurat, u Bukarego, to są zdjęcia z aparatu. Jeżeli robił na bazowym iso, jakimś współczesnym bezlusterkowcem, to uzyskał 14-15 EV, czyli dostatecznie dużo, do pokazania "HDR", choć nie w pełni. Oczywiście można zrobić zdjęcie bardziej "HDR" - łącząc kilka niedoświetlonych, w punkt i prześwietlonych.
Swoją drogą ciekawe, jak HDR został totalnie zawłaszczony przez marketing. Przecież moje Eizo - nawet ten retro - spokojnie pokazują HDR w zdjęciach na Adobe RGB.

30.12.2023 18:55
Raiden
Raiden
143

Tak, jest ok, lecz w tej grze masz bottlwnck od strony karty graficznej (sytuacja porządna) i ogranicza to wykorzystanie cpu (czyli też temp.).
Wcześniej wymienialem gry najbardziej jadące na cpu.

29.12.2023 13:22
Raiden
odpowiedz
Raiden
143

Bukary
Aż jestem ciekaw twojego zdania.
Czy podobnie jak mi:
- czcionki nie będą jakoś specjalnie przeszkadzały (przed mdoem), chociaż zauważalnie gorsze niż na ips;
- stutter będzie mocno przeszkadzał - to co pisałem o płynności w filmach (czyli efekt pojawiający się przy błyskawicznych wyświetlaczach, ale w technologi sample and hold - za opisem rtings: Due to the near-instantaneous response time, there's noticeable stutter as each frame is held on longer with low-frame-rate content. It's especially noticeable in slow panning shots.);
- hdr uznasz za najlepszy jaki widziałeś (chociaż ja mam spore porównanie i najlepiej wyglądało to tu z hdr10+ w filmach, a ty tego nie doświadczysz).

A tak btw, testowałeś już pc? Jakie temp?

post wyedytowany przez Raiden 2023-12-29 14:18:10
26.12.2023 08:38
Raiden
Raiden
143

Zależy od gry.
W tych bardziej cisnących po gpu, spokojnie da radę.
W tych nowszych, z naciskiem na cpu, fps może być limitowany dalej przez kartę w 4k, ale cpu może dawać przycięcia (zależne od miejsca w grze).
Piszę o The Last of Us, Hogwart Legacy z RT, Spider man z RT.
W kolejnym etapie powinieneś pomyśleć o zmianie cpu na coś gamingowego jak r5 5600x3d lub r7 5800x3d.

25.12.2023 17:02
Raiden
Raiden
143

Bukary
Będę przyglądał monitory, które wypisałeś (wielkie dzięki!),
To do listy dopisz jeszcze:
BENQ Mobiuz EX3415R
ROG Strix XG349C
Tylko to HDR 400, więc tak średnio, ale gamingowe ips.

post wyedytowany przez Raiden 2023-12-25 17:09:01
25.12.2023 16:52
Raiden
Raiden
143

Bukary
Tak, bez problemów. Ja korzystam z g-sync na G8, który też nie ma modułu NV.
Ważne jest poprawne ustawienie (niezależnie od modułu i wlepki NV):
https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/14/

post wyedytowany przez Raiden 2023-12-25 16:52:42
25.12.2023 12:08
Raiden
odpowiedz
3 odpowiedzi
Raiden
143
Wideo

Bukary
Może faktycznie poczekać na na jakieś 21:9 w QD-oled gen 2, gdzie czcionki będą nieco czytelniejsze?
https://www.youtube.com/watch?v=puwJBwR-Guw

Co do samego dbania o Oled, to warto w Windzie:
- schować pasek zadań (automatyczne ukrywanie);
- ustawić wygaszacz ekranu na np. "ukryj swe myśli".

Z takich rad użytkowych G8:
- denerwuje mnie brak automatyzacji przy HDR w Windows. skrót "win+alt+b", ale muszę jeszcze za każdym razem wyłączyć/zmienić profil kolorystyczny, a następnie w ustawieniach monitora przestrzeń kolorów z auto (konieczna do uzyskania sRGB) na rec 2020/native;

25.12.2023 11:29
Raiden
Raiden
143
Image

Drackula
Czy lepszy to nie wiem. Warto sprawdzić czy Samsungi maja natywny g- sync. Oglądałem jakiś model Odyssey i nie miał. Samsung maja lepsze wsparcie dla konsol ale chyba to nie jest coś wartego uwagi w twoim przypadku.
G-sync w 2023 działa trochę inaczej. W zasadzie każdy wyświetlacz VRR jest g-sync compatible (nie potrzebuje do tego chipu Nvidii, bo ma ten od VRR na płycie).

Tu wszystkie stopnie aktualnego g-sync https://www.nvidia.com/en-us/geforce/news/gfecnt/g-sync-ces-2019-announcements/
Obrazek po prawej
Wyższe standardy to tak naprawdę tylko certyfikat Nvidii, że jest HDR1000 i konieczność użycia ich procesora g-sync, który wymaga chłodzenia (przez to Dell AW3423DW hałasuje). Czy jest w jakimś aspekcie lepszy od tych chipów, które dziś montuje się prawie wszędzie do VRR? Kij wie.

post wyedytowany przez Raiden 2023-12-25 11:33:37
25.12.2023 11:22
Raiden
Raiden
143

A.l.e.X
HDR to standard taki jak 4k czy 1080p. 99% gier go obsługuje a jak się nawet zdarzy że jakaś nie to
Pytanie jak go obsługują, bo by nie szukać daleko na to Windzie jednak są problemy HDR. Wspominany przeze mnie Spider-man, ogólnie znane problemy z Destiny 2 (swoją drogą na Xbox Series X, po podpięciu do G8, obie gry działają poprawnie z HDR, a na Windows nie). Nie piszę tego, by hejtować technologię, która jest dobra i powinna być standardem. Piszę, bardziej, by uświadomić Bukary, że nie wszystko jest tu kolorowe.
za moment dostajesz autoHDR z W11 i sterownika Nvidii.
Auto hdr mod w sumie już jest i jest ok, jak się dostosuje i pobawi nim zależnie od gry - Special K HDR Retrofit
Auto HDR na Xbox działa całkiem, całkiem.

Oczywiście wymóg to min 600 nitów na oledzie i ok. 1000 na LCD. Her Pietrus pewnie widział fakeHDR na jakimś low endzie gdzie nawet go nie było.
Optymalne byłoby 1000 nitów pełnoekranowe. W końcu HDR10 na Windows to Rec. 2100 (koordynaty Rec. 2020), 1000 nitów. To osiągają jedynie monitory profesjonalne (jak Dual layer na matrycach panasa - Sony i Eizo) i może ze 2 mini-ledy. Na swoim G8 w bardzo jasnych scenach wiem, że nie uda się oddać wszystkiego (będzie albo kompresja - czyli wypłowienie; albo hard clip, czyli utrata detali powyżej maksymalnej jasności wyświetlacza w danej scenie - czyli np. oprócz słońca połowa nieba stanie się biała i nie będzie widać chmur, tylko biel).

Mimo wszystko kierowałbym się mniej więcej wytycznymi od Alexa
Kieruj się głownie tym wyborem HDR potem odświeżanie, potem dodatkowe funkcje jak VRR, G-sync, Freesync itd.
W innym wypadku zmiana wyświetlacza, ma mniejszy sens (raz, że użyteczność; dwa, że koszt).

post wyedytowany przez Raiden 2023-12-25 11:23:12
24.12.2023 15:46
Raiden
Raiden
143

Bukary
Żeby jak najbardziej zniwelować wpływ aparatu - masz porównanie z EIZO spva.
W tym gorszym scenariuszu
- tekst word, skala 80%, font 11, https://i.ibb.co/Z8YBgtv/DSCF6868-JPEG.jpg
Przybliżenie na piksele
https://i.ibb.co/wyhsLVH/DSCF6868-JPEG-1.jpg

W rzeczywistości pełna czystość tekstu

A dobre HDR na IPS-ach występuje i ma sens?
Tak, choćby ten Asus ProArt PA32UCR-K, którego polecałem (60hz i 4k), ale w 21:9 to ciężko.
Jest wspominany już AOC Agon Pro AG344UXM, ale on ma bardzo wysoką minimalna jasność.
By�� jeszcze ASUS ProArt PA348CGV, ale HDR ma tylko w nazwie... HDR 400, więc tak mocno średnio. Byłby to upgrade względem twojego (120hz, nieco lepsze kolory, obsługa HDR, ale tylko 400, więc bez szans na prawdziwe wow), ale bez szału.

Z bardziej gamingowych będą monitory raczej na VA
21:9
Lenovo Y34wz-30
Philips Evnia 34M2C7600MV/00 (już wspominany - mocne smużenie)
AOC AG353UCG
MSI PAG344CQR
Tylko to VA, więc trzeba posprawdzać dokładnie smużenie.

Potem z campingowych zostają 16:9
ROG Swift PG43UQ (tylko tu kontrast jak na ips, czyli to co masz, ale na tyle duży, że tak ja pisał Alex, zrobisz sobie na nim 21:9 też);
Asus ROG Swift PG32UQXR (tu już lepszy kontrast, ale cena rośnie ostro)

W tym wypadku już bardziej rozważyłbym "wypożyczenie" Samsung G8 lub Della DWF (ew. MSI), by samemu zobaczyć i zdecydować.

post wyedytowany przez Raiden 2023-12-24 15:48:44
24.12.2023 13:09
Raiden
Raiden
143

Herr Pietrus
W ogóle co się potwierdza? Może i Raiden ma sporą wiedzę ale jak widzę elaborat na temat gorszego niż na IPS/VA postrzegania ruchu bo tam jest ładne rozmycie, a na OLED z super cssem reakcji jest zbyt gwałtowne sample plus hold. i jeszcze to skupienie na strobo (że to niby fajne na tych TN 240 Hz?) to zapala mi się wielka czerwona lampka. Ogromniasta :)
Przecież mam przed sobą te ekrany i CRT, i IPS oraz OLED. Widzę co jak powstaje, w testach ufo można przestawać wszystko i widać, co jest czym. Point sample (czyli stroboskop CRT lub oszukane Point sample ze stroba LCD) zawsze będzie miało przewagę nad sample nad hold w odwzorowaniu ruchu. Nie bez powodu w radarach wojskowych systemów jest to wymóg agencyjny. Ale nie odklejając się. Opisałem to o widzę i napisałem też, że na testowanych OLED Panas i Sony było lepiej.
Ogólnie pomiary rtings, monitors unboxed itd. są bardzo fajnie i pokazują potencjał technologii, lecz wlepianie przy każdym 0,1ms 10 i nadawanie dużej wagi w ocenie końcowej, to trochę marketing.
Tu najbardziej profesjonalne podejście do odwzorowania ruchu https://learn.microsoft.com/en-us/previous-versions/windows/hardware/design/dn642112(v=vs.85)?redirectedfrom=MSDN

post wyedytowany przez Raiden 2023-12-24 13:09:26
24.12.2023 12:35
Raiden
Raiden
143

Bukary
Gdyby nie były "gorsze" niż na moim starym IPS, brałbym pewnie OLED
Szybkie porównanie (nie wiem, czy będzie jakkolwiek przydatne, bo wyświetlane na innym monitorze, ale może...), nie patrz na efekt tęczowy/mory na środku - norma przy robieniu zdjęć ekranom oled. Zdjęcia robione z tej samej odległości:
- tekst word skala 120%, font 11, https://i.ibb.co/TTtqhqY/DSCF6864-JPEG.jpg
Bardzo podobnie do tekstu na forum - nie widać tych zielonych (od dołu) lub fioletowych (od góry) przekłamań. Może zielone są delikatnie widoczne.
- tekst word, skala 80%, font 11, https://i.ibb.co/6RqhKSN/DSCF6865-JPEG.jpg
Zielone przekłamanie bardziej widoczne od dołu.
Przybliżenie na piksele https://i.ibb.co/FVr0M2z/DSCF6865-JPEG-1.jpg
Na normalnych czcionkach nie przeszkadza, na małych może.
Możesz to odnieść do tego, co pokazują w reckach.

Z tego, co piszesz, wynika chyba, że nie warto szukać monitora z HDR na tej matrycy, bo ta technologia jakoś pozytywnie na obraz nie wplywa. :(
Co do HDR, to odpaliłem Metro EE i jest bardzo, bardzo dobrze, ale to już testowałem i wiedziałem, że tak będzie. Ogólnie dużo zależy od gier. Ważne też odpowiednie ustawienie monitora. HDR10 na Windows używa Rec 2100 (koordynaty kolorystyczne z Rec 2020), czyli inaczej niż filmy w apkach itd., gdzie większość to DCI P3. Do tego sporo gier ma ten hdr średnio zrobiony (z kolorystycznego oraz gradientowego punktu widzenia). Robią obraz przejaskrawiony i tyle.
Metro Exodus EE ma najlepszy HDR w grach jaki widziałem. RDR 2 robi się lekko pastelowe. Spider Man ma kłopot z maks jasnością, ale da się dostosować, tylko trzeba się pobawić (poświecić czas, potestować, bo wyprowadzenie wyników pomiarów nie daje odpowiedniej jasności). Residen Evil 2 też robi się lekko pastelowy, ale daje radę z jasnościami i zachowaniem detali (ma dobrą kalibrację HDR w grze).
Ogólnie czekam na HDR10+ gaiming, bo to powinno wyeliminować większość bolączek HDR na PC, stąd wybór G8, ale inne pytanie, jest takie, jak to będzie popularny format.
HDR10+ na tv miał ciężkie początki i wszyscy mówili o DolbyVision, ale dziś jest już w miarę dobrze (prime video, rakuten, appleTV, hulu, paramont).

post wyedytowany przez Raiden 2023-12-24 12:45:42
24.12.2023 09:52
Raiden
Raiden
143

Bukary
W 21:9 jakieś kompromisy będą. Najlepiej, jakbyś sam zobaczył, czy te fonty w QD OLED ci przeszkadzają. HDR na PC to dalej zamieszanie, chociaż jest lepiej.

Jak budżet poszedł trochę w górę, może trzeba zrezygnować z 21:9 (bo tu raczej twórcy uznali, ze to format adresowany pod rozrywkę - gry, multimedia, HDR) i np. iść w benq PD3220U lub bardziej pod HDR Asus ProArt PA32UCR-K.

Na nich obróbka spoko, wszystko spoko; i na Asusie na HDR da radę, tylko 60hz, 4k.

post wyedytowany przez Raiden 2023-12-24 09:53:26
23.12.2023 20:33
Raiden
Raiden
143

Bukary
A nada się też do komfortowej pracy biurowej? Pisałeś o problemie z wyglądem fontów. Będą się prezentować gorzej (mniej wyraźnie) niż na moim dotychczasowym monitorze?

Moim zdaniem tak - ja nie ma z tym dużego problemu teraz odpisuje z niego i jest dobrze. Moim zdaniem na woled jest nieco gorzej, a zwracałem na to uwagę, bo każda recenzja zwraca; i moim zdaniem ten problem jest zbyt uwypuklony. Lekko mniej wyraźnie w porównaniu do ips Eizo jest (nie da się ukryć), ale dramatu nie ma.

Z innej beczki, pograłem trochę w gry, przede wszystkim z HDR i pierwsze wrażenia bez szału. Spider-man albo jest mocno przyciemniony i zachowuje detale w pełnym zakresie, albo jest jasna jak trzeba w HDR (ustawienie bez HDR game w G8), ale gubi detale w highlightach (ustawienie z HDR game w G8) - a ustawiłem mu punkt maksymalnej luminacji oraz białej karty wg pomiarów, więc albo twórcy kręcą dla ogółu (tych co nie mierzą i chcą efektu wow - bez detali, ale jasności), albo coś jest nie tak.

W RE2 remake jest ok, ale ta gra jest taka se pod HDR.
Pobieram Metro Exodus EE - jak do tej pory najlepszy HDR w grach jakie testowałem i tam zobaczę.

Co do płynności w grach, to jest lepiej niż w filmach, gdzie jest to dziwne wrażenie błyskawicznego wznowienie ruchu (rozmycie na LCD wygląda bardziej naturalnie, niż błyskawiczna zmiana na OLED, wynikając z respons time i tego, że to sample and hold). Tu też robotę robi VRR i to, że w grach możemy dodać rozmycie ruchu.

Jak na razie najlepszy HDR jaki widziałem na G8 był a apce amazonu z HDR10+. Gry z HDR10+ dopiero nadchodzą (The First Descendant i inne produkowane na UE 5.2+), ale to też tak, że HDR10+ jest wyłącznie na G8 z monitorów na tej matrycy.

Dam znać, jak w Metro i Chernobylite (btw, w RDR2 było dziwnie z HDR).
Swoją drogą, na Samsungu to z jednej strony dobrze, że można tyle pozmieniać, z drugiej sami co aktualizacje mieszają i zmieniają działanie funkcji.

post wyedytowany przez Raiden 2023-12-23 20:46:45
23.12.2023 11:04
Raiden
Raiden
143

Bukary
Teraz siedzę na starym LG 34UC88-B. Widzę, że wciąż jest dostępny w sprzedaży
Monitor masz ok.
Jak chcesz coś pod HDR, to OLED chyba jednak najlepszy.
Jedyna alternatywa, by mieć monitor pod to i to, to płaski AOC Agon Pro AG344UXM - https://tftcentral.co.uk/reviews/aoc-agon-pro-ag344uxm i przy braku multimediów ips nadal ma sens. Tylko ten monitor ma fatalną najniższa jasność - 152 nity. To nawet w dzień, taki jak dziś (pochmurny), zdecydowanie za jasno...

23.12.2023 09:29
Raiden
Raiden
143
Image
Wideo

Bukary
Z taką ostateczną oceną Samsunga G8 jeszcze się wstrzymam, bo trochę muszę go jeszcze potestować, a teraz czasu mniej.
Patrząc na twoje użycie i że ma być 21:9, może by było ok. ale przez duże "M"
- 45%: aplikacje biurowe i do obróbki grafiki czy zdjęć, przeglądanie Internetu;

Kolorki ma ok pod sRGB. Na kalibracji wyszła mi prawie identyczna korekcja co Rtings, więc nawet można te dane wklepać dla 2-punktowego balansu bieli. Problem to ta lekka poświata za literkami (jak pisałem - dla mnie tolerancyjna przy czytaniu/pisaniu), ale to też ma znaczenie przy obróbce photo i tu już może być większa lipa (np. gdybyś korygował poświatę krawędziową na zdjęciu - a ta byłaby tą z monitora).

- 45%: granie.
Właśnie granie muszę jeszcze bardziej przetestować, w szczególności z HDR. Ogólnie, tu by się bardziej nadawał, bo VRR robi swoje. Z 21:9 może nawet najbardziej (i niekoniecznie ten Samsung, ale ta matryca). Problem w tym, że spokojnie większą płynność da się uzyskać - na dowolnym LCD ze strobingiem (ULMB/DyAC+ czy jak tam to dany producent nazywa). Bardziej profesjonalne monitory używające PVM z marszu (strobingu), też, o dziwo, nie będą tak daleko za tym OLEDem. Na zdjęciu po prawej masz porównanie z OLED 240hz (27GR95 - pierwszy od lewej), potem w LCD 360 hz bez włączonego stroba i na koniec z włączonym strobem. Źródło techspot / monitors unboxed YT.
Ale mniejsza, bo większość wystarczy płynność jaką oferuje G8, a za większą zaletę uznają b.dobry HDR.

Sporo też zależy od tego, przed czym teraz siedzisz. Taki OLED pewnie się sprawdzi lepiej, a jak się uprzeć i koniecznie zostać na 21:9, to pytanie o ile jakiś inny LCD byłby lepsze od tego, co masz.
Lista "niby" najlepszy ultrawide: https://www.rtings.com/monitor/reviews/best/by-features/ultrawide
I może ma to sens, bo akurat matryc monitorów 21:9 to nie ma aż tak dużo.
Zostaje kwestia ewentualnych wypaleń, jak masz go mieć na kolejne 6 lat.

Czy z monitorów, które są aktualnie w sprzedaży, testowałeś może coś z dobrym HDR?
Ten G8 jest najlepszym, jaki testowałem z HDR.

Wiem, że nie jest prosto z decyzją, ale też ten monitor (czy sama technologia) nie jest taki jednoznaczny i chyba lepiej być świadomym wad.
Są jeszcze 2 monitorki z mini-led w 21:9. Nie testowałem ich, ale może w tę stronę: Philips Evnia 34M2C7600MV (zakrzywione VA - recka na purepc i toms hardware). Jakaś alternatywa dla OLED (też bardziej w stronę gier i HDR, ale z gorszą czernią, wyższa jasnością - znaczenie tylko przy HDR; i bez ryzyka wypaleń). Tylko będzie ghostling...
Drugi jest płaski i na ips AOC AGON AG344UXM. Zgaduję, że byłby lepszy pod photo, nieco lepsza płynność, ale IPS, nawet na mini led, słabo z czernią w ciemnych pomieszczaniach (większe znaczenie przy multimediach, więc ciebie pomijalne).

EDIT - na Philips Evnia 34M2C7600MV spory ghostling wg https://www.youtube.com/watch?v=k1HqNusTW5A

post wyedytowany przez Raiden 2023-12-23 09:36:16
23.12.2023 00:36
Raiden
1
odpowiedz
16 odpowiedzi
Raiden
143

Co do programików do testów, to już polecałem - darmowy 3d mark ze steam - sprawdzić gpu i cpu score, czy odpowiada wynikom innych RTX 4080 i i7.

Co do monitora, to właśnie testuje Samsunga G8 OLED. Mam tez ostro przetestowanego S90c, Panasa 980 i Sony 80 Tv OLED.
W sumie nie wiem co napisać, by ci nie mieszać. Ja mam zupełnie inne spojrzenie na monitory i odradzam tego OLEDa (21:9 na matrycy samsunga jest 5 monitorów oled). Wrzucę poniżej porównanie z tekstu nt. testów, ale dalej robię pomiary, sprawdzam itd.;
Tekst własny (czemu G8 a nie DELL na testach)

Do wyboru było aż 5 monitorów – każdy na tej samej matrycy. Każdy też oferował podobną jakość z pudełka (fabryczne tryby), lecz nie wszystkie dawał takie same opcje kalibracji. Podobnie wypadały co do ergonomii (tilt, pivot, svilt itd.). Jest jednak kilka sporych zalet Samsunga nad innymi, ale po kolei:

1. MSI MEG 342C QD – oferował najlepsze podłączenia (zwykłe DP 1.4, HDMI 2.1 - 48gb, USB hub, jak i usb-c hub, c alt mode); ładowarkę PD65W, nie dawał natomiast opcji dostosowania gammy (czyli brak pełnej kalibracji, jedynie częściowa przez 1 point balance; zostaje profilowanie); PIP; wyjście audio, brak głośników.
2. Dell Alienware AW3423DW oraz AW3423DWF – oferowały najgorsze podłączenia (DP 1.4 i HDMI 2.0 – a nie ukrywam, że kiedyś może podepnę konsolę), miał najlepsze kolory z pudła, usb hub, brak ładowarki i podobnie jak MSI oferował częściową kalibrację. PIP; wyjście audio, brak głośników. Model z „F” różni się brakiem g-sync oraz 165hz zamiast 175hz, ale karty Nvidii działają z normalnym VRR, więc bez różnicy, tyle, że taniej.
3. Philips Evnia 34M2C8600 – bardzo zbliżona charakterystyka do Della (HDMI 2.0, b. dobry tryb z pudła), lecz praktycznie bez opcji kalibracji (nawet balansu bieli), PIP; wyjście audio, brak głośników.
4. Samsung G8 OLED (min DP 1.4, micro HDMI 2.1 - 40gb, c alt mode), ładowarka PD65W, brak usb huba, pełna opcja kalibracji. Brak PIP, głośniki 5W, brak wyjścia audio.

Powyższe aspekty nieco wpłynęły na wybór, ale nie były kluczowe (chociaż za ogromny minus uznaję brak usb huba, z którego zawsze w monitorach korzystałem oraz brak wyjścia audio pod głośniki). Tymi okazały się dodatkowe funkcje Samsunga. Przede wszystkim multimedialność i system Tizen. Aplikacje jak na TV (Netflix, Prime, HBO itd.) i wszystko spokojnie zadziała w HDR, a nie jak na Windows, gdzie nieraz to przeprawa przez piekło (chociaż dziś jest lepiej niż 2-3 lata temu, to nadal łańcuch uzyskania HDR jest nieco skomplikowany). Do tego HDR10+ (amazon prime, rakuten) oraz HDR10+ gaming (który niedługo debiutuje). Normalnie nie łapie się na takie zabiegi, ale HDR10+ znam i cenię (tak jak i Dolby Vision). Na dodatek pełna kalibracja (nie blokuje opcji w żadnym trybie obrazu) i opcja kalibracji przez apkę ze smartphona Samsung. Dorzucając do tego pełną opcję dostosowania formatu obrazu (czyli filmy 2.35:1 w full screen z aplikacji Netflix, prime itd.). I na ostatek – każdy pozostały QD-OLED 34” jest mniej (DELL z "F", MSI) lub bardziej (Philips oraz DEll bez F) słyszalny (chłodzenie wentylatorem). Ten od Samsunga nie. Możecie się śmiać, ale od lat siedzę przed monitorami chłodzonymi wentylatorami i te potrafią być irytujące, natomiast jestem w tym aspekcie przyzwyczajony do ciszy i nawet mój retro EIZO, po 12000h i 14 latach na karku, jest cichy (niesłyszalny ponad tło, nawet w nocy), gdy mu nie dowalę jakąś dużą jasnością na długo.

Kolejną ważną sprawą były gwarancje oraz wypalenia. Dell i MSI to 36 miesięcy gwarancji; Samsung i Philips 24 miesiące. Nie mam zamiaru go wypalać, ale to OLED. Gwarancje na wypalenia oferuje Dell. Samsung w teorii nie (chociaż to informacje zagranicznych oddziałów, nie wiem jak w PL). Reszta modeli - nie wiem. Ale nie miało to dla mnie większego znaczenia, gdyż przy moim użytkowaniu (80% w 80-120 nitów; 20% hdr) raczej w 2 lata nic się nie pojawi, tym bardziej, biorąc pod uwagę drugi najważniejszy punkt co do wypaleń – technologie przeciwdziałające. Samsung i Philips mają wszystkie opcje. Długi refresh (1h, zalecany po 1500h/2000h); krótki (6/7 min, po każdych 4h użytkowania i przejściu w standy/wymuszony); pixel Shift; jasność elementów statycznych – logo itd. (ABL). Dell oraz MSI mają krótki i długi refresh, brak info o przyciemnianiu elementów statycznych.
Ważna adnotacja – sam tego nie sprawdziłem, gdyż mam GPU Nvidii, ale Oledy na matrycach Samsunga nie chcą za bardzo gadać z GPU AMD. Jedynie MSI i Dell bez „F” nie miały tu problemów. Pozostałem ucinały maksymalną jasność na 500 nitach i/lub miały problem z migotaniem. Do tego, na ten moment HDR10+ gaming działa tylko na gpu Nvidii (tyczy się tylko Samsunga G8, jako jedynego wspierającego tę technologię). Z HDR10+ na ten moment mogą korzystać wszystkie gry na UE 5.2 i nowszym.

Jak widać, na podstawie powyższego, nie ma „idealnego” QD-OLEDa. Samsung byłby dla mnie, gdyby miał usb hub, wyjście audio pod głośniki oraz, może, dłuższą gwarancje z pokryciem wypaleń. Dell i Philips średnie pod ew. konsole, do tego bez smart systemu. MSI wygląda ok. prawie pod każdym względem, poza kalibracją. Ponadto tylko Samsung wspiera HDR10+ (też pod gry) i ma głośnik (nawet znośne), jeżeli to miałoby dla kogoś znaczenie. Poza Dellem z „F” brałem każdy pod uwagę i gdzieś już każdy miałem w koszyku, to jednak Samsung mnie przekonał. Oczywiście Tizen i HDR10+ to sporo marketingowego pierdu pierdu Samsunga, ale też trochę faktycznych zysków. Do tego bezproblemowe podpięcie konsoli z HDR i supersamplingiem z 4k (to oferuje też MSI); oraz pełna kalibracja (to już tylko Samsung).

Po pierwszych testach z marszu mogę powiedzieć, ze chociaż G8 ma własnego smart TV (co jest ogromnym plusem z uwagi na utrudnione życie HDR na windows - np. apki amazon czy Disney nie odpalają na Windows HDR), lecz ogromnym problemem okazuje się procesor obrazu tego monitora. Cokolwiek z niższym bitrate odpalam z apki na monitorze (ograniczone do 1080p i upscaling przez monitor do 1440p), to posteryzacja, pompowanie skalowania i to nie raz i już. Obraz mroczkuje kilka razy na sekundę. Przy wysokim bitrate jest w miarę ok. Rozwiązaniem jest np. podpięcie apple TV (dalej ma hdr10+, 4k - więc będzie supersampling, do tego fps to hz match).

Ale kupujesz monitor, a nie TV, więc pomijając multimedia, to sam monitor ma genialny zakres tonalny, średnią płynność obrazu (na 175hz - tylko w trybie gra jest powiedzmy ok; poza trybem gry 60 lub 120hz i tu jest już gorzej). VRR oczywiście działa (gsync compatible) i nieco pomaga. Miałem już też zonka z przestrzeniami kolorów. W jednej aktualizacji Sasmung niby naprawił tryb auto, w następnej naprawił native ehhhh... w 90% auto będzie odpowiednie, ale np. dla przerabianych hdr, robionych pod rec 2020 (m.in. Piraci z Karaibów na Disney+ w HDR), już trzeba zmienić na native, żeby było ok. Poza tym Kalibracja i profilowanie proste. Co do kalibracja przez smartphona, to jest robiona pod native, więc tak średnio użyteczna. Ale pozostawiając rzeczy, na które może nie zwrócisz uwagi:
- G8 ma przyzwoite głośniki jak na monitor,
- brakuje tego huba usb,
- Czerń, jak czerń, ok, w multimediach się przydaje, ale dalej do grafiki tego monitora się nie użyje.
- G8 jest też zbyt jasny na nocny użytek (min. jasność to niby 60 nitów, ale to przy prawie zerowym kontraście; jak chcemy coś zostawić w rozsądnych wartościach, to bliżej 100 nitów - vide, w zupełnie ciemnym pomieszczenie jako monitor do czytania czy coś, nieużytkowy).
Nie mam też zbyt dużego problemu z czytelnością tekstu (na co zwracają media uwagę przy tych matrycach). Powiedziałbym, że ta poświata przy literakach jest lekko widoczna, ale jest ok.

Podsumowując G8 (i w sumie pozostałem ultra wide na matrycach OLED od Samsunga):
- na TV się nie nadają, chyba, że w parze z apple tv;
- mistyczna płynność OLED jest w przypadku tych matryc średnia (obok CRT czy LCD z włączonym strobingiem to to nie stało) - dopowiem, ze matryce od LG, przede wszystkim te w TV panasa i Sony, gdzie mamy lepsze sterowanie BFI, radzą sobie lepiej; Dlaczego? Sample and hold i tyle w teamcie, a do tego błyskawiczny czas reakcji matrycy przy tej technice szkodzi, a nie pomaga - tworzy screen-door motion resolution effect(na 120hz dość widoczny, na 175hz mniej i widoczne bardziej w filmach niż grach, tym bardziej, że w tych jest opcjonalny VRR).
- genialny zakres tonalny i HDR (potrafią być jasne; przede wszystkim w HDR 10+, chociaż ten jest tylko w G8 - to najjaśniejszy OLED jakiego testowałem);

Co do wypaleń, to każdy z tych monitorów ma technologie przeciwdziałające i jak my ich nie odłączamy od prądu tuż po skończonym użytkowaniu (wtedy przeprowadzają szybki referesh - 6-7 min), to się raczej nie wypalą, tym bardziej jak w SDR będziemy siedzieli na 100 nitach, a nie 240 i wypalali nie tylko ekran, ale też sobie oczy.

Sam pewnie zwrócę/sprzedam G8 i dalej będę siedział na swoim Eizo. Aktualnie trzaskam porównania tej G8 z prawie topowym CRT ;)

Co do wyboru monitora przez Ciebie, to jeżeli nie celujesz w HDR (przynajmniej 20-30% użycia), to OLED ma średni sens. Lepszy będzie jakiś dobry LCD. I to nie kwestia wypaleń , jak pisze Aleks - wygaszacze ekranu nadal istnieją,. G8 po paru min sam włącza swój wygaszacz, do tego kluczowa jest jasność ekranu (240 nit wypali nam wszystko ok, 6 razy szybciej, niż 100 nitów).

Co do monitorów w tym budżecie:
- do SDR i pracy buirowej/lekkiej grafiki i okazjonalnego grania kupiłbym EIZO FlexScan EV2785-BK, a jak się uprzeć na 21:9 to poszukać Fujitsu P34-9;
- do początków z foto itp. kupiłbym EIZO ColorEdge CS2731;
- do CADa oraz wielozadaniowości BenQ PD2725U;
- do hardego grania kupiłbym BenQ Zowie XL2566K;
- pod multimedia i HDR kupiłbym TV.

post wyedytowany przez Raiden 2023-12-23 01:33:47
15.12.2023 14:59
Raiden
odpowiedz
1 odpowiedź
Raiden
143
Wideo

Xbox wygrywa:
- konstrukcją (lepsze chłodzenie, rozmiary i ogólny pomyślunek),
- game passem;
- boostem gier starszych (do 60/120 fps itd.);
- szybkim powrotem do gry (Quick Resume);
- auto hdr (fajna opcja, dla wykorzystania potencjału TV z HDR; Xbox ma też pełne hdmi 2.1; PS5 ucięte do 40gb, ale bez hdr i 4:4:4 to bez znaczenia)
- dostępnością cenową (xbox series S).
Teoretycznie ma też nieco lepsze GPU i może jest o tych kilka tytułów działających lepiej na Xbox series X więcej niż tych działających lepiej na PS5, ale to niewielki odsetek (ostatnio Alan Wake 2 miał o 60% mniej dropów na Xbox, ale i tak tych dropów nie było tak dużo na PS5).

PlayStation ma przewagę:
- w grach (tylko tu, w tej generacji, póki co szału nie ma),
- kontrolerze (dual sense);
- VR (chociaż to nisza, to Xbox nie ma tego w ofercie).

Kluczowe wydają się gry (chyba, że coś z powyższego szczególnie do ciebie przemawia), więc przejrzeć biblioteki exów i tyle.
Ogólnie Xbox lepsze funkcje, Sony lepsze exy i VR (ale tu też kto, które gry woli).

https://youtu.be/x7fbVYKdCag?si=SrNTcIK432Ipw-VR

post wyedytowany przez Raiden 2023-12-15 15:04:12
14.12.2023 08:08
Raiden
Raiden
143
Image
Wideo

Mr. JaQb
Czemu nie robi tego producent od nowości? Bo każda karta jest różna, każda nowa karta chodzi na stabilnych, bezpiecznych zegarach które użytkownik sam sobie może zmieniać.
Lepsze pytanie, czemu Intel tak poleciał z limitami mocy (i napięciami)?
I to już każda szanująca redakcja rozgryzła w pierwszym dniu po otrzymaniu cpu - bo na niższych, dotychczasowych limitach przegrywali w syntetykach z AMD. Przy limicie 210W (najmocniejszy aktualnie procek AMD), byli 5% za nimi. Więc dawaj - cyferki muszą się zgadzać i ogień. https://youtu.be/vcjj1sOPeYc?si=USNFdWI_FvqGOH9T&t=732
Obrazek z morele>>>
Tak, niech więc użytkownik się martwi i kupuje lepsze, droższe chłodzenie, kij, że przy 330W, w stosunku do 210W, zyskujemy tylko 10% wydajności (za 50% więcej W), ale jesteśmy lepsi od AMD.

Użytkownik może zrobić:
- UV (obniżyć temp., pobór, nie tracąc na wydajności);
- ustawić sam limit mocy dla CPU (obniżyć temp, pobór, niewiele tracąc na wydajności);
- ustawić limit oraz zrobić UV (bardziej obniżyć temp, pobór, niewiele tracąc na wydajności).

post wyedytowany przez Raiden 2023-12-14 08:16:15
13.12.2023 16:10
Raiden
odpowiedz
4 odpowiedzi
Raiden
143

Drackula
w dobie ogolniedostepnych AIO polecasz mu wieszac kolejne 800 gram na plycie? jess
Daj ty mu juz spokoj z tym UV. Nie jest mu to do niczego potrzebne.
Jakby nie chcę się sprzeczać, bo AIO to dobre rozwiązanie, ale droższe i nie zawsze lepsze.
Ja mam chłodzenie powietrzne, które ma blisko 10 lat. W międzyczasie przetestowałem kilkanaście innych, w tym AIO. Przede mną też jeszcze kilka chłodzeni, które już mam i czekają na swoją kolej do testów.
Z mojego doświadczenia wynika tyle, że powietrze jest jednak trochę mniej problematyczne (nieco łatwiejszy montaż, chociaż to też zależy od modelu). Nie widzę tego, by jakieś aio działało 10 lat, ale Bukary wybrał dobrze i pewnie będzie zadowolony

Druga sprawa to, co piszesz o UV. Jaki jest cel montażu AIO (czyli wydania większych pieniędzy)? Jeżeli uzyskanie niższych temp, to to samo mamy za darmo (pomijając koszt płyty Z, bo ta ma też inne zalety) - robiąc UV. Co się wiąże z niższymi temp, to spadek hałasu, natomiast UV ma tu też bonus - spadek poboru prądu.
AIO w stosunku do nawet najlepszych powietrznych będzie miało przewagę w kwestii temperatur i obiegu powietrza w budzie (temp. gpu), jeżeli zainstalujemy na górze. Ucierpią jednak temp. sekcji zasilania.
I jakby rozumiem, że Bukary nie będzie nic renderował i u niego bardziej to będzie 120-150W w najbardziej wymagających grach na tej i7 niż 254W w Blenderze. Dlatego zawsze pierwsze skrzypce gra użyteczność vs. cena.

PS
Najbardziej wymagające gry dla CPU dziś to The Last of us Part 1 Remake, Hogwart Legacy z odpalonym RT, Dead Space Remake, Spider Man Remaster z odpalonym RT, trochę jeszcze Resident Evil 4. Są też jeszcze tytułu mocno wymagające, ale tam raczej GPU ograniczy FPS, a tym samym użycie CPU (np. Cyberpunk 2.0, A Plague Tale: Requiem). Sprawdź sobie temp. swojego CPU hw info w którejś z powyższych (swoją drogą Avatar też jest dość wymagający).

PPS
I żeby nie było pod i7 i i9, nawet z UV, pod rendering wymagane raczej AIO lub topowe powietrze (wtedy konieczne UV). Do gier powietrze przy i7 jeszcze się obroni.

post wyedytowany przez Raiden 2023-12-13 16:13:26
13.12.2023 15:24
Raiden
odpowiedz
1 odpowiedź
Raiden
143

Drenz
Bardzo konkretna i fajna lista.
Trochę zazdroszczę czasu na granie :)

12.12.2023 22:12
Raiden
Raiden
143

Herr Pietrus
W zasadzie to trochę przeszła już rada, związana z tym, jak kiedyś działały kontrolery i że dyski SSD były mniejsze.
Chodziło o ograniczoną liczbę zapisów pamięci falsh i to, że kontroler używał w partycji tylko przypisanych komórek. Czyli jak mieliśmy dysk 256, podzielony na partycje 60 gb i reszta, to kontroler mieląc tylko po tych 60 gb (czy też zmniejszając drugą), był w stanie szybciej wykończyć dysk.
To się zmieniło. Dziś mamy lepsze kontrolery, a dyski większe.

Dlatego to taka naleciałość, ale pozostaje pytanie, po co dzielić, skoro dla dysku to już nie ma znaczenia, jak miało dla mechanicznego. I tu wchodzi zarządzanie partycjami vs. zarządzanie folderami.
Zarządzanie partycjami ma tylko minus w przygotowaniu (rozplanowaniu), ale później daje pewne plusy (możliwość deinstalacji systemu itd., bez ruszania drugiej partycji).
Zarządzanie folderami też ma plus w postaci - dla Windowsa czym innym jest przenoszenie/rozpakowywanie pomiędzy folderami a czym innym pomiędzy partycjami. W folderach będzie wystarczająca zmian adresu; w partycjach częściej trzeba kopiować całość (tym bardziej, gdy w operacji będzie uczestniczył folder temp. eksploratora Windows).

Także kto co woli i kto odnajduje w czym większą wartość. Coś za coś, ale jakieś ogromne różnice to nie są, biorąc pod uwagę żywotność i szybkość dzisiejszych dysków SSD.

post wyedytowany przez Raiden 2023-12-12 22:25:20
12.12.2023 19:36
Raiden
1
odpowiedz
8 odpowiedzi
Raiden
143
Image
Wideo

Bukary
Jest masa dobrych poradników w necie, więc ogarniesz. Ważne, to złożyć ile się da poza budą, przygotować sobie kablologię i dopiero wkładać jednostkę.
Padło na intela czy amd? Swoją drogą filmik z dziś, na nowych sterach: https://youtu.be/7KZQVfO-1Vg?si=FoIl9PeulgT9stNd
Z rzeczy oczywistych:
- zasilacz wg instrukcji i tego, jak ma być montowany dla trybu półpasywnego lub pasywnego (jeżeli taki ma) - czyli czy wentylatorem do dołu czy do góry (wnętrza obudowy); (przy budach z piwnicą - obudówką na zasilacz, zawsze w stronę wlotu powietrza (wg instrukcji budy);
- ram w dobre sloty (wg schematu z instrukcji płyty głównej - by działały w dualu);
- dyski m.2 też (slot przy CPU ma zawsze linie do cpu, ten dalej ma do chipsetu, ale jak masz takie same dyski to bez znaczenia)
- GPU - u ciebie przy zasilaczu nie ma problemu, ale zawsze też podpinamy wg schemat z instrukcji zasilacza (przede wszystkim GPU łączymy z odpowiednimi liniami pci - ty masz już nową złączkę, więc jest prosto, bo jest jedna wtyczka, ważne, by było klik przy podłączeniu);
- chłodzenie wodne wg instrukcji/pod aio pump;
- trochę zabawy z podpięciem power up, światełek itd. (wg schematu z instrukcji płyty) chyba, że masz już jedno złączkę od obudowy;
- montaż aio do cpu - zawsze pompa musi być pod najwyższym punktem radiatora (pompa poniżej najwyższego punktu obiegu), a wejście wężyków lepiej, by było na dole niż górze (optymalnie też montaż u góry budy - pod sufitem, żeby wentylatory wyciągały powietrze z budy) https://youtu.be/BbGomv195sk?si=VXsuYl7tnIkT2lXF&t=780
- pasta będzie już pewnie na aio, ale jakby miało nie być, to metoda kropkowa (wiele małych kropek lub znak X). Ma to raczej drugorzędne znaczenie; i lepiej dać dużo za dużo niż prawie nic. https://faqs.noctua.at/en/support/solutions/articles/101000353274-how-should-i-apply-the-nt-h1-or-nt-h2-thermal-paste-onto-the-cpu-and-how-can-i-remove-it-
- sprawdzić sobie w instrukcji gdzie jest zworka do restartu biosu.

Po odpaleniu (można już pod odpaleniu windy):
- update biosu przede wszystkim;
- update driverów chipsetu;
- ustawić drugi dysk w menadżerze jako partycje prostego itd. https://youtu.be/zSDCeCsaDco?si=dAFKCRp2YF4f0ma0 ; raczej nie dzielimy jednego SSD na partycje;
- ustawić profil RAM w bios: xmp (dla intela lub expo /docp dla AMD);
- jeżeli wybrałeś intela i płytę "Z", to ja robiłbym z miejsca UV (można z poziomu pulpitu)
https://youtu.be/GKLyZQ1yuV8?si=TN4zz0yB_WkeiDKA
- ustawić
- pobrać hw info
- zrobić testy np. w cinebenchu lub 3d marku (steam), by sprawdzić, czy mamy odpowiedni score dla naszych podzespołów (= czy działają poprawnie)

Co do samej pasty, to Kryonatu jest dobry, ale chyba tylko do testów... Gelid się ostatnio popsuł, więc jak masz dokupować, to arctica mx4/mx6, Noctuę NT-H2, lub EKWB EK-TIM Ectotherm, chociaż jest też jeszcze kilka innych dobrych past.

post wyedytowany przez Raiden 2023-12-12 19:58:17
12.12.2023 00:34
Raiden
odpowiedz
Raiden
143

Ja bym jednak trochę zbadał sprawę.
Pytanie jak płyta (pamiętaj o updacie biosu przed wymianą cpu)?
Do tego jak masz ten ram (dwie kości?)?

10.12.2023 17:27
Raiden
Raiden
143

Bukary
znam się/nie znam, też mam swoje "widzi mi się" (np. na cpu preferuję AMD, płyty asusa itd.).
Ja składam swoje kompy pod granie i okazjonalna obróbkę w Davincim Resolve (bo innej już w domu nie robię).
Jakiś specjalnych uwag, niż te wcześniejsze, nie mam. Jeden dysk 2 lub 4 tb.
Zestaw wygląda ok., tylko zasilacz Corsair RM850X SHIFT CP-9020252-EU, zmienił się chyba w wersję bez ATX 3.0 (CP-9020200-EU). Tak chciałeś?

10.12.2023 16:05
Raiden
Raiden
143

Drackula
Bo czemu miałbyś mieć problemy. Jeżeli nie kupiłeś w pierwszych 3 miesiącach po premierze lub używałeś tylko do gier (zapis mało ważny); robiłeś aktualizacje na bieżąco i nie używałeś z ZEN 2 na x570, to raczej nie miałeś problemów.
https://www.purepc.pl/samsung-980-pro-otrzymal-nowy-firmware-ktory-chroni-nosnik-przed-nagla-awaria-lepiej-nie-zwlekac-z-aktualizacja
https://eu.community.samsung.com/t5/sprz%C4%99t-komputerowy/problemy-z-dyskami-samsung-ssd-980-pro/td-p/7002085
https://www.benchmark.pl/aktualnosci/samsung-980-pro-jak-rozwiazac-problem-z-zanizonym-zapisem.html
Ja niestety spełniłem wszystkie powyższe. I zęby nie było - dziś mam wersje 1tb (po wymianie proca na 7 5800x3d zapis ruszył) i jest ok. 2tb mam WD sn850x.

post wyedytowany przez Raiden 2023-12-10 16:14:20
10.12.2023 15:10
Raiden
Raiden
143

Drackula
Ram to akurat nie ważny (czy raczje drugorzędny) wydawca. Ważniejsze jakie kości. Samsung b-die są najlpesze, ale też swoje kosztują. dalej mamy inne rozwiązania.

Płyta też zalezna od sekcji zasialnia, portów itd. których potrzebujemy, a nie marki. Chociaż Asus ma najlepsze kotrolery pamięci ram.

Dysk: akurat samsung 980pro to największa wpadka samsunga. Już pomijam, że ma niższy zapisy od konkurencji (4500mb w uzyciu vs. 5500-6000 przy kc 3000 lub wd sn 850), bo tego poza testami użytkownik w grach nie zobaczy (tam liczy się odczyt). Już pomijam mały bufor slc, bo to akurat się zobaczy, w szczególności po zapełnieniu dysku, ale po przekroczeniu slc samsung w miarę trzyma prędkość, więc mu wybaczone. Ale to co odwalili z tym dyskiem to komedia. Po wydaniu prędkość zapisu szorowała po dnie, iops też. Dopiero 3 łatka naprawiła temat. Druga sprawa, to że z prockami zen 2 (u mnie był r5 3600) na plytach x570 (gdzie wszystko działa pci 4.0) zapis nie przekraczał 60%nimianlnego (odczyt był dobry). Tu już łatki nic nie dały. A na koniec akcja z wersjami 2tb i tym, że bez aktualizacji 100% dysków padało. Czyli jak miałeś dysk z pidełka i nie zrobiłeś akutalizcjic, to żegnajcie dane. Brawo Samsung. Dla mnie tyle w temacie 980pro, bo wszystko to przerobiłem. I dalej mam wersję 1tb tego dysku.

Przy zasilaczu też trzeba patrzeć na bebechy i producenta oem. Asus, msi, thermaltake czy bequite nie robią zasialczy. Biorą bazy od seasonic, cwt, fortona (fsp) i innych.
Najlepsze bazy na dziś to SeaSonic prime (też w użyciu przez Asusa rog thor). Ale że w testach wypada o 1% lepiej od najlpeszej bazy fsp, to pytanie, czy to jest warte 20%wyższej ceny...
Nie czytałbym też tego, co pisze Leo Tar. Zasilacze mają zapas na skoki i mają zabezpieczenia (chociaż skoki na rtx 30xx wystepowały naprawdę i były spore). Do rtx 4080 polecany jest 750w i to przy i7. Przy r7 7800x3d spokojnie 650 w by starczylo i tak też ja testowalem (na seasonic prime px 650w). Żyje.
Nie kupiłbym natomiast zasilacza z kilkoma liniami 12v zamiast jednej. Takie są często bequiet.

10.12.2023 00:34
Raiden
Raiden
143

Co racja, to racja, bo w bechmarki się nie gra i też podzielam to zdanie, chociaż może nieco większą wagę przywiązuje do cyferek.
Co do podawania temp. To rzetelniej jest z hw info (sensory), gdzie mamy temp min, max, obecną i średnią od momentu resetu pomiaru. Tam jest też faktyczna temp rdzeni procka, a nie uśredniona (i to od tej faktycznej zależy zbijanie zegarów).

post wyedytowany przez Raiden 2023-12-10 00:34:42
10.12.2023 00:19
Raiden
Raiden
143

Drackula
Pisałem, że w grach, bez znaczenia i by się nie przejmował...
Pytanie, czy masz UV u siebie zrobiony?
Nie za bardzo też rozumiem, co pokazuje ten screen. Brak temp max z testu, podanego czasu, max obciążenia z testu, tylko temp po wyłączeniu gry (na to też wskazuje temp schłodzonego gpu)? Czy coś źle odczytuję?

post wyedytowany przez Raiden 2023-12-10 00:21:01
09.12.2023 23:10
Raiden
Raiden
143

Bukary
Przy i7 oraz i9 13th/14th gen bez UV - obniżenia napięcia (wymagana płyta Z) i/lub podstawki montażowej (np. Thermal Grizzly Ramka kontaktowa LGA 1700 TG lub Thermalright LGA1700-BCF) są kłopoty z uzyskaniem pełnego scora w cinebenchu, gdyż te procku zbijają taktowania z uwagi na przegrzanie - i tak, nawet na AIO 240mm.
Nie przejmowałbym się, bo w grach nie będzie miało to najmniejszego znaczenia (w sensie liczby FPS - AIO 240mm spokojnie da radę), bo to inny rodzaj obciążenia, z innymi instrukcjami, zostaje tylko kwestia temp/hałasu.

AMD z am5 też święte nie jest, ale akurat procki z pamięcią 3d są fajne zoptymalizowane, więc gorąco raczej nie będzie, nawet na powietrzu (Fortis 5). gorzej z pozostałymi prockami AMD (bez dopisku x3d), ale o nich nie piszemy a i tak nie jest tak źle jak z Intelami. No niestety, czasy AM4, które było bajecznie łatwe do schłodzenia, się skończyły.

post wyedytowany przez Raiden 2023-12-09 23:13:06
09.12.2023 22:07
Raiden
Raiden
143
Image

wydajność per W >>>

09.12.2023 22:07
Raiden
Raiden
143
Image

Bukary
Ryzen 7 7800x3d z b650 i tańszym chłodzeniem, wyjdzie podobne kwotowo jak intel i7.
Wydajność w grach na ten moment >>>> źródło pcgh
Wielkich różnic nie ma (intel na trochę lepszych ramach tu, więc Ryzen 7 na takich samych kościach jeszcze trochę zyska), ale są gdy spojrzysz na wydajność per W (następny post)

09.12.2023 21:31
Raiden
odpowiedz
11 odpowiedzi
Raiden
143

W przypadku ramu mhz, jak mhz, ale timingi maja takie samo jak nie większe znaczenie.
Co do płyty, to moje wątpliwości nie dotyczą tego, że to słaba płyta. Ona jest dobra, ale na płycie B jeszcze z pół roku temu nie dało się robić UV CPU (nie wiem, jak jest teraz) i to był dramat. Po prostu procki intela i7 i i9 mocno się grzeją, a to przekłada się na hałas (bo niższego scora w cinebenchu poza cinebenchem nie zobaczysz). Rozwiązaniem zawsze było UV. Inni też dokładali ramki prostujące soket, co, w zależności od płyty i chłodzenia dawał od 2 do 15 stopni w dół.
Stąd moja rada - iść w AMD, chociaż am5 daleko do am4 pod względem bezproblemowości.
Ryzen 7 7800x3d + ASUS TUF Gaming B650-Plus WiFi (jak potrzebujesz wifi, a jak nie, to wersja bez) i tyle w temacie. Będzie chłodniej, mniej W i wydajniej w większości gier. Do tego można w przyszłości zmienić CPU, a na podstawce intela nic nowszego nie włożysz.

EDIT, wtedy można na spokojnie wziąć Fortisa 5, a jak chce się AIO, to byle jakie z polecanych wyżej ogarnie.

post wyedytowany przez Raiden 2023-12-09 21:36:24
09.12.2023 20:20
Raiden
1
odpowiedz
5 odpowiedzi
Raiden
143

Na szybki rzut oka:
Grzejnik od intela (i7 14th gen...) na płycie, gdzie pod znakiem zapytania będzie undervolting?
Sama płyta ok, ale to "B". Z CPU i płytą szedłbym w AMD, ale twój wybór.

Pamięci ram można lepsze.

Dysk do zmiany. Mam Samsunga 980 pro, ale mam też lepszego WD SN850x. I kij z testami, bo tych 1000mb szybszego zapisu na WD w życiu nie zauważyłem, ale buffor SLC już zobaczyłem i tu Samsung jest średni (mały buffor, ale utrzymuje ok prędkości). Jak dysk to WD SN850x lub KC 3000.

Zasilacz jak najbardziej ok. Sam mam SeaSonic prime plata, ale dziś bym za to tyle kasy nie dał. Zastanawiałbym się nad Thermaltake Toughpower GF3 850W ATX v3.0. Bardzo podobna platforma do tego RM850X SHIFT. Bazy robione przez CWT - 90% identyko, jednak Corsair ma lepsze filtry i zabezpieczenie "inrush". Thermaltake ma lepszy wentyl (chociaż Corsair też ma b. dobry).

Chłodzenie proca do zmiany. Jako powietrze, to Fortis 5, a z mocniejszych i dwuwieżowych thermalright peerless assassin 120, ale powietrze tak średnio do i7 bez UV. Z AIO Thermaltake Toughliquid 360 ARGB lub arctic liquid freezer ii 360. 280mm też da radę

post wyedytowany przez Raiden 2023-12-09 20:30:37
09.12.2023 11:16
Raiden
Raiden
143

Biorąc pod uwagę formę Bethesdy (Fallout 4, Faltout 76, Starfield) to Avowed i Obsidian są jedyną szansa na dobrego TES.

05.12.2023 23:59
Raiden
odpowiedz
Raiden
143
Wideo

O konieczności powstania CPK (lecz w innej, rozbudowanej, formie) mówi też Marcin Piątkowski (profesor ekonomii z US, wykładowca Harvarda i w London Business School, były główny ekonomista PKO BP za PO, dziś główny ekonomista Banku Światowego na Chiny i Wietnam), przeciwnik rządów PiS i tego, co wydarzyło się przez ostatnich 8 lat.
Kolejne świetne didaskalia [poza CPK, o liście otwartym do rządu; o głupocie 13 i 14 emerytur, Balcerowiczu; potrzebie inwestycji i rozwoju; największej potrzebie dofinansowanie systemu nauczania; celu 30-20-10; głupocie PiS w wielu aspektach (TVP, sądownictwo, TK, aborcja - ogólnym ataku na instytucje), lecz braku poważnych błędów gospodarczych co do PKB (choć NBP nie popełniło ich, to stało się organem politycznym); Stanach Zjednoczonych Europy - wzmocnieniu UE; reformie systemu podatkowego oraz błędach polskiego ładu].
Co robić:
- nie obniżać podatków (nie dla 60k wolnych od podatku), gdyż to wpłynie na najbogatszych, a uderzy w możliwości inwestycyjne (zuboża Państwo oraz zwiększa nierówności dochodowe);
- nie dla 13 i 14 emerytur (ale tak dla rewaloryzacji emerytur);
- zastanowić się nad składką ochronną (tymczasowy podatek na obronność i armię);
- podwyżki dla nauczycieli 30% i 20% dla budżetówki (jako kluczowy czynnik w szansie na rozwój i tworzenie podłoża inwestycyjnego dla zachodnich firm);
- CPK jako część rozwoju łańcuchów dostaw i jako podłoże dla zachodnich inwestycji (zachód przestaje inwestować w Chinach - 200-300 mld $ rocznie musi być inwestowane gdzieś indziej i bez CPK ciężko, by w pełni wykorzystać potencjał naszego kraju i chociaż część tego tortu zdobyć). Proponuje związany z tym projekt strefy ekonomicznej pomiędzy Łodzią a Warszawą.

Sporo amerykańskiego myślenia, ale może potrzebujemy. Kolejny punkt widzenia wrzucony do bagna pt. "co dalej z CPK".
https://youtu.be/8fgd6siB7qw?si=iScrJL9g18-iPt6s

post wyedytowany przez Raiden 2023-12-06 00:06:30
04.12.2023 17:54
Raiden
Raiden
143

No jakby się zgadzam, ale jednak rozumiem, że chcą monetyzować i ciągnąć w stronę Starfield 2, który będzie miał premierę za 15 lat, jak dobrze pójdzie.

04.12.2023 13:31
Raiden
odpowiedz
1 odpowiedź
Raiden
143

Wyłącz Vsynca i jeżeli dalej tak będzie, to albo sterowniki/coś po stronie karty albo za słaby CPU/porblem z CPU.
W sprawnym kompie (od strony software - sterowników itd.), przy odblokowanym limicie fps (czyli też bez Vsync) mniejsze użycie karty niż 95% oznacza bottleneck od strony CPU w danym momencie (vide - CPU nie jest w stanie dokarmić karty, by ta leciała na maksa).
Jest masa gier, gdzie ten R5 7600x nie dokarmi RTX 4070. Nie wiem, jak powinno być z Forza (może jakiś wpływ mają zabezpieczenia MS, bo poprzednie części specjalne wymagające dla CPU nie był). Co do klatek, to obstawiałbym że przy twoich ustawieniach, gdzie z DLSS tak naprawdę mamy poniżej 1080p, to CPU może nie dobijać do granicy vsync (bo karta jest odciążona - dlss, niskie ustawienia itd.), jeżeli masz monitor 100hz+.

post wyedytowany przez Raiden 2023-12-04 13:35:02
01.12.2023 20:48
Raiden
odpowiedz
Raiden
143

Nie wiem na ile (nie)pomogę, ale miałem kumpla (dziś już się nie kumplujemy) z podobnymi problemami. Nie dam rad psychologicznych, bo pod tym względem byłem dla niego bardzo "cruel" i "no mercy".
Warto ogarnąć podstawy: zbadać poziom teścia, sprawdzić czy przysadka dobrze funkcjonuje, zadbać o florę jelitową (ostatnio zawsze na takie stany przepisują jakeś symbiotyki - wg badań ogromne powiązanie).
https://zdrowie.pap.pl/psyche/jelitowa-mikrobiota-nasza-psychika

27.11.2023 22:34
Raiden
odpowiedz
1 odpowiedź
Raiden
143

Dla mnie:
Jak OLED, to tylko Sony lub Panas, bo jako jedyni oferują BFI/stroboskop sterowany (inni nigdy w to nie potrafili) i mają kolory w miarę z pudła. Gorzej u nich z apkami, ale dowolny stick i po problemie. No i Soniacze miały ten problem z short refreshem, ale chyba już ogarnęli (aktualizacja).
Jak LCD to tylko Sony x95L, bo lepszego na dziś nie ma. Samsung jest mega agresywny co do detali w cieniach (zajeżdża je kosztem lepszej czerni - trochę jak na CRT i ustawieniu brightness).

Drackula
U Samsunga i LG chyba jest ten sam typ matrycy w modelach, ktore wspomnialem.
Nie, Samsung ma swoją matrycę QD-OLED, a LG swoją wOLED. Matryce qd OLED różnią się w TV i monitorach (choćby kształtem subpikseli). W najwyższym modelu LG G3 oraz Panasie 2000 mamy matrycę z optycznym skupieniem - MLA. Pierdu, pierdu, ale faktycznie daje nieco lepszą jasność i ostrość.

Co do rzeczy użytkowych, Samsungi nieco lepiej wypadają w Prime video, bo mają HDR10+. W Netflixie LG, Sony i Panas, bo mają Dolby, chociaż tylko Panas robi je "onboard". Dodatkowo Panas wspiera wszystkie formaty (już pomijam zwyczajny HDR, bo to jest wszędzie): HDR10 + (Prime Video, Rakuten); Dolby Vision (Apple TV, Netflix, HBO max).
Pewnie i tak tego nie zobaczysz, więc bierz to, co ma najlepsze opinie w użytkowaniu (LG lub Samsung :)

post wyedytowany przez Raiden 2023-11-27 23:02:34
25.11.2023 20:58
Raiden
odpowiedz
Raiden
143

Też zacząłbym od ogarnięcia systemu. Masz ssd?
Tak btw,
Kiedy mogłeś kupić x370 i r5 1600 (co do gtx 1060 wystarczyłoby) i dziś przesiąść się na R7 5800x3d i nawet rtx 4080 :)

19.11.2023 11:20
Raiden
1
odpowiedz
1 odpowiedź
Raiden
143

Terror na podstawie fenomenalnej powieści Dana Simmonsa.
Krótki i na temat.
Jak pod nastoletni vibe, to Invincible oraz Legendy Vox Machiny mogą być.

post wyedytowany przez Raiden 2023-11-19 11:21:00
16.11.2023 22:39
Raiden
Raiden
143

Chociaż, patrzę teraz sobie na ceny zasiłek i w podobnej cenie mamy Thermaltake Toughpower GF3 750w lub 850W (750w na Ryzenie spokojnie weźmie rtx 4090 i to ze sporym zapasem).

Thermaltake Toughpower GF to już absolutny top zasilacz. Powyżej już tylko flagowe produkty SuperFlower Leadex (ciężko dostępne w PL) oraz SeaSonic Prime (które kosztują zauważalnie więcej).

16.11.2023 18:11
Raiden
odpowiedz
1 odpowiedź
Raiden
143

Zdroworozsądkowo? To karty lepiej nie kupować, cpu też nie, tylko odpalać sobie Nvidia geforce now na te miesiące, kiedy mamy ochotę na granie.

EDIT, a jakbym miał składać dziś pc, to bym wrzucił sobie lepszą kartę i tle :P (bo reszta raczej domaga)
A tak od deski, to:
Buda: Fractal Design Meshify C
PSU: MSI MPG A850G ATX 3.0
CPU: Ryzen 7 7800x3d
Cooler cpu: Fortis 5
Mobo: ASUS TUF GAMING B650M-PLUS
Ram: G.Skill Trident Z5, DDR5, 32 GB, 6000MHz, CL30 (F5-6000J3040F16GX2-TZ5S)
SSD: Kingston KC3000 2tb lub WD SN 850x 2tb lub lexar NM800pro 2tb (co tańsze na dziś lub w danym sklepie, gdzie składasza)

GPU: nie będzie rozsądnie bo musi być przynajmniej RTX 4080, a lepiej RTX 4090
Ogólnie, jak pod gry, to lepiej iść am5 i R7 7800x3d, bo łatwiej schłodzić (to oszczędność i rozsądek), bardziej przyszłościowa podstawka oraz mniej prądu żre.

post wyedytowany przez Raiden 2023-11-16 18:53:19
16.11.2023 07:19
Raiden
Raiden
143

Strefy czystego transportu są coraz lepiej zarysowane na papierze w największych miastach Polski i chociaż co do idei polepszenia jakości powietrza się totalnie zgadzam, to irytuje mnie tu brak spójności.
Na dziś, o tych SCT gdzie poczyniona już jakieś kroki w kierunku wprowadzenia, wiadomo, że (będę pisał tylko o Diselach)

Kraków
https://ztp.krakow.pl/sct/wymogi-sct
Pierwszy etap (od 1 lipca 2024 do 30 czerwca 2026) podzieli samochody wg dat ostatniej rejestracji.
Samochody zarejestrowane przed 1 marca 2023 muszą spełnić normę Euro 2 (w skrócie rocznik od 1996 r. do 1999 r. dla samochodów osobowych).
Samochody zarejestrowane po 1 marca 2023 muszą spełnić normę Euro 5 (rocznik auta od 2010 r. dla samochodów osobowych).

Drugi etap
Od 1 lipca 2026 wszystkie Disele muszą spełniać normę Euro 5 (od 2010 r. dla samochodów osobowych).

Dalsze etapy dopiero będą uzgadniane

Warszawa
Etap 1 (lipiec 2024) Euro 4 (rocznik auta od 2006)
Etap 2 (2026) Euro 5 (rocznik auta od 2010)
Etap 3 (2028) Euro 6 (rocznik auta od 2015)
Etap 4 (2030) Euro 6dT (rocznik auta od 2019)
Etap 5 (2032) Euro 6d (rocznik auta od 2021)

https://warszawa19115.pl/-/strefa-czystego-transportu-sct-

Wrocław
Etap 1 (2025) Euro 4 (rocznik auta od 2006)
Etap 2 (2030) Euro 5 (rocznik auta od 2010)
Etap 3 (2035) Euro 6 (rocznik auta od 2015)
Czyli dość liberalnie
https://www.wroclaw.pl/rozmawia/musimy-miec-strefe-czystego-transportu

Oczywiście to jeszcze może ulec lekkim zmianom, ale SCT pojawią się już niedługo. Istotne jest to, jak dużą część miast obejmą (pod linkami macie zarysy). Ludzie mieszkając w strefach, dojeżdżający itd. mogą liczyć na ulgi.
Jak już pisałem, brakuje mi tu spójności.

14.11.2023 19:48
Raiden
Raiden
143

raczej nie monitor, jak chcesz full retro, chociaż scena retro dziś idzie bardziej w upscalery i wyciągnie pełnej informacji kolorystycznej z konsoli
https://www.retrorgb.com/rgbintro.html
lub... emulują na PC i wtedy ew. retro monitor, jak mój czy coś.
Jak nie tak, to zostaje ci jakiś TV 4:3/ 3:2, a tu dziś trochę loteria z tymi z drugiej ręki. Jakbym miał rzucić nazwą w pole, to np. jakiś Panasonic Quintrix. Było ich sporo w Polsce i miały dobrą jakość.

post wyedytowany przez Raiden 2023-11-14 19:51:46
14.11.2023 13:59
Raiden
Raiden
143

Jakby do gdzieś do 2005 oferowały najlepszą jakość obrazu (jeżeli chocidzi o domowy użytek).
Plazmy były genialne, pierwsze lcd słabe.
Dziś, z tego co pamiętam, to ty masz jakiegoś 8k samsunga, a jednak są lepsze od niego tv.

14.11.2023 12:32
Raiden
1
Raiden
143

No to się wyjaśniło, czemu tak wiele studiów filmowych pracowało na crt do 2008-2010...
Jakby crt dziś nie ma sensu, ale pierwsze lcd i choćby próby podswielanja rgb pod rynek profesjonalny, były średnio udane. Dopiero nieco nowsze monitorki podswietlane wgccfl i z nowszymi matrycami, często o podwójnych subpikselach va (spva), zmieniły ten stan rzeczy.

Czasami sobie po prostu fajnie powspominać. Ja z tej nostalgi to mam stanowsiko retro, ale raczej jestem świadom wad tamtej technologi, tak samo, jak jestem świadom wad alexowego 8k od Samsunga.

13.11.2023 18:41
Raiden
Raiden
143

elathir
Sporo wiedzy z zakresu CRT i jego następców z lat 80/wczesnych 90, niewiele z tego tysiąclecia.
W zasadzie twórcy TV już na to wszystko odpowiedzieli w 2005-2010, kiedy królowała plazma.
Piszę od SED/FED TV, które najprawdopodobniej trafiłby na rynek, gdyby nie kłopoty z prawami do technologii, więc po 3 latach mocnych inwestycji Toshiby i Cannona, zdecydowano się na zamknięcie rozwoju.
Były "płaskie", działa znajdowały się pod pojedynczymi pikselami. https://electronics.howstuffworks.com/sed-tv.htm

Kolory rozumiem, ale czas reakcji? Przecież był bardzo wolny.
CRT z przełomu 2000-2005 wolne? Może w porównaniu do Oledowego 0,2ms tak, ale do LCD? Te najlepsze CRT z tego okresu miały czas reakcji w przedziale 1,5 - 3ms. Teraz zestawmy to np. z babolem jaki robił ASUS, gdzie dawał matrycę LCD 240hz, ale z czasem reakcji powyżej 5ms (czyli piksele nie były w stanie reagować na takie odświeżanie...). Klasa
O płynności w CRT pisałem poniżej więc nie będę się powtarzał.

Co do 3 i 4 punktu nie masz racji - ponownie, dotyczyłoby to monitorów CRT z lat 80/90 a nie tych nowszych. Wszystko zależy od prędkości działa (pasma przenoszenia, Częstotliwość pozioma, Częstotliwość pionowa, liczba plamek)
O jednym jeszcze nikt nie wspomniał - CRT działał na zasadzie rzutowania fotonów z siatki na szkło, czyli mając jeden monitor, mogliśmy dowolnie dobierać mu rozdzielczość i odświeżanie, a ograniczeni tu była "rozdziałka" siatki oraz szybkość działa. (to też odniesienie do twojego 3 punktu - o szybkości pracy CRT)
Zakres pracy mojego to (działo o pasmie przenoszenia 335 MHz i rysowaniu w poziomie do 115kHz):
640 x 480 @ 50 to 160 Hz
800 x 600 @ 50 to 160 Hz
1024 x 768 @ 50 to 138 Hz
1280 x 1024 @ 50 to 105 Hz
1600 x 1200 @ 50 to 91 Hz
1800 x 1350 @ 50 to 81 Hz
1800 x 1440 @ 50 to 76 Hz
1856 x 1392 @ 50 to 79 Hz
1920 x 1440 @ 50 to 76 Hz
Wszystko to rzutowane na 22 cale
A było jeszcze jedno, szybsze działo - o paśmie przenoszenia 370MHz i rysowaniu w poziomie do 140kHz, co przekładało się na 1920 x 1440 @ 50 to 92 Hz (posiadał je Mitsu/NEC Diamond Pro 2070SB)

Linią rozwoju dla CRT nie byłoby więc powiększanie ekranów (jak trochę tu założyłeś), a pójście w stronę SED/FED TV, natomiast to upadło.
Żeby nie było, nie twierdzę, że reszta wad CRT (wielkość, waga itd.) nie istnieje, a dziś z Oledem to ciężko konkurować (chociaż referenty od Eizo czy Sony są na podwójnych matrycach LCD od Panasa - monochrom + kolor, natomiast te średnio sprawdzają się w obrazie ruchomym).

post wyedytowany przez Raiden 2023-11-13 18:46:06
13.11.2023 11:09
Raiden
odpowiedz
Raiden
143

Tak jak ja już pisałem i ktoś wspominał, były próby uwspółczesnienia crt - sed/frd tv
https://electronics.howstuffworks.com/sed-tv.htm
Dziś trochę bez sensu, z uwagi na ograniczenia co do max jasności. Sed tv był w stanie rozkręcić się do 500 nitów.

post wyedytowany przez Raiden 2023-11-13 11:19:06
13.11.2023 10:34
Raiden
Raiden
143

Widzący
Te 2 linie są też w moim (diamondtron), ale w codziennym użytku w zasadzie niewidocze.
Co do samej technologi, to sed/fed tv chetnie bym zobaczył, natomiast dziś już ciężko byłoby tej technologil konkurować z OLED, choćby z uwagi na jasność

12.11.2023 23:24
Raiden
Raiden
143
Image

CRT czerń (CRT ma kontrast ANSI - szachownica - 270:1; ten LCD ma 1040:1)
celowe prześwietlenie (+ 3EV)
Brignetness (czyli świecenie czerni, a nie jasność) na CRT ustawione na 40, czyli z utratą pewnych detali (0-12 w dokładności 8 bitów 0-255).
Gołym okiem nie da się zobaczyć - identyczna jak na OLED. Dla prostszego kolorymetru jak X-Rite i1Display Pro też niemierzalna.

post wyedytowany przez Raiden 2023-11-12 23:55:04
12.11.2023 23:22
Raiden
Raiden
143
Image

CRT GLOW (CRT ma kontrast ANSI - szachownica - 270:1; ten LCD ma 1040:1)
celowe prześwietlenie (+ 2EV)
Jak pisałem efekt glow tym większy im większy i jaśniejszy obiekt. Wynika z niedoskonałości geometrycznej (fotony uciekające poza cel) oraz faktu rzutowania obrazu z siatki na szkło. W realnym użytkowania w grach praktycznie niedostrzegalny (bardzo rzadko), w filmach czasami (rzadko).
Efekt można zmniejszyć obniżają max jasność monitora (ustawienie kontrast lub poszczególne wartości dla kolorów RGB)

post wyedytowany przez Raiden 2023-11-12 23:54:34
12.11.2023 20:31
Raiden
2
odpowiedz
6 odpowiedzi
Raiden
143
Image

Na retro biurku mam Mitsubishi Nec Multisync FE2111sb (90hz przy 1600x1200, do tego to diamondtron, więc nie na hexach, a linear grip - tak jak sony trinitron Aperture Grille), oczywiście skalibrowany i sprofilowany, z ustawioną geometrią, zbieżnością RGB, korekcją mory itd.
Daje radę. Ostatnio na nim Stalkera przechodziłem.

Nie wiem, po co ci 240hz w CRT, gdzie nie mam hold up time, jak w LCD czy OLED, bo działa stroboskopowo. 75hz+ (aby zniwelować migotanie) i mamy prawie perfekcyjną płynność ruchu (od stronny wyświetlacz). Rozumiem, gdy chcemy oddać więcej ruchu od stronny źródła (np. 120fps, żeby uchwycić jakieś momenty), ale w przeciwnym razie 90hz jest więcej niż wystarczy.

Kontrast ANSI nie powala (270:1 przy standardowym punkcie czerni i 120 nitach), ale w działaniu wypada już dużo lepiej, w szczególności gdy nie ma jasnych punktów w danej scenie. Na CRT sami ustawiamy punkt czerni (parametrem brignetness), więc tak od 40 (na100) w dół czerń na moim przestaje świecić w ciemnym pomieszczeniu, natomiast zaczynam tracić też detale w cieniach. Do obróbki foto, aby zachować pełny detal, daje 55 w ciemny pomieszczeniu i 70 w jasnym. Ma on 100% pokrycia sRGB, więc daje radę.

Z ciekawostek powiem, że coraz mniej rzeczy wspiera 4:3. Mody do Stalker, nowe gry blizzarda.

Jeżeli miałbym opisać CRT pod względem 4 cech jakości obrazu, to:
- kolory - bajka, reprodukcja praktycznie bez filtrów, czysto (płynne przejścia), rzutowana na szkło. Natomaist dziś problemem jest to, że ogranicza się do starych przestrzeni (sRGB, Rec 709);
- szerokość zakresu tonalnego - przeciętna. Punkt czerni i czerń może być bliska ideałowi, ale problem jest, gdy pojawiają się obiekty mocno kontrastujące w danym ujęciu. Im jaśniejszy i większy obiekt, tym większy glare da (efekt białej poświaty, wynikając z tego, że obraz rzutowany jest na szkło, a wcześniej fotony też nie mają 100% celności). Do tego dość niska maksymalna jasność.
- ostrość - niska. Czy to Aperture Grille czy siatka hexów, bez znaczenia. To, co sprawia, że kolory tak płynnie przechodzą, tu jest minusem - niski pixel to pixel kontrast; do tego nigdy nie osiągniemy perfekcyjnej zbieżności RGB.
- płynność ruchu - prawie perfekcyjna. Bardzo niski czas reakcji, brak hold up time (stroboskop), jedyny malutki minus za prezystencje luminoforów - poświatę (widzimy ją jak np. przejedziemy szybko kursorem po ciemny ekranie).
To wszystko nie biorąc pod uwagę otoczenia (czyli np. odbić).

CRT dziś pod pewnymi względami przebija współczesne wyświetlacze. Przede wszystkim płynnością - jak w OLED nie włączymy BFI, a na LCD stroboskopu/BFI (do tego marny czas reakcji na LCD), to nie dogonimy CRT.
Kolory z filtrami też nie wyglądają tak naturalnie, jak na szkle, a mówię to porównując swojego CRT do graficznego EIZO, który stoi obok.
Natomiast problemem dalej zostaje ostrość oraz zakres tonalny. Jasne - byłby CRT przeznaczone do programów biurowych (miały większe odstępy pomiędzy pikselami, a przez to, lepszy kontrast pixel to pixel), ale nadal. O rozmiarach już lepiej nie pisać. Jakoś też wszyscy przeboleli niższa płynność LCD (akceptowali 60hz, hold up time, wysoki czas reakcji - czasami potworne smużenie na tańszych matrycach VA), a teraz, gdy mamy OLED, to już nie problem (czas reakcji jest nawet niższy niż na CRT, a hold up time można zwalczyć BFI, jak komuś przeszkadza i jest gotów poświęcić jasność).
Do tego nie trzeba walczyć z glare (efektem halo przy tych jasnych punktach na ekranie); nie wiem też, jakie musiałoby być tam działo, że dać 1000 nitów ;) Mój monitor jest uznawany za jeden z jaśniejszych, a wyciąga 142 nity na maksa.

Z innych ciekawostek napiszę, że były próby uwspółcześnienia CRT - SED/FED TV by Toshiba/Cannon

EDIT, zresztą wrzucę foto retro stanowiska, zrobiona jakiś rok temu. EIZO (LCD SPVA zimna katoda) vs CRT (ten NEC) vs FOLD 3 jeszcze wtedy (sAMOLED). Ekspozycja pod to, co było widziane okiem (bez podbijania).

post wyedytowany przez Raiden 2023-11-12 21:48:54
11.11.2023 18:24
Raiden
odpowiedz
Raiden
143

Gniazdo światów (Marek S. Huberath) Co ja bym dał, żeby nie znać fabuły i móc poznać jeszcze raz :)
Piknik na skraju drogi (Strugaccy)
Historia twojego życia (zbiór opowiadań) (Ted Chiang)
Prawie cały Lem
Terror (Dan Simmons)

10.11.2023 15:50
Raiden
Raiden
143

Herr Pietrus
Nie wiem, czy to do mnie, czy obok, bo ja się nie czuję w ani odrobinie PiSowski.
Tak swoją drogą, fajnie jest pisać z pozycji osoby, która do ostatniego dnia nie wiedziała na kogo głosować (i celowo zakładam coś, czego nie wiem - wyłącznie na podstawie jakiejś mglistej przesłanki - że głosowałeś na trzecią drogę).

Co do prognoz, o których ja pisałem (na podstawie filmiku wstawionego), to nie PiS je tworzy (dlatego nie wiem, czy do mnie pisałeś). https://www.travelnewsasia.com/news21/275-AirTravelDemand.shtml#google_vignette

I wg nich do 2050 ma być ponad 10 mld pasażerów (prognoza IATA).
Dodając to, że wszystkie starzejące się porty będą do remontu, co jest związane z "Fly Net Zero" https://www.iata.org/en/programs/environment/flynetzero/

Jak w kontekście tego wszystkiego widzisz rozwój portów lotniczych w PL? Jak sprawić, że skoro gonimy Europę, to jednak nasz wskaźnik mobilności lotniczej (stosunek obsłużonych pasażerów do ludności kraju) rośnie wolniej niż w krajach "Zachodu" (a frach częściej lata z połączeniami pasażerskim). Jaki lepszy pomysł? Biorąc pod uwagę to, co mówią eksperci, że wielu lotnisk nie da się rozbudować lub jest to niezwykle ciężkie (np. Chopin - z przecinającymi się pasam i tym, że jest częścią miasta - czyli przerwa 23:00- 5:00).

Co do kolei, to skoro PiSowi nie wychodzi, to koniec i nic nie róbmy? To co się działo z PKP w latach 2008-2015? Przytoczysz jakieś wskaźniki? Bo ja coś tam kojarzę. Proponuję więc zajechać kolei, jak w USA zniszczono transport miejski/publiczny, na rzecz jakiegoś lobby (tam było to autostradowe/paliwowe/motoryzacyjne)

post wyedytowany przez Raiden 2023-11-10 15:58:55
09.11.2023 22:46
Raiden
odpowiedz
4 odpowiedzi
Raiden
143

Thorvik Caine Drackula
Wszyscy miło się wypowiadają pod moim postem z filmikiem, ale jakoś nikt się do meritum nie odnosi, tylko powielacie kłótnie z innych postów.

Co do wielkich, państwowych inwestycji infrastrukturalnych, to też był taki wątek w rozmowie poruszony. Padł przykład TGVs, gdzie powstał projekt, mieli podobne obawy co u nas, ale finalnie każda władza go respektowała i jedynie co zmieniali to sposoby finansowania/inwestowania + przebieg kilku nitek.

Audyt jest potrzebny, ale ważne, żeby był rzetelny i odpolityczniony. W każdym razie koalicji będzie bardzo łatwo zbudować narrację, że CPK to zło i studnia bez dna. Dlatego odpolitycznienie za wszelką cenę.

Tu dochodzimy do tego, że ekonomia to nie nauka ścisła i częściej niż matematyka, rządzi tu polityka. Jak dobrze pamiętam CPK ma kosztować 400mld, zainwestowano już ok. 5 z budżetu, ale ostatnio pozyskano też inwestora, przynajmniej na lotnisko (póki co ma on włożyć 8mld). Tak takie projekty powstają - tak było we Francji, tak powinno być u nas, że dopuszcza się inwestorów do 49% udziałów (co oczywiście nie oznacza, że państwo pokryje jedynie 51%, bo to nierealne).
Co do samej ekonomii i braku jej ścisłości, to nawet nie pytanie, czy nas stać. W finansach publicznych to zawsze jest albo przesunięcie środków, albo podatkowanie, albo deficyt/pożyczka (aktualnie chyba do 5% jest w normie, bez spadków ratingów). Na tym polega państwowość, żeby wybrać jak najlepiej. Więc prawdziwy dylemat to czy damy budżetówce 30% podwyżki i samorządom kasę, czy inwestujemy w infrastrukturę CPK (to tylko przykład, bo przesunięcia mogą być z innych miejsc). Podkreślę, że inwestorów od strony lotniczej nieco łatwiej znaleźć, ale branżą logistyczna może mieć interes w rozbudowie kolei (ale tu na pewno inwestycje państwa będą grubsze).

Ogólnie to lotnictwo jest bardziej "za", logistyka jest bardziej "za" (oczywiście widzą też "przeciw"), a ekonomia i polityka (nie bez przypadku razem) to zależy kogo spytasz.
Na pewno nie chciałbym, aby o decyzji przesądziło to, że Tusk woli taxi i 20 min na lotnisko w Gdańsku. Wolałbym, żeby gościu ogarnął się w tym temacie i zrobił to, co robiły inne rządy (tu chodzi mi o przykłady zagraniczne), gdy była mowa o wielkich inwestycjach infrastrukturalnych. Olbrzymia w tym wina PiSaków, że nie byli w stanie zareklamować tego projektu i wykonywać go jako Państwowego, tylko musieli obsadzać swoich itd.

EDIT
Zresztą zobaczcie, jak u nas powstawały i powstają autostrady - tam nikt nie ma tylu "ale" co tu; i czy PO, czy PiS robią. Oczywiście, masa błędów jest popełnianych, ale każdy buduje. Czy tam też tak patrzy się na rachunek ekonomiczny?

post wyedytowany przez Raiden 2023-11-09 23:04:28
08.11.2023 14:35
Raiden
Raiden
143

Drackula
spokojnie; i bez łapania za słówka.
Chodzi mi wyłącznie o dotychczasowe wydatki (projektowe itd.).

post wyedytowany przez Raiden 2023-11-08 14:35:44
08.11.2023 14:32
Raiden
Raiden
143

Thorvik
jestem za :). Trochę szkoda czasu, a jeszcze bardziej byłoby szkoda dotychczasowych inwestycji.
Inna sprawa, to ew. zmiany i znów patrzenie na ręce, żeby nie było jak za PiS.
Temat ciężki, ale trzeba się przekopać.

08.11.2023 12:54
Raiden
Raiden
143

Drackula
Obejrzałem i nie komentuję, by nie tworzyć narracji. Prezes lot w latach 2009-2010 oraz 2013-2015 podaje argumenty za i przeciw, chociaż nie kryje, że dużo więcej jest "za" CPK. Jego doświadczenie oraz wiedza na temat funkcjonowania branży lotnicze są raczej większe niż nasze, ale ostatecznie gościu zachęca do dialogu oraz odpolitycznienia CPK.
Jeżeli chodzi o uwarunkowania polityczne Sebastiana Mikosza (bo w tym wątku to chyba jest ważniejsze od meritum), to jest on przeciwnikiem działań rządu PiS, ale pracował dla rządowych agencji inwestycyjnych za Millera, był prezesem lotu za PO.

post wyedytowany przez Raiden 2023-11-08 12:59:48
08.11.2023 12:38
Raiden
odpowiedz
15 odpowiedzi
Raiden
143
Wideo

https://www.youtube.com/watch?v=-XgiG7ldjaI
Opis (jakby ktoś miał wyłączone odpowiedzi do komentarzy): Obejrzałem i nie komentuję, by nie tworzyć narracji. Prezes lot w latach 2009-2010 oraz 2013-2015 podaje argumenty za i przeciw, chociaż nie kryje, że dużo więcej jest "za" CPK. Jego doświadczenie oraz wiedza na temat funkcjonowania branży lotnicze są raczej większe niż nasze (choćby to, jak wyglądają transfery lotnicze i że cargo, to raczej lata z pasażerami a nie osobno), ale ostatecznie gościu zachęca do dialogu oraz odpolitycznienia CPK.
Jeżeli chodzi o uwarunkowania polityczne Sebastiana Mikosza (bo w tym wątku to chyba jest ważniejsze od meritum), to jest on przeciwnikiem działań rządu PiS, ale pracował dla rządowych agencji inwestycyjnych za Millera, był prezesem lotu za PO.

EDIT
Tak w skrócie "za", biorąc pod uwagę prognozy, że do 2050 roku będzie 150% przyrostu podróżujących oraz transportu:
- Okęcie/Chopina nie ma miejsca na rozbudowę, nie tylko fizycznie, ale też organizacyjnie (przede wszystkim z uwagi na przecinające się pasy oraz ograniczenia ruchu lotniczego od 23:00 do 5:00 - pozamiejski CPK nie miałby tego problemu).
- porty regionalne skorzystają na rozbudowie, a nie stracą (nie należy patrzeć na to w kategorii "rozbudujmy lepiej lokalne", bo nie wszędzie to ma sens i nie wszędzie się da). Rynek wewnętrzny stanie się bardziej konkurencyjny, rynek europejski stanie się bardziej konkurencyjny.
- "nie ma złego miejsca na taki port jak CPK, jest zły projekt lub złe wykonanie, bo kto powiedziałby 30lat temu, że Dubaj będzie megalotniskiem " (przy czym gościu dodaje, że przy projekcie CPK uczestniczy ta sama firma, która rozbudowywała lotnisko w Singapurze);
- całe stowarzyszenie przewoźników międzynarodowych IATA (dla klarowności - gościu był jego wiceprezesem) jest "za" - z uwagi na potrzebę nowoczesnego hubu (przy czym porty niemiecki starzeją się), ale ich korzyścią oczywiście będzie zysk na połączeniach;
- wszyscy w okolicy, z uwagi na UE, będę beneficjentami takiego portu (nawet gdy Frankfurtowi spadłby transport cargo i cło, to Niemcy zyskają na eksporcie); będzie to ważny punkt rynku Europy środkowej, tym ważniejszy, biorąc pod uwagę zniszczenia infrastrukturalne na Ukrainie.

Sam parę postów temu pisałem, że CPK to może ma średni sens i lepiej inwestować w lokalne - więc widać, jak się znam :)

post wyedytowany przez Raiden 2023-11-08 14:06:56
05.11.2023 21:42
Raiden
Raiden
143

Jak kopanie się z koniem... ale nie dam się wepchnąć do worka, do którego mnie wkładasz. Nigdy na PiS nie głosowałem... chyba, że twoja wypowiedz ma drugie dno, to może mieć sens...
Nigdy przecież nie udzielałem się w wątkach dotyczących "dobrej zmiany", bo uważałem to za skrajny przejaw głupoty.
Też mam nadzieję, że będzie lepiej, ale słucham narracji medialnej i widzę co się dzieję. Możesz odczytywać moje posty jak chcesz, ale zamknięty człowiek nigdy nie będzie w stanie zrozumieć, że o ile ja mam całkiem dobrze, to ktoś może mieć gorzej.
Często wspominany tu rynek mieszkaniowy to przykład tego, jak można coś zepsuć tak, jak tylko się da. Patodeveloperka, kłopoty z gruntami, a, jako wisienka na torcie, ceny. Za to PiS powinien zostać rozliczony. Tak samo PO, bo problemy sięgają dawniej niż 2015.

Co do samego wątku, to z tego miejsca są 3 opcje:
- zrównanie do innego, wyśmiewającego przemijającą władzę = dość szybka śmierć, bo w oryginalnym wątku każdy czyje się lepiej, tak zadomowiony;
- naturalne śmierć przez zapomnienie;
- okresowe, rzadkie wpisy dot. faktyczne spojrzenia na kłamstwa nowowybranych (chyba, że zaraz mi napiszesz, że takich nigdy nie będzie, bo są lepsi od mijającej władzy)
Dla mnie użyteczność każdej opcji jest dość jasna.

Moje intencje są klarowne, nie mam też zamiaru nikogo tu personalnie atakować, tak jak sam jestem... (w celu dyskredytacji), bo to wypaczy sens i zepchnie wątek na dno (o ile tam nie był od początku).

BTW
Zostawcie już ten ***** PiS w spokoju. Jak cień bez światła... Ja rozumiem, że przez lata doszło do interioryzacji i macie teraz poczucie konieczności obrony opozycji... ale to już nie jest opozycja.

post wyedytowany przez Raiden 2023-11-05 21:58:47
05.11.2023 15:50
Raiden
Raiden
143

Cieszę się, że przeczytałeś, szkoda, że po tym, jak napisałeś. Co do treści, to zawiera masę ogólników, jest krótka (vide - bez szczegółów), ale też w niczym nie kłamie. Może wydawać się płytka jak na tak skomplikowany twór jak "finanse publiczne", ale z tego naprawdę nikt nie będzie strzelał (to tylko prosty list, przez mnie zestawiony z prostackimi wypowiedziami w stacji telewizyjnej, a nie podręcznikiem do ekonomii). A ty z PiSowca, zrobiłeś mnie teraz lewakiem, zaraz pewnie będę kanfiarzem, a na koniec pewnie foliarzem, byle by zdyskredytować zdanie inne od swojego. Iście godna postawa. Wyborcza lubi to.

post wyedytowany przez Raiden 2023-11-05 15:53:37
05.11.2023 15:39
Raiden
Raiden
143

Nie będę się odnosił do "tych" twardych danych, które oczywiście zapewne są faktem (jak wzrost ceny mieszkań itd.) i PiS właśnie m.in. został za to rozliczony w wyborach. Natomiast dalej nie odniosę się, bo celem tego wątku nie jest klonowanie wątku o nieudolności PiSu. Ta został już wyeksponowana. Wolałbym przyjrzeć się nowym rządzącym i ich kłamstwom. Jak widać, polaryzacja zbudowana przez lata uniemożliwia to (bo to, co chcę zrobić z miejsca oznacza, że jestem z PiS...)

post wyedytowany przez Raiden 2023-11-05 15:40:57
05.11.2023 15:25
Raiden
Raiden
143

"...Z inflacją na poziomie 4-6% zostaniemy zapewne na parę lat."
Opowiadając na całość, nie ustosunkuje się, bo się nie znam. Może tak, może nie. Zapiszę sobie powrót tu za 2 lata i sprawdzę.
Tymczasem możemy sprawdzić to, co mówili eksperci TVN... i patrzę na nich teraz bardzie niż na tych z TVP, bo to chyba oni, częściowo, stoją za sukcesem koalicji.
Mógłbym im jeszcze nawrzucać dalsze szerzenie dezinformacji w postaci "potencjalnego stanu wojennego po przegranej PiS". Ale jak widać wybory się odbyły, wygrała demokracja, a państwo funkcjonuje. Kłamstwa trzeba negować po obu stronach, a nie brać mnie za trolla PiSowskeigo i robić obronę Częstochowy tych, którzy kłamią.

Co do patrzenia na deficyty przez PKB, może i racja, ale chociaż to nie jest kłamstwem, a masa ważnych instytucji buduje na tym ratingi... Eurostat nas z tego rozlicza itd.
Celem mojego postu nie było dalsze wrzucanie PiSowi. Od tego była/jest masa innych wątków - a to, by zacząć przyglądać się nowym. Jak widać, polaryzacja zbudowana przez lata uniemożliwia to.

post wyedytowany przez Raiden 2023-11-05 15:43:23
05.11.2023 15:17
Raiden
Raiden
143

Obrzydliwa to jest próba dyskredytacji - podpinając pod pisowski trolling. Watch out men - I've attended to the same school.
Nie będę nic pisał o politycznych procedurach, bo, jak wspominałem, ekonomia to nie nauka ścisła. O tym wszystkim było/jest w innym wątku na forum i tam jest masa małpeczek katarynek - już chyba starczy. Teraz mamy już inną władzę. PiS albo się zmieni, albo zgnije (mam to gdzieś), a my zajmijmy się patrzeniem na ręce rządzącym. Czytałeś list? Jak nie, to przeczytaj, bo to nie tylko moje zdanie, i chyba też PiSowców podpisanych tam nie ma.

05.11.2023 15:12
Raiden
Raiden
143

Szakal89
Hymm piszesz trochę antysystemowo . Oczywiście, że tak i miałeś alternatywę, a nawet ze dwie:
1. Zmarnować głos oddając go na jeszcze bardziej populistyczną i kłamiącą partię, jaką jest konfederacja.
2. Zagłosować na kogoś, kto mówi jak jest, czym jest dług publiczny itd. Takie osoby były na listach wyborczy. Kilka z PO, całkiem sporo (przynajmniej procentowo) z partii Razem, może jedna czy dwie z PiSu i Trzeciej drogi, ale o nich publicznie się nie mówiło.
Jeżeli nie zagłosowałeś, to trudno - na tym polega demokracja. Politycy się nie zmieniają, ale my możemy głosować inaczej.

post wyedytowany przez Raiden 2023-11-05 15:12:54
05.11.2023 14:46
Raiden
Raiden
143

No pewnie, lepiej napisać, że nic się nie da zrobić i że odpowiadają wszyscy - czyli nikt. Tylko za co odpowiadają, bo jak weźmiemy na tapet dowolny kraj trzeciego świat, to na 95% będzie miał niższy dług publiczny...

Dług publiczny to narzędzie, z którego trzeba korzystać!
Ale nie do manipulowania ludźmi - a do tego próbowano go aktualnie używać.
Wobec tego rośnie obawa, czy nowa koalicja będzie potrafiła korzystać z niego inaczej...

post wyedytowany przez Raiden 2023-11-05 14:48:33
05.11.2023 14:14
Raiden
Raiden
143

No... to jesteśmy po wyborach i można powoli zacząć tworzyć wątki obśmiewające kłamstwa KO, Trzeciej Drogi oraz TVN.
Ja zacznę. A i zaznaczę tylko, że sam nie głosowałem na PiS (w sumie to nigdy, ale teraz byłem najbliżej tego, co nie znaczy blisko, i to przez TVN); uważałem, że po 8 latach należy im się lekcja pokory; natomiast problem w PL jest, jak zawsze, brak jakiejkolwiek partii rozsądnej.

Kłamstwo nr 1.
Dług publiczny i jego narracja.

"Dług publiczny wynosi ponad 2bln" (liczni politycy KO, Szymon Hołownia, czołowi dziennikarze TVN) - informacja mająca na celu przestraszyć obiorcę, którą bez kontekstu nic nie znaczy, poza tym, że Kowalskiemu wydaje się ta liczba absurdalnie duża - zbyt duża.

"Stan finansów publicznych nie jest znany" (liczni politycy Trzeciej Drogi - Hołownia, Kosiniak-Kamysz; Liczni politycy KO; masa dziennikarzy TVN) - stan finnów jest bardzo dobrze znany i musi być raportowany kwartalnie, półrocznie lub rocznie zależnie od instytucji, do której trafi raport. Kłamstwo mające na celu odsunięcie PiS od władzy

Realna ocena - dług publiczny w Polsce wynosi:
https://obserwatorgospodarczy.pl/wp-content/uploads/2022/12/Dlug-publiczny-w-Polsce.png

Przy czym należy pamiętać, że ekonomia to nie nauka ścisła, a decyzje w niej częściej są polityczne niż matematyczne.

Kłamstwo nr 2:
Inflacja.
Kłamstwa wypowiadane prze większość polityków KO, Trzeciej Drogi, masę ekspertów TVN (m.in. Nogę, Belkę i tego trzeciego pajacyka).
"Inflacja przed wyborami będzie wynosiła dużo ponad 10%" - po każdym wystąpieniu Prezesa NBP w okresie styczeń - czerwiec 2023

"Zdaniem Belki "zejście z 18 procent do 10 procent będzie stosunkowo proste ze względu na te czynniki międzynarodowe, które znikają". - Natomiast później zejście z 10 procent do sześciu, a z sześciu do trzech, będzie już wymagać bardzo aktywnej polityki antyinflacyjnej i to będzie powodowało osłabienie koniunktury - powiedział."

Realna ocena - mylili się, chociaż Belka dobrze zaczął, to zapomniał dodać, że tak, czy siak inflacja w dzisiejszym świecie (nie 20 lat temu), to zawsze przede wszystkim wynikowa czynników zewnętrznych. Polska to nie USA, czy nawet Niemcy.

Takich kłamstw są dziesiątki. Ja rozumiem, że TVP robiło gorsze rzeczy, ale ich narracja jest łatwa do przejrzenia. Tu nie jest to tak klarowne, a zdecydowanie szkodzi RP.
Sam mam gdzieś taką konkluzję po wyborach, że za mało członków lewicy, a przede wszystkim partii RAZEM, w tej koalicji. Miejmy nadzieję, że, tak jak kiedyś, to Tusk będzie temperował zapędy osób skrajny oraz idiotów z koalicji.

Przy czym należy pamiętać, że ekonomia to nie nauka ścisła, a decyzje w niej częściej są polityczne niż matematyczne.

Jeżeli ktoś chce zdania ekspertów nt. finansów publicznych, to polecam otwarty list 100 ekspertów z zakresu ekonomii do koalicjantów przyszłego rządu.
https://actionnetwork.org/petitions/list-otwarty-czas-na-inwestycje-w-regeneracje/

post wyedytowany przez Raiden 2023-11-05 15:02:15
02.11.2023 23:06
Raiden
odpowiedz
Raiden
143

No fakt, czas GTXów powoli przemija:
- brak sprzętowego wsparcia Ray tracingu;
- brak sprzętowego wsparcia mesh sahderów (póki co tylko Alan Wake 2 korzysta) - a to będzie game changer - odblokowuje masę mocy i w Alan Wake, przy global ilumination programowym, karty o teoretycznie podobnej wydajności dotychczas (GTX 1080ti oraz RTX 2080) nagle dzieli przepaś (jedna ma 30fps, a druga 80fps w tej samej scenie);
- brak DLSS, które powoli staje się standardem, co prawda jest FSR we wcześniejszych wydaniach;
- brak wsparcia dziesiątek kodeków, tensorów itd. (ale jakbyś potrzebował jej do obróbki, pewnie już byś wymieniał).

Lekkim problem będzie twoja płyta oraz CPU. Płyta bez PCI 4.0 będzie blokowała przepływ danych w grach, gdzie CPU mocno uczestniczy w kreowaniu siatek RT (np. Spider Man lub Hogwart Legacy).
Ale można teraz kartę a później CPU i płytę (i oczywiście RAM).
Karta ma priorytet przy tej rozdzielczości, tylko nastaw się nadal na 60fps lub mniej przy tym CPU (nie wiem ile hz ma twój monitor).
Celowałbym w coś z 12gb VRAM przynajmniej. Dlatego RTX 3070 oraz RTX 3080 (standard) odpadają. Patrzyłbym za RTX 4070 lub RTX 4070ti, a z używek - no tak, nie chcesz używek, a przy serii 3xxx nie masz wsparcia dla optical flow w locie (generatora klatek).
Co do Radków, to mają przewagę VRAM i to chyba tyle (no, może jeszcze cena). DLSS, RT, generator klatek i kilka innych rzeczy po stronie NV. Można myśleć o AMD Radeon RX 7800 XT, i chyba tylko to miałoby sens. RX 7900 XT ciężko dostępny teraz i w wysokiej cenie jak na możliwości (do 4 tys. bez tragedii, ale w tej samej kwocie znajdzie się RTX 4070ti). Natomiast dalej byłbym za kartami NV.

post wyedytowany przez Raiden 2023-11-02 23:22:09
01.11.2023 23:25
Raiden
odpowiedz
Raiden
143

A to często zależy od twórców.
W 90% pewnie są błędnie podane, przede wszystko co do CPU, ale np. twórcy Alan Wake 2 dość dobrze podali wymagania, uwzględniając spadki klatek.
A wiadomo, że jak sam pobawisz się ustawieniami, zamiast korzystać z presetów, to i trochę więcej wyciągniesz.

post wyedytowany przez Raiden 2023-11-01 23:27:40
01.11.2023 20:10
Raiden
Raiden
143

Child of Pain
Czyli tym tokiem rozumowania, nie ma co omawiać dzieł oglądanych przez miliony, bo oglądają je miliony, więc są dobre i trzeba pozostać bezkrytycznym lub, co lepsze, bezrefleksyjnym (a jaką refleksję wyciągniesz z dzisiejszych dzieł Disneya?). #Kolejny geniusz #Only right point of view
Łatwo napisać kolejny geniusz, ale po co tracić czas?

post wyedytowany przez Raiden 2023-11-01 20:11:45
01.11.2023 17:10
Raiden
Raiden
143

Może tak wygląda z innej perspektywy niż moja, ale jeżeli tak jest, to dlatego, że gdy ktoś ciągnie cię za głowę i barki w tym kierunku, to nogi zaczynają się opierać i wychodzą w przeciwnym, natomiast to tylko zdanie o działaniach Disney i im podobnych.
(skoro przytoczyłeś termin polityczny) Tuż przed wyborami byłem "zwyzywany" od lewków itd. na kilku forach i w real life, bo kogo mogłem, to odwodziłem od głosowania na konfę; a po wyborach mam taką refleksję, że Lewica ma za mało głosów, by jakoś równoważyć neoliberalne zapędy pozostałych koalicjantów (sam głosowałem na demokrację - bo jakoś przez ostatnie lata partie zapomniał co to).
Wracając jednak do tematu, to tak, Disney ma agendę, jest to jasne, jawne i jakby była w drugą stronę (np. nazistowską), też bym pisał o nich dość skrajnie, bo jest różnica, gdy chcemy pokazać coś naturalnie, tak by dalej było częścią dzieła, które coś przekazuje (np. jak zrobiło to The Last of Us part 2); a pomiędzy tym, by podporządkować całą twórczość agendzie i wepchać ją ponad morał/konkluzję/całe dzieło (np. to, co prezentowali w nowej Królewnie Śnieżce). I trochę o tym jest Joining The Panderverse

post wyedytowany przez Raiden 2023-11-01 17:24:48
01.11.2023 16:38
Raiden
odpowiedz
Raiden
143

Trochę tych technologii TV na rynku sporo:
- OLED wRGB zwykły (matryce od LG; różni producenci TV) przykład to seria B3 od LG;
- OLED wRGB evo/ex (jaśniejsze matryce od LG; różni producenci TV) przykład to seria C3 od LG, MZ980 i MZ1500 od Panasa, czy A80 od Sony;
- OLED wRGB MLA (jaśniejsze matryce od LG z nakładką MLA; różni producenci TV) przykład to seria G3 od LG, MZ2000 od Panasa,
- QD OLED RGB (matryce od Samsung; tylko Samsunga i Sony).

A to tylko sam rynek OLED TV, jakby dodać do tego drukowane od jOLED, czy wszystkie rodzaje LCD.

Co zaś do wyboru, to dla ludzi ogarniętych w tematach raczej dziś oczywisty:
- jak LCD, to tylko SONY X95L (LCD z podświetleniem mini led na QD). Najwierniejsze oddanie, nie ucina cieni jak Samsungi, przyzwoite opcje sterowania płynnością. Samsunga można brać pod uwagę, jeżeli pobawisz się w ustawienia lub, najlepiej, skalibrujesz.
- jak OLED to Panas (zależnie od budżetu 980/1500/2000) lub Sony A95 (QD OLED RGB). Chociaż tu nie ma takiej dysproporcji pomiędzy liderem a resztą, jak w LCD. OLED od LG czy Samsunga też dobry.

Jeszcze mała rada użytkowa - ważne, żeby OLEDów nie odcinać od prądu pstryczkami itd. One w stand-by robią sobie refresh po określonym czasie (LG chyba 4h po wyłączeniu, Samsungi jakoś 5,5h, Sony podobnie).

01.11.2023 11:06
Raiden
Raiden
143
Wideo

Z cyklu o tym ci na Golu nie napiszą :)
Ciekawe, czy w końcu coś się zmieni.
Disney lekko panikuje - jest pod totalny ostrzałem, a dodatkowo od wielu miesięcy ich akcje lecą w dół (tak po porostu, najniższa cena od 2014 i ciągłe spadki o ustabilizowania giełdy po Covid Boom).

Najgorsze w tym wszystkim, to że ich agenda działał. Dziś nastolatkowie katowni Disneyem widzą świat bardziej ich oczami, a ich świat wygląda tak, że należy skończyć ze wszystkim podziałami (przede wszystkim biologicznymi) i zlać się w jeden organizm. Myśl abstrakcyjna góruje nad biologią i więzienie temu, kto choć pomyśli inaczej.
https://www.washingtontimes.com/news/2022/mar/30/disney-execs-leaked-video-boost-queerness-gay-agen/

Teraz ta heca z rebootu Królewny Śnieżki, gdzie rakiem wycofują się z tego, co mówiła główna aktorka i co prezentowały trailery (premiera przesunięta o rok i jednak będą krasnoludki...)
A jeszcze South Park wbił im szpilę, która za oceanem odbiła się dość głośnym echem.
South Park: Joining The Panderverse
https://www.youtube.com/watch?v=89cto-IvD98
https://www.forbes.com/sites/erikkain/2023/10/27/south-park-joining-the-panderverse-review---disney-satire-at-its-finest/
Epizod atakuje obie strony konfliktu - skretyniałych odbiorców, którzy tylko czekają na pożywkę tego typu, by przelać swoje niepowodzenia dnia codziennego na cokolwiek innego niż ich własna niedoskonałość (bo jeszcze musieliby brać odpowiedzialność za własne życie). Oraz Disneyowską agendę, która przecież, niczym piętnastowieczni odkrywcy w zdarzeniu z inną kulturą, jako ci "lepsi i myślący właściwie" mają prawo do wszystkiego i nigdy się nie mylą (to po prostu ty myślisz źle, a inne myślenie jest nieakceptowalne).

Mam nadzieję, że wyjdzie z tego coś dobrego, bo to co od lat robi Disney zakrawa o kryminał. Już pomijam wszczepianie idei (memetyka) bezpłciowości itd. w dzieci, ale bardzie chodzi mi o promowanie braku odpowiedzialności za własne czyny.
Wiem, że poglądy na ten temat są różne i że budzi on sporo emocji, ale z roku na rok myśl Disney i wszystkich za tą agendą faktycznie coraz mocniej uwypukla swoją wyższość nad wszystkimi innymi, a to, prędzej czy później doprowadzi do tragedii.

30.10.2023 22:37
Raiden
Raiden
143

Kracy30
Jako przedstawiciel tamtego pokolenia graczy wypowiem się.
Nie.
Jakby wszystko co widzisz na ekranie monitora to iluzja. Czepianie się, że coś jest w takiej rozdzielczości i podbijanie do innej przez algorytmy AI nie ma sensu.
Patrzysz na wyświetlacz, na którym wszystko jest tworzone z 3 lub 4 różnokolorowych subpikseli, tylko twój wzrok ich nie widzi od pewnej odległości i łączy je w miliardy różnych kolorów.
Tak samo z klatkami na sekundę - wystarczy, że jest ich odpowiednia liczba, a tobie wydaje się już, że to nie osobne obrazki, a płynny ruch.
I jasne, na stop klatce zobaczysz różnicę w takim Kingdom, ale w gry się raczej nie gra z prędkością 1 klatka na minutę szukania dziury w całym.

Także nie ma co się czepiać, że ktoś tu nas oszukuje, bo od zawsze oszukiwaliśmy tu nasz wzrok.
Inna sprawa, to, czy robi to dobrze;
a jeszcze inna to lenistwo dzisiejszych twórców co do optymalizacji...
I tu pewnie się zgadzamy i kogoś na taczkach trzeba by wywieźć

post wyedytowany przez Raiden 2023-10-30 22:50:48
24.10.2023 22:51
Raiden
odpowiedz
Raiden
143

Soon - Japonia przecież właśnie otworzyła się bardziej na zachodni kapitał. Co lepsze/co gorsze (skreśl niepotrzebne) wszystko to robi rząd.
https://www.ft.com/content/4285160f-a3b2-4edd-ba44-ac7a1b00227d

Do tego zmiany opodatkowania małych firm i inne bagno. Ogólnie Japonia jest teraz na celowniku funduszy inwestycyjnych i zobaczymy co z tego wyjdzie.

Ale jak mówią - tonący brzytwy się chwyta, nawet jeżeli trzyma ją ten, kto cię topi..

https://www.reuters.com/business/finance/blackrock-cuts-japanese-stocks-underweight-hawkish-boj-risks-2023-02-13/

24.10.2023 19:45
Raiden
odpowiedz
Raiden
143

Znaczy się sam koncept chyba nie jest do końca Pisowski i wziął się raczej z ukształtowania PL.

Na pewno można odrzucić jakiekolwiek zdanie TVN i TVP na ten temat.

Wg pierwszych i ich ciągłej narracji z okresy: styczeń - lipiec, właśnie inflacja w PL do końca 2023 będzie mocno ponad 10% (i to słowa profesorów oraz drów - ekspertów - współpracujących ze stacją), a obniżanie stóp doprowadzi do kataklizmu. Nic takiego się nie stało (i jakby nie piszę o tym, co mogłoby być, gdyby... bo tego się nie dowiemy i nie wyliczmy - może byłoby lepiej, a może jednak inflacja w naczyniach gospodarki połączonej UE oraz Świata jest zależna w 80% od czynników zewnętrznych, a trochę inne czynnik wpływają na Hiszpanię oraz Portugalię, a inne na kraję blisko Rosji i Ukrainy). For the record - globalnym czynnikiem inflacyjnym było np. przerwanie łańcuchów dostaw w Covid (oczywiście nie bezpośrednim i z opóźnionym zapłonem), a nie paplanina Glapusia.

Co do drugiej stacji to szkoda pisać.

Port może był potrzebny X lat temu, ale dziś należy rozbudowywać to co jest. Inna sprawa to kolej, tylko tu pytanie czy nie ważniejsza jest infrastruktura lokalna na ten moment.

post wyedytowany przez Raiden 2023-10-24 19:57:58
19.10.2023 20:14
Raiden
odpowiedz
Raiden
143
Image
Wideo

Hymm 25, nie do zrobienia. Wycinam wszystkie polskie, bo bym musiał dać kolejnych 25, a i tak nie mieszczę wszystkiego.
Jakość tak, rzędami:
1.Pierw oczywistości;
2.potem trochę chyba mnie;
3 i 4. sci-fi 2x;
5. anime, animacje, karty.
W centrum oczywiście the most, the best, one and only Evangelion :) Te kadry, jak z innego świata, ta gra światłem, te sceny ( https://youtube.com/shorts/jXAF1Q5QyWo?si=NIsIwT4SSlnd7Ybw ) i ta pustka, gdy widzi się zakończenie pierwszy raz. Nigdy ani gra, ani film, ani książka nie wywołały u mnie czego takiego (co oczywiście, jako doznanie, jest przypisane do pierwszego zobaczenie filmu i mnie z tamtego czasu; bo dziś już tego się nie odtworzy). Oczywiście przed filmem trzeba zobaczyć odcinki 1-24.

a dla podsumowania historii kina:
https://youtu.be/xBasQG_6p40?si=Jxf87-ZqWVeDnRru

post wyedytowany przez Raiden 2023-10-19 20:37:24
16.10.2023 22:08
Raiden
odpowiedz
Raiden
143

A to nie jest ten Marek "Czarny PR" Tymiński?
#Sniper: Ghost Warrior
ooo mam https://www.gry-online.pl/newsroom/prezes-ci-games-o-sniper-ghost-warrior-2-dziala-czarny-pr/zd127b1

post wyedytowany przez Raiden 2023-10-16 22:10:34
16.10.2023 21:53
Raiden
1
odpowiedz
Raiden
143

Malf dam propozycje z kilku różnych kierunków growych
Knights of Honor - konkretne, nie tak rozdumane jak serie paradoxu, grand strategy real time. Druga część to w sumie trochę remake jedynki.

Jak symulacja, RPG itd., to może powrót do Zony w bardziej hardym wydaniu - darmowy, samodzielny mod w stylu remake do Cienia Czarnobyla - Radiophobia 3 (1.11) (uwaga na wysoki poziom trudności, ale poprawia survival, ekonomię, AI przeciwników, artefakty, występowanie mutantów, grafikę i strzelanie) albo starszy Stalker Oblivion Lost odtwarzający stany gry z okresu 2002-2004.

Może, w ramach przerwy, coś bardziej fabularnego jak Oxenfree, a jak z gameplayem to Spiritfarer

Jeżeli metroidvanie wchodzą w grę, to Ender Lilies lub Yoku's Island Express i jeszcze Record Of Lodoss War Deedlit In Wonder Labyrinth

EDIT.
Można jeszcze iść w tematy orwellowskie jak Beholder

post wyedytowany przez Raiden 2023-10-16 23:55:50
16.10.2023 16:25
Raiden
odpowiedz
Raiden
143

Lineage 2 jakieś 3500-3700h zliczając wszystkie serwery. SW TOR lekko ponad 500h
Z gier niesieciowych, to pewnie seria NBA 2k (sam Nba 2k16 680h, ale już na przykład NB2k20 i 2k22 tylko po 30h) . Zelda BotW 164h; Pewnie Heroes Might and Magic też sporo.

post wyedytowany przez Raiden 2023-10-16 16:30:42
11.10.2023 19:48
Raiden
odpowiedz
Raiden
143

Co do ładowania i czegokolwiek, polecam stronkę:
https://switchchargers.com

07.10.2023 21:59
Raiden
Raiden
143

Czyli też gry od EA ;)

07.10.2023 17:23
Raiden
odpowiedz
Raiden
143
Wideo

Upadła Jedi jest jedna - Kreia
Ci z listy powyżej wyglądają przy niej jak zbieranina spod żabki.
https://youtu.be/1rG3GGykGVQ?si=8iBXl2v_a_lC5Ym0

post wyedytowany przez Raiden 2023-10-07 17:26:10
07.10.2023 09:29
Raiden
1
Raiden
143
Image

Iselor
No teraz to żeś mnie lekko uraził. Z płytkami też chyba nie masz racji. Norma to niby 20lat. Jasne, mam starsze płytki neca, które dalej bez problemu działają. Mam starsze gry na cd, które działają (najstarsze jakoś 97-98), ale te dwie od EA już kaplica.
Co do długowiecznych to rozwiązania m-disc czy inaczej nazywając ultra life, które wymagają napędów DL.
Tylko, że nie ma gier tłoczonych na m-disc...

post wyedytowany przez Raiden 2023-10-07 09:35:13
05.10.2023 23:42
Raiden
Raiden
143

Nie nazwałbym ich uszkodzonymi. Jakieś drobne ryski mają, ale to tzw. normalne ślady użytkowania.
Po prostu, nie czyta, a płyty w dużo, dużo gorszym stanie bez problemu.
I wiem, że to cyfra, a nie analog, i czasami wystarczy jedna ryska, natomiast nie widzę ani jednej głębszej, która mogłaby to powodować.

05.10.2023 19:55
Raiden
Raiden
143

Wszystkie inne czyta

05.10.2023 19:47
Raiden
1
Raiden
143

Ostatnio wróciłem do paru starszy gier... i kilka płytek już nie nadaje się do odczytu.
NFS: Underground, Medal of Honor AA (może wydawca gier EA w na Polskę oszczędzał?)
Normalnie bym się tym nie przejmował, ale jest parę tytułów, które mam płytkach, a nie ma w cyfrze (ot choćby Jericho)

PS
Inna dziwna sprawa, to że kupiłem dodatek do Cybera, odpalam z pathtracingiem itd., niby się wkręcam i odbijam się od tej gry trzeci raz... za to Bloodrayna przechodzę w dwa wieczory ;)

post wyedytowany przez Raiden 2023-10-05 19:50:09
05.10.2023 17:16
Raiden
odpowiedz
Raiden
143

Iselor
może wrzuć tę zabawę na bloga ppe :)

03.10.2023 23:25
Raiden
odpowiedz
Raiden
143

Z cyklu The Old Republic wróć ;)

02.10.2023 00:20
Raiden
odpowiedz
4 odpowiedzi
Raiden
143

Zaskakująco mało The Last of Us Part II, a 10/10 każdy sypał.
Zaskakująco dużo Assassinów, a że Orgins, to już w ogóle. Rozumiem, że Egipt naprawdę bardzo dobrze przedstawiony, ale sama rozgrywka w nim... to w najlepszych wiatrach średniak.

Swoją drogą, czyją topkę byście wybrali, nie mogąc wybrać swojej?

02.10.2023 00:11
Raiden
Raiden
143

Jest Risen, jest Kingdom Come, brak serii Gothic. Dziwne ale pewnie kwestia kolejności ogrywania.
Próbowałeś Pathologic 2?

01.10.2023 22:55
Raiden
1
odpowiedz
Raiden
143

Hymmm
Castlevania: Lords of Shadow
seria Darksiders
idąc dalej Bayonneta
W trochę innym kierunku Doom lub Shadow Warrior

01.10.2023 00:06
Raiden
1
Raiden
143

WolfDale
Cała seria jest świetna i nie ma słabej gry. W dwójce też się dobrze bawiłem.
Dla mnie jednak jedynka to czyste piękno. Eksplorowanie oryginalnej posiadłości, ci bossowie. Kucharz, czy ten moment, gdy trzeba zgadywać muzykę z gier Ninetendo i wlatuje Super Mario World 3, jak dobrze pamiętam; do tego żywioły, których brak w następnych częściach (w sensie nie są już wciągalne przez odkurzacz, a jedynie jako obiekty).
Z trójką mam ten problem, że o ile fizyka i wszystko zagrało, to bossowie średnio. Nie byli źli, ale też trochę tacy do zapomnienia. Z jedynki pamiętam każdego.

30.09.2023 23:42
Raiden
1
odpowiedz
3 odpowiedzi
Raiden
143

Luigi's Mansion to czysta magia eksploracji i najlepsza część serii, a przeszedłem każdą. Druga połowa gry z odczuwalnym backtrackingiem, ale mimo to mocne 9/10 (ta zabawa żywiołami i bossowie - genialni)

Eternal Darkness: Sanity's Requiem bywa toparne, ale system zaklęć w tej grze... sick, że ktoś na to coś takiego wpadł, bo jest genialny. Jedna czy 2 walki z bosami takie sobie i lekko denerwujące, mimo tego, to kolejny mocny tytuł z Gacka.

Star Wars rogue squadron ii rogue leader oraz Star Wars: Rogue Squadron III: Rebel Strike. Bajka, jedynka była świetna, ale te części są genialne. TA oprawa, trochę niczym jak we Władcy Powrót króla, z filmowymi wstawkami, lepsze misje niż w 1.

Do tego, Super Mario Sunshine, Zelda Wind Waker, Metroid Prime, jeżeli nie ograłeś na WiiU lub Switchu nowszych wydań.

Warto wspomnieć Metal Gear Solid: The Twin Snakes - jak jesteś fanem serii, to must play.

post wyedytowany przez Raiden 2023-09-30 23:47:01
29.09.2023 23:17
Raiden
odpowiedz
Raiden
143
Image

Nie da się.
Mam co najmniej 25 kolejnych (wystarczy wspomnieć, że powinienem dopisać: Planescape, Disco, Kotor 1, TES V Skyrim, The Longest Journey, Sanitarium, Silent Hill 2, Stalker, Super Mario Odyssey, Zelda a Link Between Worlds, Splatoon, Death Stranding, RDR, Wiedźmina 2, ze 3 inne strategie i to tylko z 1999 roku, a gdzie strategie innych lat).

post wyedytowany przez Raiden 2023-09-29 23:18:29
28.09.2023 17:37
Raiden
Raiden
143

HETRIX22
Nie no, widać różnicę i to sporą, jeżeli gra ma dobrze poprowadzoną krzywą pod HDR. Dla przykładu Metro Exodus

28.09.2023 15:56
Raiden
odpowiedz
Raiden
143

Może warto dorzucić troszkę do Dell Alienware AW3423DWF

27.09.2023 22:13
Raiden
odpowiedz
Raiden
143

Geniusz.
Pisałem o tym jakiś tekst w 2018, w 2021. Mamy 2023 i nic się nie zmienia.
Aktualna droga została obrana w okolicach premiery MGS 2 i tylko Nintendo na nią nie weszło... więc co się dziwić. Do tego doszły problemy, o których pisał Wielki Gracz.
Jak na moje to nawet dziwne, że gaiming, podobnie do choćby sytemu bankowego, jeszcze się nie wysypał jak w 1983. Coś takiego powinno być naturalne dla każdego rynku/bytu, jako cykl życia; a tu mamy sztucznie pompowanego potworka i prezesów corpo mówiących, że trzeba trupa reanimować.

post wyedytowany przez Raiden 2023-09-27 22:14:05
25.09.2023 21:34
Raiden
odpowiedz
Raiden
143
Wideo

Następnie mimo tej samej ilości FPS na obu monitorach (blokada na 60) obraz wydaje się dużo płynniejszy.
Wszystko to kwestia czasu reakcji przejść kolorów na pikselach, czasu prezytencji danego luminoforu (Persistence time), co wpływa na finalną rozdzielczości ruchu (Motion resolution).
Ogólnie to LCD VA<LCD IPS<= LCD TN <<< Plazma < LCD z BF/strob <= OLED <= CRT
Tak, CRT oraz OLED mają najlepszy czas reakcji, a LCD bez black frame (systemowego) czy stroba (mechanicznego) są daleko w tyle za innymi technologiami.
75hz+ CRT nadal ma dużo lepszą płynność obrazu niż jakikolwiek LCD bez stroba/BF. Dopiero przy podziale 1000ms na 360 kalatek zwykły LCD (1000ms/360 = 2,8ms) może dorównać tu respons time do CRT (od 1 do 3 ms).

O tu jakiś filmik o tym - pierwszy z brzegu
https://www.youtube.com/watch?v=6hR3DGSwHCU
tu opis
https://blurbusters.com/gtg-versus-mprt-frequently-asked-questions-about-display-pixel-response

PS, tu lista, chyba przestarzała, monitorów LCD ze strobem:
https://blurbusters.com/faq/120hz-monitors/
Oczywiśc BF/strob w LCD i OLED działa inaczej niż strob w plazmie czy CRT, gdzie wynikał on z funkcjonowania technologii. W LCD oraz OLED strob będzie wpływał na migotanie obrazu oraz zmniejszał jasność proporcjonalnie do użytego odświeżania. Czyli jak jakiś TV LCD, np. Samsung QLED, ma odświeżanie podświetlenia 960hz, a my odpalimy mu stroba (płynność ruchu w opcjach), to będziemy mieli 120/960 maksymalnej jasności (dlatego, że podświetlanie przełączy się na 120hz, by zrównać się z odświeżaniem matrycy, co da super płynność ruchu, ale zmniejszy maksymalną jasność z 960 na 120).

post wyedytowany przez Raiden 2023-09-25 21:53:48
25.09.2023 14:25
Raiden
odpowiedz
Raiden
143

Mały odkop, ale po co zakładać kolejny wątek...
Mam zamiar zrobić 3 podejście do gry, wiem, że patch 2.0, póki co, przyblokował mody (do czasu aktualizacji przez twórców modów).
Jak się ma mod Wannabe Edgerunner do zmian z 2.0, które tez wprowadzają człowieczeństwo. Ktoś grał z modem oraz w 2.0 i ma zdanie?

post wyedytowany przez Raiden 2023-09-25 14:27:30
21.09.2023 23:51
Raiden
1
Raiden
143

A "on"???? Zarabiasz więcej od "niego" ;) i to na 99% ?

21.09.2023 23:44
Raiden
odpowiedz
1 odpowiedź
Raiden
143

To może utopijny model skandynawski? Że prezes powinien zarabiać co najwyżej pięciokrotność minimalnej? Oczywiście statystycznie, np. w takiej Szwecji, średnio jest to 70-krotność, ale swoją wagę mają tu też drakońskie podatki.
W Polsce chyba nie było tak szerokich badań na ten temat. Mamy jednak wyniki z giełdy - via businessinsider i tam przeciętny prezes spółki z GPW w 2022 zarabiał 313 tys. zł miesięcznie (w kosztach pracodawcy).

post wyedytowany przez Raiden 2023-09-21 23:45:42
20.09.2023 22:53
Raiden
odpowiedz
Raiden
143

Do tego procka RTX 3060/3060ti, które nie są bardzo prądożerne, to taki maks.
PCI 3.0 x8, w którym działałyby karty RTX 4060 i 4060ti na twojej płycie, miałoby znaczenie przede wszystkim w tytułach, gdzie dużo danych leci szynami, czyli np. Spider-Man Remaster z włączonym RT lub Hogwart Legacy z włączonym RT; dlatego, że tam CPU ma więcej pracy. Jest to swojego rodzaju trend ostatnio, więc do zastanowienia z tymi kartami.
Pytanie, czy jednak RTX 3060ti nie byłby tu lepszy z uwagi na tryb pracy 3.0 x16. Niby sprawa błacha, bo w średniej to kilka FPS, ale jak się patrzy na wykresy następujących po sobie klatek, to występują mikroprzycięcia.
Framegenerator też lubi przepustowość.

Jeszcze inna kwestia to VR - tam jak najwięcej VRAM się przyda i tu można myśleć od mocniejszej karcie. Więc wszystko się rozbija, jak zawsze, o to, jak używasz PC.

Ogólnie, wydać 1400zł na nową RTX 4060, to moim zdaniem średnia opcja pod ten PC. Lepiej już chyba używkę RTX 3060ti LHR (tylko tu dasz ok. 1000zł, a zyskasz 30-35% wydajności względem RTX 2070, na i trochę więcej gdy mowa o klatkach per dżul - wydajność energetyczna, VR czy Ray tracingu - tam to będzie 40-60%), lub, jak jest opcja taniego RTX4060ti, to w tę stronę.
No i ta ostatnia opcja - myśleć o wymianie całości.

19.09.2023 12:21
Raiden
1
odpowiedz
Raiden
143

A w jaki sposób mieliby przejąć Valve? Przecież to prywatna firma, która nie spieniężyła się na giełdzie... Musieliby je kupić od Gaba, a nie przejąć

18.09.2023 17:18
Raiden
odpowiedz
Raiden
143

Dobry odkop :)
Kiedyś, na studiach zrobiłem 58 czy jakoś tak, ale to nie były pełne pompki wg mojego dzisiejszego pojmowania.
Aktualnie nie wiem ile robię, bo nie wykonuje pompek jako ćwiczenia wytrzymałościowego dla mięśni. Robię je jako ćwiczenie siłowe z kamizelką obciążeniową. Robię 4-6 w pełnym zakresie ruchu - poręcze, po kilka serii (uzupełnionych oczywiście dipami itd.).

post wyedytowany przez Raiden 2023-09-18 17:23:58
18.09.2023 17:04
Raiden
odpowiedz
Raiden
143

W grach wymagających dla cpu, w szczególności, jeżeli oczekujemy więcej niż 60fps (i gpu może to zapewnić), to R5 3600 będzie miał lekko pod górkę.
Nie piszę, że to zły procek - sam maiłem. Ale kupowanie dziś, kiedy możemy R5 5600 zamiast, chyba mija się z celem.

Gry o których piszę, to:
- Hogwart (przede wszystkim po włączeniu RT);
- Spider-Man (przede wszystkim po odpaleniu RT);
- w Starfield też może być różnie;
- podobnie w The Last of Us: Part I (PC);
- i nowszych grach z RT wymagającym więcej od CPU (np. Wiedźmin next gen; Cyberpunk pathtracing).

Porównanie r5 3600 vs. r5 5800x3d w Hogwart (1080p, wysokie, RT+)
https://i.ibb.co/qMNFRxK/obraz-2023-09-18-181220170.png

i faktyczne przycinki
https://i.ibb.co/tmT3kY3/obraz-2023-09-18-181407357.png

post wyedytowany przez Raiden 2023-09-18 18:15:19
16.09.2023 16:35
Raiden
Raiden
143

stud3nciq
To trochę błędne myślenie. Jeżeli i7 8700k blokował np. RTX 4090 w 1080p, a w 4k, w stosunku do innych cpu, wykresy się spłaszczają, nie oznacza z automatu, że wszystko jest ok.
FPS to tak naprawdę fremtime i do póki nie porównanym wykresów frametime oraz czasów następujących po sobie klatek (frametime variance), to nie wiemy, czy mamy mikroprzycięcia, czy nie.
Świetną robotę robi tu np. Igor's lab, mierząc frametime i wariancę sprzętowo.
My sami możemy programowo - np. CapFrameX.
Jeżeli nie mierzymy tych dwóch, jakimś wskaźnikiem będzie różnica pomiędzy FPS średnim a 1%low. Im większa, tym większe frem time variance, czyli mikroprzycięcia, jeżeli 1% low oraz AVG nie przekraczają docelowego fps (odświeżania monitora).

12.09.2023 22:53
Raiden
odpowiedz
Raiden
143

Nie za bardzo rozumiem, to teraz Cyberbunk będzie korzystał z jakiś nowych instrukcji i małych paczek danych?
To może jednak lepiej testować OCCT na maxa (proponuję small, extreme, AVX2 i wszystkie wątki).

07.09.2023 21:01
Raiden
odpowiedz
Raiden
143

Żeby wszystko było jasne.
Mamy piny 12V, i we współczesnych konstrukcjach są one raczej 7A (te na płycie; nie mylić z kartą graficzną, bo tam mamy inne natężenie na pin). W kabelku zawsze mamy taką samą liczbę pinów zasilających co uziemiających, co oznacza, że:
- kabelek 8 pin (4 zasilające; 4 uziemiające) może dostarczyć 4 x 12Vx 7A = 336W
-Kabelek 4 pin może dostarczyć 2x 12 x7 = 168W
To i tak niskie obliczenia, bo są i podłączenia z 8A na pin (czyli 384 W dla 8 pinowego kabla).

Znikoma liczba procesorów przebije 8 pin, chociaż Intel i i9 mocno się starają. Możemy oczywiście podpiąć oba kable i cpu będzie dalej pobierał tyle, ile potrzebuje.
Inna kwestia jest taka, że zasilacz kolegi (S9-CM-700W) to dwuliniowiec (dwie szyny 12V) i nie da z szyny CPU (tej, gdzie kable ma na stałe), do cpu więcej niż pozwala podłączenie 8 pin (dlatego BQ przewidział tylko 2x4 pin w nim), nie wspominając o sytuacji, gdzie oba porty zasilacza PCIe byłby zajęte na zasilanie jakiejś mocnej karty. Więc jakby... podłączyć można, ale to bez znaczenia.

Dlatego też płyty w standardzie ATX:
- Z790 (intel) oraz x670 (AMD) będą posiadały 8pin+4pin lub 8+8; co jest dedykowane dla ekstremalnego podkręcania nowych i9, i7 oraz ryzenów 9; gdyż te najnowsze jednostki są dość prądożerne. Mimo to, każdy CPU, bez podkręcania - stock, spokojnie odpalimy na jednym podłączeniu, jeżeli tylko zasilacz da radę.
- B660 oraz x570 będą posiadały 8pin lub 8pin+4pin, nawet gdy lista wspieranych cpu jest taka sama (np. ASUS Prime B660 Plus ma 8 pin a Asus TUF GAMING B660-PLUS WIFI ma 8+4pin; dlatego, że ten drugi ma lepszą sekcję oraz bardziej nadaje się do OC). Z690 też jest w tej kategorii, ale to dlatego, że nikt chyba nie był przygotowany na prądożęrność 13 generacji.

Czy skorzystałbym u siebie kiedyś z dodatkowych 4 pin (ASUS tuf x570)? Pewnie gdybym wrzucił na ruszt R9 5950, to profilaktycznie bym to zrobił, chociaż takiej potrzeby brak (płyty posiadające tylko 8 pin też go obsługują).

post wyedytowany przez Raiden 2023-09-07 22:15:03
07.09.2023 19:20
Raiden
Raiden
143

Dymion_N_S
Tak, dokładnie.

07.09.2023 16:13
Raiden
odpowiedz
2 odpowiedzi
Raiden
143

Jest to dodatkowe zasilanie CPU i nie ma potrzeby ani go używać, ani wymieniać zasilacza.
Jedynie gdybyś miał CPU pokroju Ryzen 9 i planował go podkręcać -wtedy można podpiąć te 4 piny, natomiast dalej nie trzeba wymieniać PSU - wystarczy odpowiednia podpiąć.

Dla przykładu - mam na swojej płycie też takie (ASUS tuf x570 z Ryzen 7 5800x3d i seasonic prime plat) i nie używam.

post wyedytowany przez Raiden 2023-09-07 16:16:28
07.09.2023 15:02
Raiden
odpowiedz
Raiden
143

Najlepszy pokaz tego, że Betha wielkie G zrobiła ze swoim silnikiem to to, że gra działa lepiej na starych Intelach, niż względnie nowych Ryzenach. Klasyka ich silnika znana od...
Dajmy na to, że chce pograć w to cudeńko w 3440x1400 i 120hz... tylko nie ma jeszcze karty, która na to pozwoli bez FSR... wróć, nie ma też CPU, który to pozwoli utrzymać w bardziej wymagających miejscach. I to jest chyba dobitny dowód, na to, czym jest ten silnik.
Gra ma momentami poziom grafik PS3; innymi PS4; a i trafi się PS5, ale to chyba czas, by Betha zrobiła upgrade, ale silnika.

BTW, pytanie do Todda: jaki ssd kupić, żeby nie było ekranów wczytywania?

post wyedytowany przez Raiden 2023-09-07 15:11:43
05.09.2023 21:01
Raiden
1
odpowiedz
1 odpowiedź
Raiden
143

Mnie dalej zastanawia optymalizacja tej gry, a raczej jej brak.
O naleciałościach silnika szkoda pisać. Skóra naciągnięta na roboty aż bije z każdej postaci (co do mimiki).
Mam nadzieję ,ze Bethesda ogarnie się przed TES VI.

04.09.2023 13:12
Raiden
Raiden
143

No niestety, jako "szpeczjalista", się nie zgodzę.
Załóżmy, że chcemy wrzucić do PC RTX 3060ti. Nvidia rekomenduje 600W dla tej karty. Np. producent płyt, kart i zasilacz - MSI, pisze na stronie, że to zależy od CPU, ale najmniej rekomenduje 550W (przy połączeniu tego GPU z R5 lub i5) https://www.msi.com/blog/recommended-psu-table

Dobra, to wchodzę na stronę sklepu z częściami, widzę dwa zasilacze
a) Akyga Basic 600W
b) SEASONIC S12III BRONZE 500W

Sprawdzam na innej stronie, czy któryś nie jest na "czarnej" liście. I nie jest. Wybieram Akyga Basic 600W, bo "mocniejszy" i tańszy. Okazuje się, ze mam co chwilę restarty, itd. Wymieniam na SEASONIC S12III BRONZE 500W. Wszystko działa.

Ten zasilacz Akyga nie jest na żadnych czarnych listach, a przecież spełnia wymagania NV. Tylko linia 12V ma jakoś 350W jak pamiętam. W SeaSonic ma prawie 500W... Nie ma co ludzi wprowadzać w błąd, i dla każdego chyba jasne jest, że SeaSonic S12III 500W to lepszy zasilacz pod RTX 3060ti.

04.09.2023 10:47
Raiden
odpowiedz
Raiden
143

be quiet! Pure Power 11 600W
ma dwie wersje (niemodularna i modularna - z dopiskiem CM, ale dziś chyba już niedostępna).
W obu wersjach będziesz miał wszystkie niezbędne kable do RTX 3070, a do tego w tej niemodularnej, będą one na stałe wpięte.
Co do samej zasiłki jest ok, chociaż ma dwie szyny, więc zalecany większy zapas mocy. Natomiast 600W powinna być ok. do RTX 3070. Inna spraw, że niższe serie BQ mają dość krótkie kable do GPU, ale jeżeli nie masz dużej budy, to powinno być ok.

post wyedytowany przez Raiden 2023-09-04 10:49:15
04.09.2023 09:33
Raiden
Raiden
143

RAVSERS
Ten zasilacz jest niemodularny, więc nie podepniesz do niego kolejnego kabelka.
Nie wiem tylko jak z podpięciem karty, bo widzę, że ten zasialcz ma chyba tylko 1 złącze 8 pin (6+2) i jedno 6 pin pod VGA (bo to seria Elementum).

04.09.2023 00:23
Raiden
odpowiedz
2 odpowiedzi
Raiden
143

Zależy od reszty platformy, ale jeżeli nie masz jakiegoś i9 13900k, to markowe 550w z solidną, pojedynczą linia 12V da spokojnie radę.
Nvidia rekomenduje 650W, gdyby ktoś właśnie miał jakiś bardzo prądożerny CPU i ew. masę dysków, wentyli itd..
Jeżeli natomiast chciałbyś w przyszłości pomyśleć o topowym gpu to 750w lub 850w rekomendowane, ale to nie tak cena.

Problem w cenie. Do 300 zł masz niemodularne i, po prostu, przyzwoite (np. be quiet! System Power 10 650W albo Endorfy Vero L5 Bronze 600W). Dopiero od 420zł (na dziś) masz semi-mod i z lepszymi bebechami (Gigabyte UD750GM; Cooler Master MWE Gold V2 750W), ale dalej bez nowego złącza -pod karty RTX 4xxx i nowsze (zostają przejściówki/kable).
Przed zakupem sprawdź długość kabli.

post wyedytowany przez Raiden 2023-09-04 00:23:39
01.09.2023 22:27
Raiden
odpowiedz
1 odpowiedź
Raiden
143

ehh, chyba tym razem spasuje - Skyrim na swoje czasy był bardzo dobry, ale tu nie ma tego, co on miał - eksploracji w tym stylu. Jest za to generator.
Lepiej chyba sięgnąć po Outer Worlds, który oferuje więcej "wolności", tylko innej (choćby przy wyborze sposobów wykonania zadania).

31.08.2023 13:13
Raiden
Raiden
143

Ale mogła mieć nawet "dobrą" śmierć - po pojedynku z Vaderem w Rebelientach, to ją przywrócili...

26.08.2023 22:48
Raiden
odpowiedz
Raiden
143

Sam kiedyś wybierałem i wybrałem, ale nie kupiłem, bo poszedłem w stronę trenażera.
Wtedy wybrałem ZIPRO NITRO RS.
Nie wiem, czy dziś są nowsze wersje itd.

22.08.2023 19:55
Raiden
odpowiedz
Raiden
143

Wow, kolejna gra z listy nvidii, która wyciekła jakieś 2 lata temu się potwierdza. To już jakieś 80% potwierdzone.
Wystarczy wygoogla newsy z 14 września 2021 - np. "GEFORCE NOW: WYCIEK OGROMNEJ LISTY GIER W USŁUDZE"

22.08.2023 18:56
Raiden
👍
Raiden
143

Dokładnie,
tylko to poczucie przynależności - raczej dziś jest bardzo słabe, gdyż dominuje indywidualizm. Stąd choćby zanik wielu grup społecznych, religii, państwowości, czy, patrząc na gry, skoro to forum o grach, zanik typowych gier mmo. Jasne, człowiek zawsze będzie stadny, ale nie ma teraz zbyt dużej potrzeby kolektywizmu (choćby w stosunku do ciężkich czasów, jak np. wojny, które osłabiają indywidualizm, a wzmacniają kolektywizm).

22.08.2023 18:47
Raiden
Raiden
143

abesnai
Tylko wylegiwanie się (np. leżąc z dobra książka po kilka godziny dziennie) ma wiele pozytywnych aspektów gdy piszemy o organizmie, tymczasem lampie w smartphone, może prowadzić do wielu problemów (zaczynając od prozaicznych, do których czytanie książki bez przerw też trochę prowadzi - jak pogorszenie wzroku; idąc do poważniejszych, jak zaburzenia senno-trawienne związane z emisja światła; po kwestie dopaminowe i ogólne przeładowanie naszego mózgu treściami nieistotnym - co prowadzi do kłopotów z koncentracją i dalszych następstw).
Jest źle, a będzie gorzej.

post wyedytowany przez Raiden 2023-08-22 18:48:09
21.08.2023 23:33
Raiden
2
odpowiedz
1 odpowiedź
Raiden
143

A mnie się zdaje, że to trochę pochodna chaosu:
- tego, że dziś każdy przyswaja dziennie tyle informacji, ile 500 lat temu 2 osoby przez całe życie (po przeliczeniu na dane w kb);
- tego, że załamał się wykres indywidualizmu vs. kolektywizmu (kiedyś naturalnie świat przechodził od kolektywizmu społecznego do indywidualizmu, po czym była wojna, zerowała wszystko, ludzie wracali do kolektywizmu; dziś od kilkunastu lat panuje indywidualizm bierny, czyli jedna z najgorszych form, bo dość upośledzająca);
- można by napisać o wielu innych rzeczach powiązanych, jak choćby spadek średniego iq w ostatnich latach (jakoś od lat 80 malej, ale przez ostatnich 10 bardziej), czy spadek poziomu testosteronu (co ma, społecznie, olbrzymie znaczenie), ale tak, jest tego masa i co z tym zrobi Kowalski?
Warto zapytać o rolę mediów, które coś małoistotnego, ze statystycznego punktu widzenia, potrafią ukazać jako coś codziennego. I to robią wszystkie stacje, a najgorsza jest w tym wszystkim pewna gazetka na W i pewna stacja na TVP (chociaż ta z N na końcu ich goni).

post wyedytowany przez Raiden 2023-08-21 23:41:14
21.08.2023 11:54
Raiden
1
Raiden
143
Wideo

Qverty
W stanach wszystko rozchodź się o to, jak były projektowany miasta. Gdyby ta niunia żyła w normalnym mieści, to by jej nie przeszkadzało. Co gorsza, tego praktycznie nie da się zmienić w USA na tym etapie.
https://www.youtube.com/watch?v=5ZwbZWrKbGI
Tu pokazanie, że da się wszystko (Tokyo i trochę porównanie do NY).
https://www.youtube.com/watch?v=zysL_lkdtys

Śmieszne jest to, że w USA prawie wszystko jest źle zaprojektowane, a i tak działa, a im żyje się chyba dobrze.

21.08.2023 11:06
Raiden
1
odpowiedz
2 odpowiedzi
Raiden
143
Wideo

Co do 3 pasów, to w algormeracjach sam większość czasu spędzam na środkowym, bo co chwilę zjazdy, wyjazdy, masa ciężarówek do wyprzedzenia itd. (piszę oczywiście o godzinach szczytu).
Swoją drogą to jest chyba głębszy problem urbanistyczny. Pomijając znajomość przepisów, można nawalić i 12 pasów, i będzie dramat. Wystarczy spojrzeć na USA i choćby autostrady przy Huston. Rozwiązaniem dla zakorkowanych miast nigdy nie jest dodawanie kolejnych pasów, a tworzenie systemów spójnej komunikacji miejskiej i kierowanie ludzi w tę stronę. Co prawda w UE nigdy nie będzie jak USA, bo tam domyślnym sposobem przemieszczania się jest samochód (nawet nie nogi).
Z ciekawostek, jak przy urbanistyce USA jesteśmy, wiecie, że dzbanki nawet nie potrafią używać rond, i to dopiero jest u nich komedia (kij, że ronda pozwalają zredukować wypadki vs. skrzyżowanie, do prawie zera). https://www.youtube.com/watch?v=AqcyRxZJCXc
Oczywiście w USA to jest też związane z beznadziejnym projektem miast na siatkach (ulice od linijki w rzędach), a nie europejskim stylu gwiaździstym, który jest wielokrotnie wydajniejszy.

post wyedytowany przez Raiden 2023-08-21 11:11:35
18.08.2023 13:35
Raiden
odpowiedz
Raiden
143

Konkurencja dla nas jest jak najlepsza. Jeszcze niech Intel rzuci drugą gen swoich kart i będzie pięknie. Wiem, że teraz ma być Alchemist+ a battlemage dopiero 2024, ale jak usprawnią sterowniki i poprawią RT (przed premierą RTX 4xxx Intel miał najlepsza wydajność RT per Wat i per cena).

16.08.2023 21:45
Raiden
Raiden
143

Slasher11
akurat g-synca łatwo jest źle ustawić i to właśnie powoduje mikorprzycięcia. Przede wszystkim podczas używania g-synca należy wyłączyć v-sync (najlepiej z panelu NV też), a dodatkowo ustawić limit klatek 2-3 poniżej maxa sprzętowego. Czyli np. limit 141fps dla 144hz.
Jak coś polecam w google wklepać "G-Sync + V-Sync On = Mniejsza ilość FPS i Użycie GPU"

16.08.2023 19:04
Raiden
odpowiedz
3 odpowiedzi
Raiden
143

v-sync g-sync itd. dobrze ustawione?
Ja u siebie nic takiego nie mam (R7 5800x3d i NV serii 3xxx)
Badałeś sprawę jakimś programem pomiarowym? Np. CapFrame X dać test na jakieś 90sekun i sprawdzić wariancję i wykres frametime.

06.08.2023 19:29
Raiden
odpowiedz
Raiden
143

Deadwood,
co do jednosezonowych, to oczywiście Kompania braci, ale nie można zapominać o fenomenalnym Terror.

01.08.2023 19:40
Raiden
Raiden
143

To tak serio, z tą wydmuszką? Przecież to jasne od dawien dawna, czym jest ta partia.
Jej obecność w koalicji rządzącej byłaby porażką i stała w sprzeczności z dobrem Polski. O ile ***** ***, na PO szkoda słów, to za sabotowanie państwa polskiego powinny być większe kary.

28.07.2023 20:58
Raiden
odpowiedz
2 odpowiedzi
Raiden
143

Tylko Konfederosja.
Kto normalny wybrałby coś mniej nienormalnego?

13.06.2023 19:47
Raiden
odpowiedz
Raiden
143

Jak większość płyt głównych ma radiatory an dyski m.2.
Oczywiście, nie zawsze jest to optymalne rozwiązanie - jak np. przy Samsung 980pro, gdzie kontroler jest niżej od pamięci i jeżeli nie zmienimy trermopadów, to styk będzie mocno ograniczony, a to właśnie kontroler się najbardziej grzeje.
Tu autorskie chłodzenie od Samsunga sprawdzi się trochę lepiej (chociaż to też zależy od użytego chłodzenia).

27.05.2023 17:43
Raiden
odpowiedz
Raiden
143

el.kocyk
To może jakiś tytuł "systemowy" ala Gothic (tylko nie zrazić się porównaniem, jeżeli ktoś nie lubi).
Np. fenomenalny Pathologic 2; Stalkery

Z innej beczki, Metro Exodus

27.05.2023 09:55
Raiden
odpowiedz
1 odpowiedź
Raiden
143

el.kocyk
Na growej emeryturze celuje się w tytuł€ nieskończone, najczęściej strategie. Master of Orion II, Faraon, z nowszych Age of Wonders 3 lub 4.
A jak chcesz odzyskać pasję do gier, to przerwa a później spróbowanie czegoś nowego. Np. Zelda BotW, Super Mario Odyssey, Lugis' Manssion 3, jeżeli nie próbowałeś Nintendo. (wiem, że pisałeś, że te gry są beznadziejne, ale ale może wcześniej oczekiwałeś od nich czegoś błędnie).

25.05.2023 21:10
Raiden
odpowiedz
Raiden
143
Wideo

Nie, zazwyczaj nie.
W przypadku zapowietrzenia jedynie (odpowietrzyć).
Ważne, by je odpowiednio zamontować - najwyższy punkt chłodnicy (zazwyczaj przyłącze wężyków) powinien być ponad pompką (czyli najprościej dać aio na top budy - nigdy na dół, a jak na przód, to patrzeć na tę wysokość).
https://youtu.be/BbGomv195sk

post wyedytowany przez Raiden 2023-05-25 21:11:11
02.05.2023 22:33
Raiden
Raiden
143

DLSS 3.0, czyli tak naprawdę klatki doklejone z optical flow, to miecz obusieczny. Jeszcze zwykły DLSS (klatki z AI) są ok, zależnie od rozdzielczości. Optical flow zawsze będzie miał złożony wpływ na frametime i jego wariancję. W jednej grze to nie będzie przeszkadzało w inny je bardzo. A dodajmy do tego opóźnienie ogólne.

01.05.2023 10:48
Raiden
1
Raiden
143

Dokładnie. To, co ostatnio się dzieje, to jakaś paranoja. Ja rozumiem, że złożoność obiektów w grach wzrosła, ale jest źle.

01.05.2023 07:58
Raiden
Raiden
143

PanSmok
Blue screen nieco po rozpoczęciu testu wskazuje na problem z zasilaniem (np. Źle dobrane napięcie), dlatego pisałem o rescie biosu do deski.
Widziałem też post niże - dotyczący pompy. Pompaxmusi otrzymywać wyższe napięcie do prawidlowej pracy. Nie powinno podpinać się je gdzie się chce.
Jak poprawisz pompę, przywrócisz ustawienia biosu (najelpiej zworką
https://www.asus.com/support/FAQ/1030210/ ) to możesz zrobić test cb23.

01.05.2023 00:22
Raiden
Raiden
143

PanSmok
Moim zdaniem to błąd z tym aio i dziwne, że chciało ci się przestawiać wentyle.
Jak możesz zrobić test z CB23 i wrzucić screena z wynikiem oraz parametrami procka z hw info, to można by ocenić, jak bardzo to się przrgrzewa (zrzuca zegary).
Tu przykład https://i.ibb.co/VHfScBT/16-T-pbo-30-soc-offset-auto-14862-ambinet-na-wlocie-koniec-testu-22.jpg

post wyedytowany przez Raiden 2023-05-01 00:23:18
30.04.2023 23:50
Raiden
Raiden
143

PanSmok
Sprawdziłbym strzałki na tych wentylach, czy na 100% są w dobrych kierunkach.
Ogólnie nie jestem fanem tylu wentyli. Ale żebym dobrze zrozumiał. Aio masz na górze i on wdmuchuje powietrze do budy? Powinno chyba wyciągać?
Jak masz pozostałe wentyle i ile jest łącznie z tymi AIO (i jak są zamontowane)? Dajmny na to:
- front 2x wciągają do;
- tył 1x wyciąga z;
- top 3x AIO - wyciągają z;
tak, jakbyś opisał.

30.04.2023 23:10
Raiden
odpowiedz
7 odpowiedzi
Raiden
143
Wideo

Klika miesięcy temu na jednych z forów był podobny przypadek. Pierwsze pytania do autora były, czy chłodzenie dobrze nałożone oraz jaki ma obieg powietrza w budzie (negatywny czy pozytywny oraz czy wentyle kręcą).
Chłodzenie demontował, wymieniał pasty, chciał zmieniać już płytę, chłodzenie i budę (chociaż miał bardzo dobre), aż sprawdził jeszcze raz ten obieg.
Okazało się, że sam lub w serwisie. zamontował wentylator tylni, który miał wyciągać powietrze, odwrotnie i on wdmuchiwał. W efekcie, w dość zamkniętej budzie były same wentylator wdmuchujące.
Natomiast tam było przy chłodzeniu powietrznym.

Tu przy AIO mamy kilka aspektów:
- po pierwsze, po wymianie grafiki na mocniejszą, wzrosły wymagania dla CPU. Musi on produkować więcej FPS, by dokarmić grafikę, która jest w stanie dać więcej FPS, niż poprzednia;

- sprawdziłbym dokładnie, w którą stronę poustawiane są wentyle i jak wygląda obieg powietrza w obudowie. Zazwyczaj staramy się utworzyć balans (czyli tyle samo wprowadzanego co wyprowadzanego) lub lekki negatyw (przewaga wyprowadzanego nad wprowadzanym).
Pozytywny obieg, w szczególności zbyt mocny, w niewielu budach sprawdza się dobrze.
Przy tym AIO powinieneś wziąć pod uwagę jeszcze ustawienia jego wentyli (czy wprowadzają, czy wyprowadzają itd.).

- jak umiejscowione jest AIO. Optymalne umiejscowienie to TOP budy lub przód, ale wtedy top chłodnicy musi być powyżej pompki (czyli cpu). https://youtu.be/DKwA7ygTJn0

- sprawdzić jeszcze raz mocowanie chłodzenia do CPU, sprawdzić procesy w tle, zaktualizować bios i chipset płyty (plany energetyczne);

- zrestartować bios do fabryki, jeżeli już jest najnowszy.

post wyedytowany przez Raiden 2023-04-30 23:13:42
29.04.2023 23:27
Raiden
Raiden
143

To chyba zdrowe podejście. Jak wystarczy, to po co gonić za cyferkami?
Szkoda, że ja czasami daje się ponieść.

29.04.2023 23:24
Raiden
Raiden
143

No to zależy do czego dobrze :)
Jak do gier, to raczej i5 lub Ryzen 5, ew. i7 lub ryzen 7.
7950X to droższy procesor, ale są ku temu podstawy - w niektórych zastosowaniach wielowątkowych nie ma sobie równych. W grach dużo lepszy od r7 7700 czy nawet r5 7600 to nie będzie.

29.04.2023 11:24
Raiden
Raiden
143
Image

Ranking ze strony pcgh - sprawdzają 11 gier wymagających dla cpu, w dość niskiej rozdzielczości, aby być pewnym, że GPU (RTX4090) nie jest bottleneckiem. Oczywiście badają też procent użycia karty.
https://i.ibb.co/q5CRQGC/Zrzut-ekranu-2023-04-29-111604.jpg

Jak się miewa wasz CPU?

Nadmienię tylko, że CPU rzadziej niż gpu jest ograniczeniem dla fps, dlatego, jeżeli mamy dobrze dobrany cpu oraz gpu nie musimy się tym aż tak przejmować. Wszystko jest oczywiście zależne od:
- gier, w które gramy (najbardziej wymagające dla CPU, zaczynając od absolutnie przegranej sprawy, dziś to Hogwarts Legacy z włączonym RT; Spider Man z Włączonym RT, Dead Sapce Remake z RT; Returnal z RT, Calisto Protocool z RT, Hitman 3 z RT oraz bez; Far Cry 6 z RT i kilak innych);
- ustawień, a co za tym idzie, rozdzielczości oraz FPS, w który celujemy (ze względu na hz monitora).

Dodam też, że wszystkie procki bez pamięci 3d mogą jeszcze sporo zyskać po podkręceniu ramu i ustawieniu jego opóźnień. Te z 3d też zyskują, ale zdecydowanie mniej.

post wyedytowany przez Raiden 2023-04-29 11:27:53
28.04.2023 12:56
Raiden
odpowiedz
Raiden
143

Nie wiem, czy tylko ja tak mam, ale dla mnie dobrze zrobiona kawa z kawiarki jest na pierwszy miejscu. Areopress też spoko, w szczególności do japońskiej mrożonej (wyciskana na kostki lodu).
Ale ja nie pijam też mocnych kaw. Wolę long black (jak chcę poczuć bardziej kawę), normalnie to amerciacno (i tak, wolę je na bazie kawiarki niż espresso). Od święta napije się caffe latte, tonic espresso, czy domowej mocha.

post wyedytowany przez Raiden 2023-04-28 12:58:51
22.04.2023 17:22
Raiden
Raiden
143

Oba są wiarygodne w tym samym stopniu - kwestia, jakie miałeś interwały pomiarowe w jednym oraz drugim i co działo się poza grą na PC.

21.04.2023 19:26
Raiden
Raiden
143

Kuba_3
Już bez przesady. R7 5700 to dobry procek. Nie jest w topie, ale nadal przyzwoity.
Poza tym na ten moment na planecie ziemia nie ma CPU, który w tej grze, przy włączonym RT, zachowywał ciągle powyżej 60fps, chyba, że odpalisz generator klatek (wtedy, umownie, będzie pokazane powyżej 60).
EDIT,
a sorry, może poza Ryzenami 7xxx x3d

post wyedytowany przez Raiden 2023-04-21 19:43:21
21.04.2023 19:20
Raiden
odpowiedz
Raiden
143

RADOSNOO
Użycie CPU nie mówi nic o tym, czy cpu radzi sobie w danej grze. Użycie gpu mówi - 95% i więcej użycia GPU oznacza (bez włączonych vsynców itd.), że CPU dobrze dokarmia kartę.
Różnice w odczytach z programów mogą też wynikać z interwałów pingowania (czyli czasów, w jakich program sprawdza dane).

20.04.2023 21:36
Raiden
odpowiedz
Raiden
143

Możliwości jest wiele.
1% low mierzony programowo, a nie sprzętowo, może być podatny choćby na działanie innego oprogramowania pingujacego (np. jeżeli w czasie pomiaru miałeś odpalone jeszcze inne oprogramowanie pomiarowe - np. do temp.)
Poza tym ten typ tak ma - Hogwart to słabo zoptymalizowany badziew. Spadek 1%low mógł być spowodowany doczytywaniem i tyle.
Do tego, pomiar to jedno, a czy ty sam odczułeś spadki? Zauważyłbyś bez oprogramowania?

Co do samych pomiarów, to świat powoli opuszcza msi na rzecz CapFrameX, który sam wylicza wariancje itd. (jest wygodniej).

Tak btw, ostatnio testowałem tam dwa procki :)

https://i.ibb.co/VDPgpQQ/obraz-2023-04-20-214411766.png

I wariancja (odchylenie następujących po sobie klatek, ukazujące, dla ilu %czasu gry były mikro przycięcia, które mogą wystąpić od 8ms i więcej, zależnie od bazowego frametime - dlatego od 8ms jest na żółto)

https://i.ibb.co/zxBXg5Q/obraz-2023-04-20-214639096.png

Ustawienia na maxa, razem z RT, rozdziałki 1080p + DLSS balance, by dociążyć cpu przy tej karcie. Max użycie karty 89% (oczywiście przy r7 5800x3d). Test robiony w wierzy obronny przed czarną magią.
Tłumacząc - przy R5 3600 przycięcia mogły wystąpić dla 3,53% czasu testu, przy R7 5800x3d mogły wystąpić dla 1,31% czasu testu. Jest olbrzymia różnica. Płynna rozgrywka, jedynie z okazjonalnym doczytywaniem to poniżej 0,1%-0,5% czasu (zależy od długości testu). Mój trwał 90sekund, więc przy r5 3600 przycięcia trwały ok. 3 sekund, a przy r7 5800x3d ok. 1 sekundy łącznie (a każde z osobna to właśnie te kilkanaście milisekund).

post wyedytowany przez Raiden 2023-04-20 22:08:53
20.04.2023 18:53
Raiden
odpowiedz
Raiden
143
Image

Ta gra tak ma - jest bardzo wymagająca dla CPU przez optymalizację oraz ogrom obliczeń na procesorze, po włączonym RT.
Możesz wyłączyć RT i sprawdzić, ale hogsmeade nie jest najgorsze i jedyne. Np. wieża obrony przed czarną magią jest gorsza dla CPU.
Nie ma to nic wspólnego z łączeniem AMD, chociaż twoja karta - AMD serii 6xxx, też jest średnia do RT >>> patrz obrazek , natomiast kwestia CPU i obliczeń, które wymsuza na nim RT, jest nieco odrębna, bo czy to karta AMD, czy karta NV, czy intela, to CPU bardzo się napracuje przy włączonym RT (taki silnik - podobnie jest w Spider Manie).

post wyedytowany przez Raiden 2023-04-20 18:55:10
03.03.2023 21:53
Raiden
Raiden
143

średnio skomponowane te zestawy.
Jak bez karty na ten moment, to:
https://www.x-kom.pl/lista/gbammghsz
Tylko tu CPU będzie słabawy pod RTX 4070ti, ale zawsze można wsadzić coś mocniejszego
Opcje mocniejszych cpu:
- https://www.x-kom.pl/p/735703-procesor-amd-ryzen-5-amd-ryzen-5-5600.html
- https://www.x-kom.pl/p/735724-procesor-amd-ryzen-7-amd-ryzen-7-5800x3d.html (chociaż tu już można by się zastanawiać nad zmiana platformy).

post wyedytowany przez Raiden 2023-03-03 22:02:49
28.02.2023 23:37
Raiden
odpowiedz
Raiden
143

Ten vero powinien sobie radzić ze sprzętem, który podałeś (i to ze sporym zapasem). Oczywiście, te starsze produkty spc miały, wybiórczo, tendencje do wahań napięcia po gwarancji, ale ja wiem - to może nie być przyczyna (upewniłbym się, że to zasialcz).
Co do zasilacz w tej kwocie (mniej więcej) i by było pod mocniejsze karty:
- Phanteks AMP 750W 80 Plus Gold;
- Endorfy Supremo FM5 750W 80+ Gold.
Przy czym Phanteks na lepszej bazie (SeaSonic).
Ze słabszych:
- Corsair RM650X 650W 80+ Gold;
- Phanteks AMP 650W 80 Plus Gold.

post wyedytowany przez Raiden 2023-02-28 23:38:29
16.02.2023 22:50
Raiden
odpowiedz
Raiden
143

Dokładnie - trening bez zakwasów, to nie trening.
Gęsty, możesz sprawdzać swój progres w stosunku do masy ciała.
Dobrze by było, żeby każdy był w stanie wycisnąć na ławce swoją masę, zrobić z pięć poprawnych podciągnięć na drążku i z 10 dipów. Do tego jakiś przysiad czy dwa.
Co do żarcia, to najciężej jest z białkiem, bo wypadałoby chociaż je, tak "na oko", liczyć, gdyż zazwyczaj dostarczamy go za mało.

14.02.2023 21:51
Raiden
Raiden
143

A co w tym niesprawiedliwego?
Gościu robi co robi, bo mu się opłaca, a zasada "czas = pieniądz" działa jak powinna.
Jak 1mln takich dzbanków w Polsce ogląda tiktoki po 3h dziennie, to 1 mln x 10 sek, daje nam 2777 godzin wyświetleń pojedynczych tiktoków, a w sumie 3mln godzin wyświetleń. Także nie dziwota, że taki inflencer zarabia po 20-200tys. miesięcznie - a są ich dziesiątki - skoro tylu ludzi poświecą im tyle czasu.
Czas to jedyne co mamy - jak oglądamy takich dzbanków, zamiast robić coś pożytecznego, to co w tym niesprawiedliwego?

post wyedytowany przez Raiden 2023-02-14 21:58:03
12.02.2023 23:07
Raiden
Raiden
143

Persecutor
Ten zasilacz Akyga nie jest na żadnych czarnych listach, a przecież spełnia wymagania NV. Tylko linia 12V ma jakoś 350W jak pamiętam. W SeaSonic ma prawie 500W... Nie ma co ludzi wprowadzać w błąd, i dla każdego chyba jasne jest, że SeaSonic S12III to lepszy zasialcz pod RTX 3060ti. Jeżeli miałbym jakiś mniej prądożerny CPU, jak autor, i dowolną kartę w wersji z jedną wtyczką 8pin (większość dostępnych modeli RTX 3060ti), to bez obaw stawiałbym to na SEASONIC S12III BRONZE 500W, i zostałby spory zapas na te twoje skoki napięcia, które występują, tylko szkoda, że nie doczytałeś kiedy i skąd się biorą. Tak samo z dowolnym RTX 3060ti, który ma limity mocy na 200W-250W.

post wyedytowany przez Raiden 2023-02-12 23:10:37
07.02.2023 22:39
Raiden
Raiden
143

Persecutor
Chyba o czymś innym piszemy.
No dobra, to inaczej... RTX 3060ti postawisz na:
a) Akyga Basic 600W
b) SEASONIC S12III BRONZE 500W?

06.02.2023 22:09
Raiden
odpowiedz
4 odpowiedzi
Raiden
143

Persecutor
Tak, jakby porządny, markowy zasilacz (dajmy na to 650w) nie mógł peakować do 750W czy 800W... a jednak mogą.
Kluczowa jest tu linia 12V. Producent karty graficznej zaleca moc całego zasilacza i:
- musi przy tym wziąć pod uwagę, że ktoś może mieć jakiś bardzo prądożerny CPU (np. i9 13900k),
- musi wziąć pod uwagę, że zasilacz nie nie ma jednej, mocnej linii 12V, tylko ma 2, 3 lub nawet 4 linie, co nie sprzyja stabilności.
Do tego RTXa 4090 można używać z 4x 8 pin, czyli 600W, przy limicie mocy na 133% z oprogramowania. Te 850W to przy 3x8pin i 100% PL czy 4x 8pin i 133% PL?

post wyedytowany przez Raiden 2023-02-06 22:09:23
06.02.2023 19:25
Raiden
odpowiedz
1 odpowiedź
Raiden
143

:) ciekawych rzeczy się tu człowiek dowiaduje
Zasilacz wystarczy :) tylko trzeba by przetestować mu (nawet programowo) linię 12V.
Co do modelu RTX 3060ti, to ważne, by był na nowych pamięciach ( GDDR6X - z "X" na końcu). Asus TUF ma świetne chłodzenie, ale jest trochę droższy (jak wejdzie do budy - trzeba sprawdzić do ilu mieści karty)
Taki dokładnie https://www.komputronik.pl/product/797158/asus-geforce-rtx-3060-ti-tuf-gaming-8gb-oc-edition.html?gclid=Cj0KCQiA54KfBhCKARIsAJzSrdptCerVZNs0f26h9g91nKGlU8DLkyzAuwlAJwVrMtHaH5X5FXwlqOkaAt5BEALw_wcB&gclsrc=aw.ds

post wyedytowany przez Raiden 2023-02-06 19:26:32
06.02.2023 10:01
Raiden
odpowiedz
1 odpowiedź
Raiden
143

Ken Follett spoko, ale chyba bardziej:
- Marek Huberath (mało psize);
- Ted Chiang (bardzo mało pisze);
- może jeszcze Dan Simmons.

No niestety, ale moi najulubieńsi już odeszli (Lem, Strugaccy, Dick).

post wyedytowany przez Raiden 2023-02-06 10:03:12
24.01.2023 22:20
Raiden
odpowiedz
Raiden
143

A zrobisz 10 dipów i 5 podciągnięć na drążku? Jak tak, to nie jesteś :)

20.01.2023 23:16
Raiden
odpowiedz
Raiden
143

mirko81
Intel dużo lepszy nie jest.
Ogólnie podstawowym problem aktualnych cpu jest dużo W na małą powierzchnię sylikonu. To jest pochodną wyścigu o każdy fps w benchach, bo w codzienny użytku tych 200mhz więcje tak nie doczujemy. A wystarczy te 200mhz mniej, co mocno pozwoliłoby obniżyć napięć itd. (a zaraz, przecież mamy wersje bez "X" w nazwie, gdzie właśnie taktowanie trochę niższe, a napięcie dużo niższe)...

Dalej to już tylko jakieś błędy projektowe, jak ten ihs (ale tu samo przeprojektowanie zupełne gniazda trochę zawiniło), czy u intela ten nieszczelny docisk.

20.01.2023 22:40
Raiden
1
odpowiedz
1 odpowiedź
Raiden
143
Wideo

Gosh...
do czego służy test OCCT AVX2? Konia z rzędem za dobrą odpowiedź...

Tak czy inaczej, i co do Ryzenów Zen 4 (AM5 - seria 7xxx), to w nich nie będzie idealnej temp, nawet pod wodą, gdyż Jakiś geniusz w AMD uznał, że nowy projekt czapki to dobry pomysł + po co podnosić gniazdo? W efekcie ihs am5 ma 4,25mm grubości (am4 miał 3mm) i to on odpowiada za złe przewodnictwo temp. z silikonu do coolerów. Chłodzenie wodne pomaga o tyle, ze ma szybszy odbiór ciepła, ale i tak, przez ten ihs, idealnych temp. nie ma. Rozwiązania są dwa - jedno zapobiega (UnderVolting), drugie leczy i jest skrajne - dla overclockerów (direct die). Ale można zostać na jakimś dobrym powietrzu, zrobić lekki UV i tyle. No jest jeszcze lapping cpu (żeby skrócić te 4,25mm. Roman (der8auer) zebrał chyba 3mm z góry.

Eco mode to o tyle dobry pomysł, że obniża napięcia oraz zegar w stosunku do Stocku, ale można lepiej.
https://youtu.be/FaOYYHNGlLs

17.01.2023 11:38
Raiden
odpowiedz
Raiden
143
Wideo

Zasilacz (MSI MPG-A850GF) z ogromną nadwyżką mocy - do RTX 4070ti, nawet przy prądożernych CPU, wystarczy 650W; do tego ma dwie linie, a do mocnych zestawów zawsze lepiej jedna (jakby przy tym RTX 4070ti i 850w, bez znaczenia, ale zawsze lepiej mieć jedną). Na plus 10 lat gwarancji. No i oczywiście jeszcze dokupić kabelek do karty

W podobnych pieniądzach będą sprawdzone jednoszynowce - SeaSonic focus 850 gx, Corsair rm850x, Fortron HYDRO G PRO 850W, które też mają 10 lat gwary. Albo nawet proponowany Thermaltake. Tak jak pisałem, 850W za dużo, ale jakbyś planował kiedyś RTX 4090 czy coś takiego, to może się przydać.

Chłodzenie CPU mogłoby być lepsze. Ja sam nie jestem zwolennikiem dwuwieżowców, a jak już, to bez frontala (np. Noctua NH-D15S CH-BK jeżeli musi być czarne i chcesz zostać na powietrzu, ale to podaje jako ciekawostkę, bo drogie). A jak bez kombinatoryki i przepłacania, to jeżeli nie planujesz renderingu na PC, tylko granie, to Endorfy Fortis 5 wystarczy.

Dysk jest ok, patrząc na pojemność/wydajność/cena (to w końcu PCI 3.0), można oczywiście dopłacić do KC 3000, tylko czy aż tak to odczujesz, nie wiem.

Co do temp. tych CPU, to w grach raczej nie ma dramatu i tak ja pisałem, Fortis 5 spokojnie da radę. Ogólnie to aMD i Intel się nie popisali z temp. tych procków. Bardzo dużo W na małą powierzchnię, do tego na AM 5 (AMD) gruby IHS, a na LGA 1700 Intela problemy z dociskiem IHS i te debilne contact framy lub podkładki (ale już warto coś robić, bo to po 10 stopni zbija...).
https://youtu.be/iYU1OskbY-Q

Ehhh, tak żeby użytkownik musiał poprawiać fabrykę. Oczywiści UV nie leczy, a zapobiega (zmniejsza W na centymetr kwadratowy), więc przy Z690/Z790 można zawsze zrobić UV i tyle. PS Na B660/B760 nie da się zrobić UV, nie tracąc na wydajności.

https://youtu.be/GKLyZQ1yuV8

post wyedytowany przez Raiden 2023-01-17 11:47:26
14.01.2023 00:14
Raiden
odpowiedz
Raiden
143

Dla współczesnych gier ulepszenia wymaga zarówno CPU, jaki i GPU, najlepiej razem.
Jak nie razem, to trochę bez znaczenia co pierwsze (wydajnościowo - drugie i tak będzie blokowało nowe podzespoły, natomiast cenowo ma trochę znaczenia).

więc do wymainy:
a) CPU + mobo + Ram;
b) GPU
ew. c) zasilacz, buda, dysk (tu pytanie, jakie masz dyski i zasilacz).
Ostatnia kwestia, to czy używki wchodzą w grę?

14.12.2022 22:32
Raiden
odpowiedz
1 odpowiedź
Raiden
143

AMD radzi sobie w VR średnio. https://babeltechreviews.com/vr-value-wars-the-hellhound-6650-xt-rx-6700-xt-vs-the-rtx-3060-3060-ti/
https://babeltechreviews.com/vr-wars-ampere-vs-big-navi-is-the-rtx-3060-ti-the-new-bang-for-buck-vr-champ/

RTX 3060 ruszy na 500W (ważne, żeby był markowy, 80 plus i najlepiej z jedną linią 12V), chyba że masz cpu z kosmosu.

Np. w HL Alyx GTX 1070ti (czyli wydajnościowo GTX 980ti) radzi sobie lepiej niż RTX 2060. https://www.pc-specs.com/news/28587/half-life-alyx-pc-performance-report-graphics-card-benchmarks

ale to nie reguła. Ogólnie RTX 3060 najlepszy z wspominanych tu kart.

post wyedytowany przez Raiden 2022-12-14 22:37:42
13.12.2022 18:37
Raiden
odpowiedz
Raiden
143

Najlepsze testy, chyba jak zawsze, na pcGH:
https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/
no i oczywiście kitguru:
https://www.kitguru.net/components/graphic-cards/dominic-moass/amd-rx-7900-xtx-review/

Ogólnie, przeglądając masę testów, z różnych stron, jest tak:

Ogólna wydajność w 4k (gdzie mamy pewność, ze CPU nie był bottlem w grach, no może poza Spider manem z RT i RTX4090), to RX 7900xtx wypada jakieś 3-4 % lepiej od RTX 4080, czyli prawie równo. Wiadomo, w grach AMDlubnych jest lepszy nawet o kilkanaście procent, w grach NV jest o tyle gorszy itd.

Wydajność w ray tracingu:
- gdy ray tracing siedzi na CPU (spider man lub Far Cry 6), to ma dalej wydajność RTX 4080;
- gdy mamy mało RT, ale już na GPU (np. tylko cienie lub odbicia - np. nowe Residenty z RT), to jest trochę jak RTX 3090ti;
- gdy mamy dużo RT (global jak w Metro czy Cyberpunku), to jest jak RTX 3080ti;
- gdy mamy full RT, to leży (chociaż takie gry na ten moment tylko z logiem NV - Quake RTX oraz Portal RTX) - w Qauke RTX był jak RTX 3070, czyli w Portalu będzie jeszcze gorzej.
Ale trendy jest widoczny - im więcej obliczeń RT, tym gorzej. Czyli jak całe RDNA

Ciekawostką jest podobno wydajność w profesjonalnych zastosowaniach, jak obróbka, bo ta miała się znacznie poprawić, ale ja dalej czekam na wyniki z puget system.
Niewiadomą jest wydajność w AI - np. Davinci i neural engine. Tu zawsze NV i rdzenie tensor miały ogromną przewagę, ale kij wie, kiedy ktoś testy zrobi.

post wyedytowany przez Raiden 2022-12-13 19:01:10
09.12.2022 19:43
Raiden
odpowiedz
Raiden
143

Jakbym dziś kupował, to 21:9 - zamienić 2 klocki na jeden, bo coraz mniej potrzebuje w domu czegoś z kolorkami.

08.12.2022 11:05
Raiden
odpowiedz
Raiden
143

Zależy od rozdzielczości i hz monitora. No i zasilacza :)
Jak do 1080p i powyżej 100hz, to RTX 3060 optymalny, RTX 3060ti będzie momentami hamowany, ale też spoko.
Jak do 1440p i więcej to ile fabryka dała.

Wiadomo, że są tytułu siadające na CPU (jak np. Spider Man reamster, w szczególności z RT, który tam wylicza priorytet promieni na CPU a nie GPU), gdzie karta nie ma znaczenia, ale tak ogólnie, to nic ponad RTX 3060ti bym nie ładował w 1080p, bo im mocniejsza karta, tym więcej ograniczenia od strony CPU będzie.

No chyba, że planujesz pograć w Portala ray tracig, wtedy trzeba podnieść budżet i nawet do 1080p wybrać RTX 4090. Ale jakieś szersze wykorzystanie RT na ten moment hamowane przez konsole, więc nie będzie też tak, że nagle każda gra zacznie kłaść taki nacisk na GPU, jak Portal (to napisałem w kontekście ew. wyboru mocniejszej karty, patrząc przyszłościowo).

post wyedytowany przez Raiden 2022-12-08 11:11:07
07.12.2022 07:30
Raiden
Raiden
143
Image

jasonxxx
Wydajnościowo jest wszystko ok, - zero błędów, brak przekraczania limitów termalnych itd.
Lekkim problemem jest to napięcie, niby w normie, ale blisko limitów (odchylenie 5% to zazwyczaj limit). Także PSU zalecana zmiana. Może nic pilnego, ale warto przemyśleć.
Tu masz dla porównania moje napięcia (zaktualizowałem OCCT). Najważniejsza tu linia12V, bo przez nią leci najwięcej. Im większy odchył tym gorzej (bo albo bardziej obciążamy sprzęt, gdy spada napięcie lub bardziej go narażamy gdy rośnie.

07.12.2022 00:10
Raiden
odpowiedz
4 odpowiedzi
Raiden
143

Test z 3d mark wygląda poprawnie i jeżeli jest powtarzalny, to wszystko jest ok.
W OCCT chodziło o test "Power" a nie "CPU".

06.12.2022 21:03
Raiden
odpowiedz
Raiden
143
Image

Tu przykład mojego PC - jak wyglądają zdrowe napięcia w teście -->>

06.12.2022 20:24
Raiden
Raiden
143

jasonxxx
Karta przy rozruchu wykonuje power check, pobierając 100% mocy. Jeżeli go nie przejdzie, nie ma rozruchu - błąd.
Tak się dzieje, gdy coś źle podepniemy lub damy np. 2x8pin zamiast wymaganych 3.

U ciebie sprawa o tyle dziwna bo karta zgłasza, że jest w stanie brać max mocy.
1. że przechodzi boota;
2. że w screenach z hw info karta raportowała, że bierze odpowiednia ilość mocy dla 100% PL i dla 120% PL też.

Także karta myśli, że ma dość mocy. Możesz jeszcze sprawdzić, jaki jest średni W podczas testu (np. te 10min w occt power). Tylko pamiętaj, zresetować pomiary, klikając na zegar w hwinfo, na początku testu. Jeżeli podczas testu pobór jest stabilny, to ok.

post wyedytowany przez Raiden 2022-12-06 20:25:41
06.12.2022 15:38
Raiden
Raiden
143

jasonxxx
87-90% bez względu na ustawienia w grach i power limit karty?
To by oznaczało, że coś dalej jest nie tak. Nie patrzyłbym na wyniki pod W11.
A jak to się ma do wyników podobnych konfigów? Testowałeś w jakimś geekbenchu, 3d marku (nie w furmarku - bo nie wiem czy może, ale może tam wchodzi, po prostu, LHR z jakiegoś powodu)?
Kolejna sprawa, to nadal naciskałbym na ten test PSU - OCCT test power (i screen z karty oraz cpu, z hwinfo roaz samego OCCT - napięcia).

post wyedytowany przez Raiden 2022-12-06 15:38:58
06.12.2022 13:58
Raiden
odpowiedz
3 odpowiedzi
Raiden
143

jasonxxx
Dalej się dzieję? Nawet na W10?
Widziałem, że pisałeś o gpu na 80-90%, tylko to w furmarku, czy jakieś grze?
Reset biosu do zera (przycisk/zworka/wyciągniecie baterii), update biosu do najnowszego wykonane?

06.12.2022 08:55
Raiden
odpowiedz
Raiden
143

Popieram ODIN85 .
Nowy NFS tak ma, zresztą jak i poprzednie (miały swoje bolączki z CPU). Z Intelami tak samo.
Jak chcesz, to na teraz można lekko podbić timming/taktowanie ramu, co nieco dokarmi GPU.

06.12.2022 01:23
Raiden
odpowiedz
1 odpowiedź
Raiden
143

jasonxxx
Tak na dwoje babka wróżyła.
Z jednej strony zasilacz, który powinien wystarczyć z zapasem, ale program daje info o napięciu bliskim przekroczenia normy, które bardziej by go dociążało (no właśnie - mierzenie programowe, a nie rzeczywiste, ale jakieś wskazanie to jest).

Z drugiej strony brak jakieś spójności tych wyników, i nowy, niestabilny system z problemami.

Windows 10 i testy dadzą odpowiedź. Chyba, że ten RTX 3060ti miał tak na W10?

06.12.2022 01:04
Raiden
Raiden
143

jasonxxx
Nie wyciągałbym aż takich wniosków, bo wg wskazań hwinfo przy limicie 100% karta brała 290w, a przy 120% brała 350W.
To, raczej dalej szłoby w Windowsa. Natomiast fajnie byłoby puścić ten test power z OCCT, który dociąży wszystko, a nie samo GPU.

post wyedytowany przez Raiden 2022-12-06 01:05:13
06.12.2022 00:53
Raiden
Raiden
143
Image

Tak, przede wszystkim 10, pierw na limitach 100%, jak będzie git możesz na 120% się pobawić, ale raczej trzymałbym się 100%. RTX 3070ti jest i tak już wyżyłowany.
Natomiast przed wymianą złożenie zestawu "na nowo". Nawet gdy już sprawdzałeś. I ew, sprawdzenie, czy kable nie zaginają się za bardzo (chociaż to już lekkie szukanie)

post wyedytowany przez Raiden 2022-12-06 00:57:03
06.12.2022 00:48
Raiden
Raiden
143

No to, to by wskazywało na Windowsa - tak jak piszą niżej.
Jak masz opcję wrócić do 10 i tam zobaczyć, to czemu nie. Też słyszałem, że 11 ma problemy, ale o takich nie :) To byłoby ciekawe

06.12.2022 00:39
Raiden
Raiden
143

Ok, na tym co powyżej, karta pracuje ok, natomiast PSU dostaje trochę po tyłku.
11,6V niby dalej w normie, ale dla 300W oznacza więcej natężenia (A ; 300=11,6*A), więc cięższą pracę dla PSU.

Jak możesz rzucić jeszcze screen z hwinfo GPU podczas pracy w OCCT power test (żeby zobaczyć jak GPU pracuje przy obciążonym równocześnie CPU - ile dostaje mocy itd.).
Co do power limitów windows - panel sterowania - opcje zasilania i tam patrzysz, czy jest wysoka wydajność.

Na ten moment wygląda na to, że zasilacz dostaje po tyłku i się grzeje. Nie wiem jak go masz zamontowanego w budzie.
Możesz, po prostu, z GPU tweak uruchomić tryb "silent mode" i zobaczyć, czy to rozwiązało problem (oczywiście wydajność gpu troszkę spadnie, ale będziesz wiedział). Inna opcja to UV karty przez MSI aftera. Jak sprawdzisz i będziesz miał pewność (że to zasilacz, a nie windows), wtedy wymianka.

post wyedytowany przez Raiden 2022-12-06 00:42:07
06.12.2022 00:13
Raiden
Raiden
143

Z tego co widziałem, dałeś w teście limit karty na 120% - wróć do 100%. Fajnei byłoby też zobaczyć te zakładki z hwinfo w zakładce gpu ("pobór mocy linii GPU" i tej wyżej - napięcia GPU)
Teraz proponowałbym mu dać trochę przerwy od testów i:

Po pierwsze sprawdź podłączenie kabli do zasialcza:
- zgodnie z instrukcją, VGA ma być podpięta dwoma kablami, do 2 eplugów, znajdujących się w jednym wierszu, a trzeci eplug tego wiersza zostaje wolny.
https://www.silentiumpc.com/wp-content/uploads/2021/02/spc268-spc-vero-m3-600-manual-www.pdf
Po drugie sprawdź wszystkie kable, czy dobrze podpięte itd..
Po trzecie stany energetyczne windows i zakładki dotyczące pamięci i działań w tle.
Po czwarte sprawdź, czy wentylator PSU kręci.

Jeżeli po tym wszystkim nic nie zmienisz, a wróci do normy, to raczej zasilacz. Później możesz wrzucić dla porównania screen zakładki gpu z testu w occt i furmarku z tym zakładkami napięć

post wyedytowany przez Raiden 2022-12-06 00:14:27
05.12.2022 23:53
Raiden
Raiden
143

jasonxxx
No i coś się wyjaśniło.
GPU używane jest na 30% wydajności.
Screen zrobiony podczas testu w OCCT?
Możesz dorzucić jeszcze screena podczas testu w furmakru - samej zakładki GPU.
A i prośba o rozwiniecie zakładki "pobór mocy linii GPU" i tej wyżej - napięcia GPU.

post wyedytowany przez Raiden 2022-12-05 23:55:55
05.12.2022 23:38
Raiden
Raiden
143

W HW info możesz pochować wszystko poza zakładkami CPU (zaczyna się na temp CPU, a kończy na średniej liczbie aktywnych rdzeni), płyty (zaczyna się na temp płyty głównej, a kończy na wentylatorach) oraz GPU. Po testach, szukaj czerwonych wartości :)
Dlatego dalej sądzę, ze test power z OCCT byłby najlepszy.

post wyedytowany przez Raiden 2022-12-05 23:41:49