V tom článku není nic nového co bychom nevěděli a to, že jak Intel, tak AMD napíše na papíře pro výkonné modely jiné TDP než reálně mají, to mě je mě vcelku putna. Nemám problém s tím, že R7 3700X si řekne o 88W v zátěži všech 8 cores a tudíž by měl být v boostu označen TDP 95W.
Nesplasklo vůbec nic. Všechno to už dávno bylo zmíněno v zahraničních recenzích.
BTW i s posledním AGESA 1.0.0.3 se stock chlazením dosahuji na single core 4367 Mhz v boostu. Je mi jasné že s lepším chlazením bych udělal těch papírových 4400 Mhz ale to mě za těch dalších 1500Kč za Noctuu nebo něco podobného opravdu nestojí.
To byla provokace, i když ... jede-li AMD v červenejch číslech na originál větráku, kterej údajně stačí, tak jsme zvědavej, o kolik výkony přijde CPU, až se trochu zapráší. Možná těch 1500 budeš muset za půl roku vysolit a pokud jede CPU zbytečně na vysoký voltáži, tak budeš ještě, že je vysolíš, aby ti CPU neumřelo a nebo se zbytečně s originál větrákem nezpomalovalo.
A jaké z toho plyne ponaučení? Od AMD nekupujte novinky a od Intelu nekupujte staré procesory.
Co to jsou červená čísla? V single core AMD stock chladič, v mém případě Wraith Prism with RGB LED uchladí do 60 stupňů celcia. Teprve v multicore (rozuměj: v Cinebench R20 při renderingu na všech 8 cores) zátěži stoupá teplota k 70 stupňů celcia. Ve hrách které jsem testoval se CPU spíše fláká a to včetně DCS World, daleko více mě limituje GPU.
Ten článek berte s velkou rezervou. Nevšiml jsem si, že OBR je engineer z AMD nebo tak něco.
Upravil/a Rapier dne 31-08-2019 11:14
4367 Mhz - 33 Mhz schází, to je sumá sumárum výkon 33 ks comodore C64! A to už je nějaká hromada C64ek ..
bych amd zažaloval ať je pošlou i s kazeťákama a vykompenzují škodu ..
btw když jsem se rozhodoval zda koupit 3700X nebo i9, tak mě zarazilo když jsem sledoval overclockery který u 3600X dali max 4.2 Ghz a na krabici bylo že max 4.4.
To mě dost odradilo ..
Upravil/a magot dne 31-08-2019 12:03
Jako nechci Vám brát iluze o Intelu ale můj domácí Intel Core i5-2400 Sandy Bridge přetaktovaný z 3,1 Ghz na 3,6 Ghz all 4 cores nebo chcete-li, z 3,4 Ghz na 3,8 Ghz na 1 core není schopen ani s kvalitním chlazením (ARCTIC Freezer 7 Pro Rev.2 - teploty nejdou přes 60 stupňů celsia ani ve vedrech) udržet v boostu dlouhodobě 3,8 Ghz a popravdě řečeno jedno jádro jede spíše na 3,7 Ghz (tzn. o 100 Mhz méně). Měl bych to reklamovat? Co myslíte? To je tak aby jste si naivně nemysleli že to je jen u AMD.
Nicméně, i tak mě překvapilo (mile), že v CPU-Z včerejším testu jsem dosáhl na single core výkonu 370b https://valid.x86... což je jen o 3 body méně než má AMD Ryzen 1600! To mě vyrazilo trochu dech. AMD udělalo s Ryzen 3000 obrovský skok, když si vezmu kde byli před 2-2,5 lety.
Ten článek berte s velkou rezervou. Nevšiml jsem si, že OBR je engineer z AMD nebo tak něco.
Ten týpek je skalním fandou Intelu a na AMD hází špínu kdy jenom může. O objektivitě v jeho případě nemůže být řeč.
Nezbývá než mu pogratulovat k objevení hodnoty PPT u AMD procesorů. Teď ještě aby pochopil jak to funguje, jak AMD a Intel nastavují TDP u svých CPU a může plodit další lži.
Kontrolní otázka, bude mít např. i9-9900K v maximální zátěži Intelem uváděné TDP?
A IBM už má druhou generaci procesorů na bázi grafenu ..
I - 26 Ghz
II - 100 Ghz
Bohužel ne pro veřejnost ..
V rámci kvantových strojů mají k dispozici 50 qbit
24 qbit komerčně
V MIT zbastlili cosi s carbon nanotubes news.mit.edu/2019...essor-0828
Údajně by to mělo jít našroubovat na x86 architekturu
Upravil/a magot dne 01-09-2019 22:49
Tak jsem otestoval na "novém HW" (rozuměj: přetaktovaný Intel Core i5-2400@3,6Ghz, 16GB RAM DDR3 1600 Mhz CL9, GTX 760 2GB, HDD 7200 ot/m SATA II) DCS World v poslední verzi 2.5.x.
Když jsem před nějakou dobou řešil problém s HW rovnicí (rozuměj: přetaktovaný Intel Core i5-2400@3,6Ghz, 12GB RAM DDR3 1600 Mhz CL9, a moderní Pascal GPU GTX 1060 6GB, SSHD 7200/ot min SATA III), tak dle testů byl jednoznačně bottleneck na straně CPU.
Výkonná GPU, bez ohledu na rozlišení, tzn. Full HD nebo 1440p byla konfrontována s příliš slabým CPU (slabým především na moderní letecké simulátory). Projevovalo se to brutálními FPS dropy, které nakonec vyřešila koupě SSD disku Crucial MX500 500GB.
FPS dropy zmizely, protože přístup k disku byl v porovnání s SSHD ultra rychlý ale přesto všechno, FPS dokázaly jít klidně i pod 20 (je hezké že průměrné FPS byly okolo 45-55 v 1440p, minima jsou to co letce trápí, když se totiž akce ve vzduchu skoro zastaví není to zrovna příjemné) ve velmi náročných misích s mnoha AI objekty v pohybu na mapě (v terminologii výrobce tzv. heavy mission).
MSI Afterburner až příliš často v náročných scénách ukazoval vytížení CPU na 90-100% po relativně dlouhou dobu. Pro představu, vytížení CPU na 100% trvalo i několik minut.
O to více mě překvapilo, že v testu jsem na starším HW netrpěl FPS dropy (až na čestné výjimky), přestože mapa (preload radius 60 km) se načítala z obyčejného HDD, navíc jen SATA II (300MB/sec) HDD, a to vše ve Full HD rozlišení na High Detailech (tak jak je hra sama navolí, nic jsem neupravoval).
S vypnutými zpětnými zrcátky FPS mezi 40-50, minima někde okolo 30, překvapivě to s výrazně starší a pomalejší GPU (Kepper) bylo hratelnější než se silnějším Pascalem.
Proč? Protože bottleneck byl na straně GPU, nikoliv na straně CPU.
MSI Afterburner ukazoval permanentně 99% zátěž GPU + power limit, občas i temperature limit GPU ale nikdy CPU v misi nešlo k 80+% vytížení. Obvykle se vytížení CPU pohybovalo mezi 40-65%.
Co mě lehce šokovalo bylo využití RAM. Věděl jsem že DCS World potřebuje hodně RAM. Bez SSD disku, dlouho, předlouho trvalo než se celá mise s mapou načetla do RAM a když se tak stalo, RAM se zastavila na ukazateli 13,5 GB!
Ta mise byla první v pořadí free flight s SU-25T (testoval jsem jen volně stažitelné DCS World 2.5 ze stránek výrobce bez placených modulů) kde ve vzduchu bylo asi tak odhadem do 10 letadel max. + poměrně dost techniky na zemi, a pochopitelně mnoho statických objektů na mapě.
Aby toho nebylo málo, překvapilo mě také jak moc je GTX 760 výkonná na to jak je stará, dostal jsem darem Zotac s referenčním chlazením.
Battlefield 4 kampaň ve Full HD na ultra detaily mezi 40-50 fps.
Dirt Rally ve Full HD na ultra detaily minima nešly pod 60.
Arma II opět ve Full HD na nejvyšší detaily a dohlednost 3,6 km okolo 45-55 fps.
Teď už chápu proč GTX 760 2GB stačí stále i na dnešní hry, a proč se za 1+ tis prodává na marketplace.
Každopádně aby to nezapadlo. Min. u leteckých simulátorů je lepší mít bottleneck vždy na straně GPU, nikoliv na straně CPU. Z toho tedy plyne, že se vyplatí upgrade CPU před GPU.
A málem bych zapomněl. Úplně stejný problém jako v DCS World jsem měl i s Falcon BMS 4.34 z tohoto roku. Na startu v dynamické kampani v Soulu šly FPS ke 30 s GTX 1060 6GB! Bez ohledu na výkonnou GPU, bez ohledu na Full HD nebo 1440p rozlišení.
Když jsem Falcona testoval na té nové sestavě s GTX 760 2GB ve Full HD, tak FPS v kampani na startu od 35-40, ihned po vzletu okolo 45-55!
Co myslíte? Na jaký nejhorší CPU má smysl přejít z i5 3570K 4.4 GHz?
i7 na vyšších taktech. Alternativně nějaké to nové AMD počínaje asi tak RYZEN 3600.
No reálně je to tak, že to nikdo neví. Páčto lítací HW jsi tuhle prodával, takže se vlastně netuší, na co to chceš používat. Pokud v tom sjíždíš internet a pouštíš filmy a edituješ dopisy ve Wordu, pak nemá smysl vůbec přemýšlet o všech těch písmenkách a číslíčkách.
Pokud to chceš na mastění gamesek, pak co jsem psal.
Pokud v tom budeš počítat budoucnost světa či editovat videa, pak nějaký to vícejádro na steroidech.
Já se nerad vypisuju. Myslel jsem s ohledem na simy. K ostatním aplikacím se testy dají snadno dohledat. Přemýšlel jsem, že seženu nějakou i7 7700K. Ty AMD mě moc nelákaji. Ale i tak si myslím, že posun bude minimální.
Video si občas sestříhám. Na to mi můj CPU stačí. Hry hraju jen předpotopní. Ty nové mě neoslovují
IL-2 Sturmovik™, Cliffs of Dover™, Pacific Fighters™ are trademarks or registered trademarks of 1C EUROPE, 1C-Multimedia, 1C ONLINE GAMES.
Other marks used herein are those of their respective owners.