Te usporedbe glasnoće vrijede jedino za grafičke unutar istog testa.
Na ovom forumu napises notornu cinjenicu pa dobijes TD-ove od raznih "eksperata"
Jbg, znaš kako je. Već sam se navikao
Te usporedbe glasnoće vrijede jedino za grafičke unutar istog testa.
Na ovom forumu napises notornu cinjenicu pa dobijes TD-ove od raznih "eksperata"
Jbg, znaš kako je. Već sam se navikao
Pa tim rijecima onda si trebo otici na teslu ako hoces full potencijal cuda-e i computinga. Nije bas da je izmedju vege i 1080(ti) tolika razlika u vremenu rendanja znaci ciste performance..ako je problem sto ce vega uzeti jedno 100-tinjak W vise onda je to druga prica opet. A navi je vjerojatno jos nesto sa driverima jel obje kartice dobiju rtx u duzim a izgube u kracim workload-ima.
U mainstreamu nakraju AMD opet i tu uzima titulu bang for buck.
Pa tim rijecima onda si trebo otici na teslu ako hoces full potencijal cuda-e i computinga. Nije bas da je izmedju vege i 1080(ti) tolika razlika u vremenu rendanja znaci ciste performance..ako je problem sto ce vega uzeti jedno 100-tinjak W vise onda je to druga prica opet. A navi je vjerojatno jos nesto sa driverima jel obje kartice dobiju rtx u duzim a izgube u kracim workload-ima.
U mainstreamu nakraju AMD opet i tu uzima titulu bang for buck.
Sinko ostavi me se, nemas pojma, al ono brutalno nemas pojma. Ne zanimaju me tvoji komentari...
Pa tim rijecima onda si trebo otici na teslu ako hoces full potencijal cuda-e i computinga. Nije bas da je izmedju vege i 1080(ti) tolika razlika u vremenu rendanja znaci ciste performance..ako je problem sto ce vega uzeti jedno 100-tinjak W vise onda je to druga prica opet. A navi je vjerojatno jos nesto sa driverima jel obje kartice dobiju rtx u duzim a izgube u kracim workload-ima.
U mainstreamu nakraju AMD opet i tu uzima titulu bang for buck.
Sinko ostavi me se, nemas pojma, al ono brutalno nemas pojma. Ne zanimaju me tvoji komentari...
Pa lupi ignore na mene ko da ce ti prst otpasti? Nisam ja taj koji je nadrkani forumas pa su ti neki njuferi,neki psihici a neki klinci opet...ako vec tako djelis pravdu i imenujes nerazumijem sta nenapravis nesto za onu ryzen offtopic temu...naveo sam cinjenicu i to jeto, brojevi kazu svoje.
I ajd, nebudem te vise citirao ni nista, ti pisi kaj os ubuduce o meni/mojim postovima-nebudems se obazirao.
Ponašate se ko djeca...
Na ovom forumu napises notornu cinjenicu pa dobijes TD-ove od raznih "eksperata"
A imaš 12 godina pa ti je to jako bitno? Pališ se na te stvari kao instagram mulci, daj odrasti.
Pokazat ću razliku u hlađenju između dviju grafičkih kartica sa različitim die size-om (232 mm2 - RX580, 486 mm2 - RXVEGA64) sa istim hladnjakom (TRUE). RX 580 sam uklonio power limit pa na +100 mV troši oko 360 W u furmarku. RX Vega troši maksimalnih 480 W u furmarku. Iako RX Vega u ovom testu troši oko 120 W više od RX 580 lakše ju je hladiti. Pokazana je temperatura tijela TRUE-a na RX580 i na RX Vegi. Ako se oduzme temperatura grafičke od temperature tijela TRUE-a dobiju se slijedeće delte; RX 580 (69-47=22), RX Vega (63-52=11). Veća delta upućuje na težu odvodnju. Osim teže odvodnje topline, još je jedan nedostatak malog die size-a. Teže je namjestiti da baza hladnjaka sjedne kako treba na nj.
ZNaci ove godine nista vise od neke high end grafe od amd-a da napadne tamo onu 2080(TI) serije- mrtvaca vii nema smisla tu brojati bas.
Ocito se i Lisa su zadivila carolijama RT-a da je odlucila svoju verziju iste tehnologije staviti vec na sljedecim karticama vjv koje izlaze proljece/ljeto 2020 godine.
http://www.redgamingtech.com/navi-20-series-is-known-internally-as-the-nvidia-killer-exclusive/
http://www.redgamingtech.com/amd-arcturus-navi-12-14-support-appears-in-linux/
ZNaci ove godine nista vise od neke high end grafe od amd-a da napadne tamo onu 2080(TI) serije- mrtvaca vii nema smisla tu brojati bas.
Ocito se i Lisa su zadivila carolijama RT-a da je odlucila svoju verziju iste tehnologije staviti vec na sljedecim karticama vjv koje izlaze proljece/ljeto 2020 godine.
http://www.redgamingtech.com/navi-20-series-is-known-internally-as-the-nvidia-killer-exclusive/
http://www.redgamingtech.com/amd-arcturus-navi-12-14-support-appears-in-linux/
Da su to uradili do kraja 3. mjeseca kada izlazi Cyberpunk onda bi imalo neko značenje... Ovako Nvidia samo masti brk u iščekivanju vojske novih kupaca koji će RTXice pokupovat samo radi te igre...
Da su to uradili do kraja 3. mjeseca kada izlazi Cyberpunk, onda bi imalo neko značenje... Ovako Nvidia samo masti brk u iščekivanju vojske novih kupaca koji će RTXice pokupovat samo radi te igre...
Slazem se...ako pogledas metro stari naspram ovoga vidjeces da su teksture doslovne iste-tamo jos od ES skyrima teksture se vise nepeglaju toliko kao sijene i osvijetljenje-koje nosi ocio najbitniju ulogu u imerziji/amtosferi i dozivljaju grafike i same igre.#
Igra je vec sada prije mj dana predbiljezena-ceka se samo izlazak- al vjv ce mi trebati novi hardwer sa high plus 60 barem.
ZNaci ove godine nista vise od neke high end grafe od amd-a da napadne tamo onu 2080(TI) serije- mrtvaca vii nema smisla tu brojati bas.
Ocito se i Lisa su zadivila carolijama RT-a da je odlucila svoju verziju iste tehnologije staviti vec na sljedecim karticama vjv koje izlaze proljece/ljeto 2020 godine.
http://www.redgamingtech.com/navi-20-series-is-known-internally-as-the-nvidia-killer-exclusive/
http://www.redgamingtech.com/amd-arcturus-navi-12-14-support-appears-in-linux/
Da su to uradili do kraja 3. mjeseca kada izlazi Cyberpunk onda bi imalo neko značenje... Ovako Nvidia samo masti brk u iščekivanju vojske novih kupaca koji će RTXice pokupovat samo radi te igre...
Bit ce prekrasno odigrati cyberpunk za 2,3 godine kad srede ray tracing da ne uzima toliko fpsa, kad vise kartica bude moglo vrtit 4k bez problema, i kad hdr1000 monitori postanu standard. Danas da bi upalio igru na 4k sa hdr1000 monitorom i ray tracingom treba samo 3000 eura za 2 2080ti i jos 2000 eura za onaj asusov monitor kojima i 4k i 144hz i ips panel i hdr 1000.
Bit ce prekrasno odigrati cyberpunk za 2,3 godine kad srede ray tracing da ne uzima toliko fpsa, kad vise kartica bude moglo vrtit 4k bez problema, i kad hdr1000 monitori postanu standard. Danas da bi upalio igru na 4k sa hdr1000 monitorom i ray tracingom treba samo 3000 eura za 2 2080ti i jos 2000 eura za onaj asusov monitor kojima i 4k i 144hz i ips panel i hdr 1000.
Ali mozda nece za AMD-ove korisnike-ako stvarno stavi Lisa sljedece godine taj hybrid RT na navi kartice-vjerojatno ce biti optimiziraniji jel je na sustavu hardwer/softwer nego ovako preko samoRT jezgri trenutno to racunanje dinamickog osvjetljenja..
Princip je zasigurno vec tu na bazi samog engine-a crytek je to pokazao i rendao sa vegom 56 cak..Puno ih je i mislilo da navi nece biti 4K kartica-pa opet iza sebe ustavila 2070super cak...Dok je LIsa u AMD-u cuda ce se pojavljivati heh.
Jel mladi danas koriste izraz "ostaviti iza sebe" onda kad si malo sporiji od neceg? Bas nisam u toku...
Kad cujem "Hybrid RT" odma me podsjeti na Nvidijino hibridno rjesenje Async computinga, di pomocu tog "softwarea trika" prebaciva workload na CPU čim ukljucis isti... Svi znamo kako to funkcionira, a isto će biti I sa AMD "Hybrid RT".... Čim njima treba "hibrid" znaci da fizicki ne mogu na die natovarit dodatne jezgre koje bi radile samo isključivo RT obradu, što i nije tako "far fetched" kad pogledaš potrošnju Navi kartica...
Da su to uradili do kraja 3. mjeseca kada izlazi Cyberpunk, onda bi imalo neko značenje... Ovako Nvidia samo masti brk u iščekivanju vojske novih kupaca koji će RTXice pokupovat samo radi te igre...
Slazem se...ako pogledas metro stari naspram ovoga vidjeces da su teksture doslovne iste-tamo jos od ES skyrima teksture se vise nepeglaju toliko kao sijene i osvijetljenje-koje nosi ocio najbitniju ulogu u imerziji/amtosferi i dozivljaju grafike i same igre.#
Igra je vec sada prije mj dana predbiljezena-ceka se samo izlazak- al vjv ce mi trebati novi hardwer sa high plus 60 barem.
nista cudno kad igre koriste dx11 sto po tom pitanju ni nemoze donijeti nista novoga
a nvidia nema pojma kako preci na dx12 ,tud negovorim o cpu cuda filterima
tako da ni nemoze biti nekakvog pomaka ,vec samo se gomilaju texture ..od 2-3gb do dansnjih 10tak
zato sljedece god smart shderi dolaze na sve konzole i to ce uvesti drasticnu razliku
i nevjerujem da ce nvidija ista profitirati sa cpu filterima i fpga filterima ako je ispod dx10/11 textura
ako kao i dosad plate dx11 mod za svoje kartice
Kad cujem "Hybrid RT" odma me podsjeti na Nvidijino hibridno rjesenje Async computinga, di pomocu tog "softwarea trika" prebaciva workload na CPU čim ukljucis isti... Svi znamo kako to funkcionira, a isto će biti I sa AMD "Hybrid RT".... Čim njima treba "hibrid" znaci da fizicki ne mogu na die natovarit dodatne jezgre koje bi radile samo isključivo RT obradu, što i nije tako "far fetched" kad pogledaš potrošnju Navi kartica...
amd ima gpgpu snagu gledao sam testove rendanja na vegi vs quadro sa 1080 chipom ,,vega ju perjala i do 50% brze
a navi je jos brzi
tako da se moze rays piciti na gpgpu cak i na fiuji gpu ..doduse brzine kao na 2060 tj neigrivo
zato sa smart shaderima i vrs-om novi navi bude letio
a nvidija ako nepronadje nacina da napravi dx12 gpu bud jos vise zaostajala
jedino kako sam citao budu ubacili jos vise 8bit fpga i neke vece/cudne 16bit fpga
sto su ih razvijali za ai .pa ih tuzba zakocila ko zna
mozda budu prebacili cudu na fpga na sljedecoj gen
ali cisto sumnjam da ce sljedeci gen biti brz i stedljiv
Da su to uradili do kraja 3. mjeseca kada izlazi Cyberpunk, onda bi imalo neko značenje... Ovako Nvidia samo masti brk u iščekivanju vojske novih kupaca koji će RTXice pokupovat samo radi te igre...
Slazem se...ako pogledas metro stari naspram ovoga vidjeces da su teksture doslovne iste-tamo jos od ES skyrima teksture se vise nepeglaju toliko kao sijene i osvijetljenje-koje nosi ocio najbitniju ulogu u imerziji/amtosferi i dozivljaju grafike i same igre.#
Igra je vec sada prije mj dana predbiljezena-ceka se samo izlazak- al vjv ce mi trebati novi hardwer sa high plus 60 barem.
nista cudno kad igre koriste dx11 sto po tom pitanju ni nemoze donijeti nista novoga
a nvidia nema pojma kako preci na dx12 ,tud negovorim o cpu cuda filterima
tako da ni nemoze biti nekakvog pomaka ,vec samo se gomilaju texture ..od 2-3gb do dansnjih 10tak
zato sljedece god smart shderi dolaze na sve konzole i to ce uvesti drasticnu razliku
i nevjerujem da ce nvidija ista profitirati sa cpu filterima i fpga filterima ako je ispod dx10/11 textura
ako kao i dosad plate dx11 mod za svoje kartice
Nema ti to veze sa Nvidijom nego postoječim konzolama koje diktiraju gaming i za koje se prilagođava engin i kompletna fizika. Sa novim konzolama dobiti će mo nekaj "novo". Isto je bilo i sa svakom prethodnom generacijom.
Zadnji puta smo na PC-u dobili nešto novo izlaskom Crysisa prije 12 godina.
Nema ti to veze sa Nvidijom nego postoječim konzolama koje diktiraju gaming i za koje se prilagođava engin i kompletna fizika. Sa novim konzolama dobiti će mo nekaj "novo". Isto je bilo i sa svakom prethodnom generacijom.
Zadnji puta smo na PC-u dobili nešto novo izlaskom Crysisa prije 12 godina.
Ovo ti je toliko kontradiktorno jedno drugome za ukenjati se... Kažeš da sa svakom prethodnom generacijom konzola si dobio nešto novo, a zatim u sljedečoj rečenici da je zadnja novost na PC-u bio Crysis... Napomena, Crysis je izašao 2007. godine, a PS4 i Xbox 2013. godine...
Ovoga gore koji brka API (Software(cijelina)) sa dodatnim "opcionalnim" fičerima("Async (koje dev može, a i ne mora ubaciti u svoj DX12 engine)) u API-u ne želim više ni komentirat... Po njemu Nvidia je trebala propasti 2015. godine kad je DX12 API ugledao svijetlo dana, a iste te ( zbrojive na prste jedne ruke) "pure" DX12 igre rade nekom čudnom magijom na Nvidia grafuljama...
Ni ne smunjam da će naredne generacije AMD-a i Nvidije mnogo bolje radit na RT-u, ali CyberPunk izlazi u trečem mjesecu i uz toliki Hype i podršku za RTX, sasvim sigurno će Nvidia svoje RTXice prodavat (to je jedino što se računa) ko vruče kifle, nisu bezveze zakeljili svoj logo na tu igru...
Nema ti to veze sa Nvidijom nego postoječim konzolama koje diktiraju gaming i za koje se prilagođava engin i kompletna fizika. Sa novim konzolama dobiti će mo nekaj "novo". Isto je bilo i sa svakom prethodnom generacijom.
Zadnji puta smo na PC-u dobili nešto novo izlaskom Crysisa prije 12 godina.
Ovo ti je toliko kontradiktorno jedno drugome za ukenjati se... Kažeš da sa svakom prethodnom generacijom konzola si dobio nešto novo, a zatim u sljedečoj rečenici da je zadnja novost na PC-u bio Crysis... Napomena, Crysis je izašao 2007. godine, a PS4 i Xbox 2013. godine...
Novo je pod navodnicima....ovisnio kakav je CPU u konzoli, takve se igre projektiraju. Npr. GTA IV ima bolju fiziku opd GTA V na bilo kojoj platformi jer je u PS3 bi za to vrijme napredni CPU dok je u PS4 loš Jaguar. Ni jedna igra na PC-u ne odskače fizikom u odnosu na konzolašku, u stvari i dalje je
Crysis iz 2007. po pitanju fizike napredniji od današnjih igara. Znači nema to veze sa nvidijom, developeri se prilagođavaju snazi konzola, ima par iznimaka poput PUBG koji je uspjehom iznenadio i sam tvorce, ali to nije AAA viskobudžetni naslov. Sad kad izlazi konzola sa odličnim procesorom kroz 3-4 ili voše
godina možemo očekivati igre koje će biti stvarni napredak, ne samo pumpanje večih tekstura i sl.
Nema ti to veze sa Nvidijom nego postoječim konzolama koje diktiraju gaming i za koje se prilagođava engin i kompletna fizika. Sa novim konzolama dobiti će mo nekaj "novo". Isto je bilo i sa svakom prethodnom generacijom.
Zadnji puta smo na PC-u dobili nešto novo izlaskom Crysisa prije 12 godina.
Ovo ti je toliko kontradiktorno jedno drugome za ukenjati se... Kažeš da sa svakom prethodnom generacijom konzola si dobio nešto novo, a zatim u sljedečoj rečenici da je zadnja novost na PC-u bio Crysis... Napomena, Crysis je izašao 2007. godine, a PS4 i Xbox 2013. godine...
Novo je pod navodnicima....ovisnio kakav je CPU u konzoli, takve se igre projektiraju. Npr. GTA IV ima bolju fiziku opd GTA V na bilo kojoj platformi jer je u PS3 bi za to vrijme napredni CPU dok je u PS4 loš Jaguar. Ni jedna igra na PC-u ne odskače fizikom u odnosu na konzolašku, u stvari i dalje je
Crysis iz 2007. po pitanju fizike napredniji od današnjih igara. Znači nema to veze sa nvidijom, developeri se prilagođavaju snazi konzola, ima par iznimaka poput PUBG koji je uspjehom iznenadio i sam tvorce, ali to nije AAA viskobudžetni naslov. Sad kad izlazi konzola sa odličnim procesorom kroz 3-4 ili voše
godina možemo očekivati igre koje će biti stvarni napredak, ne samo pumpanje večih tekstura i sl.
Opet pišeš svašta, PS4 ima dosta jači proc nego PS3, pa nisu ludi da bi išli stavljati lošiji lol
The PS3 Cell was a combination of a normal cpu core PPE and 7 fast SPE's processors meant to normally do gpu workloads. The Cell was designed to be a all purpose processor that can do both all jobs for gaming. The PPE core of the Cell was the "cpu core" and it was/is slower then Pentium 3's. so the PS4 cpu trump's the PS3 with normal cpu workloads. Now with the SPE's working together on a common task well not too sure which one would win. But if we would take Folding @ Home as an example the Intel Q6600 is able to out performance the Cell even with the SPE's.
The PS3 has a main 3.2GHz single-core CPU with a collection of companion cores. Plus it comes with a 550MHz GPU and 256MB of DDR3 RAM. That clock speed might sound rather high, but the PS4 processor is easily the better and more powerful of the two.
Imao je 3,2 ghz jezgru 1ppe i 7spu i jedna je išla za OS, što je u ono vrijeme bio svemirski brod. Uostalm pogledaj po kojoj cijeni se prodavao PS3 i koliko ej sony gubio po konzoli i po kojoj se cijeni prodaje PS4.
I nsma napisao da je procesor u PS3 jači od procesora u PS4, pričam u kontekstu vremena izlaska., ali ti naravno vidiš ono što želiš vidjeti.
Novo je pod navodnicima....ovisnio kakav je CPU u konzoli, takve se igre projektiraju. Npr. GTA IV ima bolju fiziku opd GTA V na bilo kojoj platformi jer je u PS3 bi za to vrijme napredni CPU dok je u PS4 loš Jaguar. Ni jedna igra na PC-u ne odskače fizikom u odnosu na konzolašku, u stvari i dalje je
Crysis iz 2007. po pitanju fizike napredniji od današnjih igara. Znači nema to veze sa nvidijom, developeri se prilagođavaju snazi konzola, ima par iznimaka poput PUBG koji je uspjehom iznenadio i sam tvorce, ali to nije AAA viskobudžetni naslov. Sad kad izlazi konzola sa odličnim procesorom kroz 3-4 ili voše
godina možemo očekivati igre koje će biti stvarni napredak, ne samo pumpanje večih tekstura i sl.
Ne da mi se pisat litanije od posta, pa ču te samo pitat jesi li ti igrao Metro Exodus? AC Odyssey? Itd,itd... O da, Witcher 3 možda? Điz, koliko gluposti ljudi na forumu mogu nadrobit, to je pre strašno... BTW pumpanje večih textura je veoma bitno jer u svakom slučaju low rez texture su prvo što primjetiš... Zapravo, uz osvijetljenje su najbitnije...
Novo je pod navodnicima....ovisnio kakav je CPU u konzoli, takve se igre projektiraju. Npr. GTA IV ima bolju fiziku opd GTA V na bilo kojoj platformi jer je u PS3 bi za to vrijme napredni CPU dok je u PS4 loš Jaguar. Ni jedna igra na PC-u ne odskače fizikom u odnosu na konzolašku, u stvari i dalje je
Crysis iz 2007. po pitanju fizike napredniji od današnjih igara. Znači nema to veze sa nvidijom, developeri se prilagođavaju snazi konzola, ima par iznimaka poput PUBG koji je uspjehom iznenadio i sam tvorce, ali to nije AAA viskobudžetni naslov. Sad kad izlazi konzola sa odličnim procesorom kroz 3-4 ili voše
godina možemo očekivati igre koje će biti stvarni napredak, ne samo pumpanje večih tekstura i sl.
Ne da mi se pisat litanije od posta, pa ču te samo pitat jesi li ti igrao Metro Exodus? AC Odyssey? Itd,itd... O da, Witcher 3 možda? Điz, koliko gluposti ljudi na forumu mogu nadrobit, to je pre strašno... BTW pumpanje večih textura je veoma bitno jer u svakom slučaju low rez texture su prvo što primjetiš... Zapravo, uz osvjetljenje su najbitnije...
Jesam. A sad mi objasni kako te igre imaju bolju fiziku od Crysisa iz 2007. godine.
Al doslovce nemaš pojima... Pogledaj u Witcheru 3 micanje drveća i trave, pogledaj micanje hebenih dlaka na životinjama, ljudima i kako odgovaraju njihovim pokretima, pogledaj kako odječa i tkanine reagiraju na tvoje pokrete, pogledaj šta radi ARD na okolne predmete... AC i exodus ista stvar... Prati malo okolinu i reakcije iste na igrača... Crysis se može sakrit po tom pitanju... BTW explozije nisu jedini dio kalkulacija fizike...
Al doslovce nemaš pojima... Pogledaj u Witcheru 3 micanje drveća i trave, pogledaj micanje hebenih dlaka na životinjama i ljudima i kako odgovaraju njihovim pokretima... AC i exodus ista stvar... Prati malo okolinu i reakcije iste na igrača... Crysis se može sakrit po tom pitanju... BTW explozije nisu jedini dio kalkulacija fizike...
Hirovito njihanje kao da vijetar mijenja smjer svake sekunde, istovremeno lik kao da ju zaštitnom mjehuru.
S druge strane crysis je 2007. imao živi uništivi okoliš, vertikalno kretanje lika itd.
Ne samo da vjetar ima tendenciju da mjenja smjer, već vidi vraga mjenja i intezitet...Jel ti to ozbiljno? Nisi nikad pogledao kako se drveće miče kad puše vjetar? Witcher nema živi i uništivi okoliš? Jesi pogledao video? Vertikalno kretanje nema veze sa kalkulacijom fizike, već sa dizajnom mehanike gameplaya u igri ovisno o potrebama iste...
Ne da mi se više raspravljat o bedastočama koje nemaju veze sa mozgom, a i debeli je offtopic...
Nema ni priobližno kao crysis, brijem da ti nisi pogledao video.
dali netko zna gdje je onaj review gdje lik testira kartice (10xx i vege 5xx) i gdje sve dx12 filtere nvidija renda na cpu-u ne u gpu
samo izgleda dx11 su u mogucnosti na gpu ostalo pepustaju cudi da pici na cpu ?
ja trazio al nemogu naci
jer vecina ovig sto savjetuju nvidiju da kupe kao investicija za dalje nemaju pojam da je
to dx11 gpu sa cuda dx12 na cpu i to samo neki low filteri i ovih par na fpga iz rtx apija
tako da te kartice budu mrtve cim ps5 i novi xbox izadju i igre za njih jer nevjerujem da ce se devsima isplatiti posebno raditi igru na dx11 za nvidiju osim ako oni same neplato ko dosada za aots
Ako neće onda će raditi za samo 15% tržišta, tak da ne znam koliko će im se tek to isplatiti. Brijem jako malo ili ništa.
https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam
AMD je rekao da radi buga se neuzima za 100% steam survey..ionako vidis da nema navi na listi-ko da je nitko nema?
Otprilike ti je isto i na ovom linku
https://articles2.marketrealist.com/2019/06/nvidia-loses-some-discrete-gpu-market-share-to-amd/
80%vs20%
i sad uzmi u obzir da su rudari više kupovali AMD dođeš otprilike na ovih 15% gamera na AMD-u.
Vi i dalje ne kužite psihologiju AMD kupaca dovoljno da shvatite da većina kupuje igre na GoG-u i Steam uglavnom ne koristi?
Al dobro sad....
I druga stvar, maltene 100% laptopa ima intel ili nvidia, isto kao što 100% konzola (xbox/playstation) ima AMD, samo se laptopi broje, a konzole ne.
Situacija nije toliko crna za AMD, još manje će bit kad se ubroji 5x00 serija koja je tek došla, odnosno dolazi.
Mineri koji su kupovali kartice nisu sa njima igrali... kad spojiš 500 kartica na 50 matičnih za mining teško da će ijedna biti brojana na Steamu.
Stigo review Asusice, prilicno tople/bucne kartice, ko sto vam je tata objasnio da ce biti:
"The GPU of the Asus Radeon RX 5700 XT Strix OC warms up to 78 degrees Celsius with the performance BIOS when playing, with a junction temperature of 100 degrees Celsius. That's 7 or 3 degrees Celsius less than the reference card. The junction temperature is 10 degrees from the critical 110 degrees Celsius - from then on the GPU clocks down. The GDDR6 memory heats up to 90 degrees Celsius and operates just as hot as on the reference design.
With the Quiet BIOS, the electronics are warmer, the ten-watt lower GPU power can not compensate for the lower fan speeds. The Navi-10 GPU then reports 85 degrees Celsius or a junction temperature of 105 degrees Celsius. These are pretty much the temperature values of the reference card."
ko sto vam je tata objasnio da ce biti:
Kaj bude bilo ako ikad izdaju jače čipove.
ps. možda je ASUS sje.. opet, to im se zna dogoditi na AMDu.
ps. 2 sa tim temp. ne bih ovo uzeo ni u ludilu.