- +/- sve poruke
- ravni prikaz
- starije poruke gore
da, al pazite đubradi - mislim ono !!!
kakva đubrad?? u krivu ste! , oni preskacu doticni dx idu dalje na advanced dx jer amd ima samo dx!
da, al pazite đubradi - mislim ono !!!
kakva đubrad?? u krivu ste! , oni preskacu doticni dx idu dalje na advanced dx jer amd ima samo dx!
12.1
katastrofa!
bezveze, sad fali nesto kakti i kod amd-alol, ali to sto kod njega fali neutjece na gubitak perfomansi
,
joj kako traze iglu u plastu sijena da se izvuku...
Evo usage u BF 4 na auto postavkama , vecina ultra high . sat vremena igranja mozda malo vise , proc se popeo na 81 stupanj .
Koliko je tu krivica FX-a? Ima tko 390 i kakav i5/i7?
bezveze, sad fali nesto kakti i kod amd-alol, ali to sto kod njega fali neutjece na gubitak perfomansi
,
joj kako traze iglu u plastu sijena da se izvuku...
Točna moja pomisao kad sam vidio. Znalo se i prije da ne podržavaju DX12 na svim razinama.
Evo usage u BF 4 na auto postavkama , vecina ultra high . sat vremena igranja mozda malo vise , proc se popeo na 81 stupanj .
Koliko je tu krivica FX-a? Ima tko 390 i kakav i5/i7?
Pa sada neznam kolika je krivica fxa al on je klokan bio na 4.4 ja mislim kad sam to igrao ili na 4.6 nisam sad 100 posto siguran . FPS u igri je oscilirao ali ispod 60 fpsa nije bilo al zanimljivo je da igra zna zatrokirati a ipak vrti 60fpsa , zatrokirat mislim da nije fuidno sad dali to ima razlgoa jer nisam bf igrao pola godine pa mozda jer nisam bio na mapama dugo pa to ima ulogu nefluidnosti , nemam pojam ;)
UGL grafa se zakuca na 100 posto kada me netko ubije i cekam za ponovni spawn ;) volio bi i ja ako netko ima i5 ili i7 sa istom grafom pa da vidimo .
@Adict
Ček malo, tamo na onom screeshotu nisam vidio temperaturu CPU-a već gpu-a ako se ne varam. A 81C za gpu i nije nešto strašno, ipak se hawaii jezgre griju na 95 u referentnim kulerima. To je sasvim ok, mislim bilo bi bolje da je niže, al sad tu ima dosta faktora kao što je ventilacija u kućištu i sl.
Ako je pak riječ o CPU temperaturi, to je problem. No nekako mi teško zamislit da jedan fx ide na te temperature na h80i vodenom. Moj se na 4.6ghz nije grijao toliko sa hyper 212evom?!
Sad reci o čemu je riječ, cpu ili gpu na 81C?
CS:GO competitive cca. 45 min. sa i5 4460.
Ako pogasis shadere u opcijama rijesis drop, losa optimizacija na visokom nivou detalja. Bas cu svoju pogledati danas.
@Adict
Ček malo, tamo na onom screeshotu nisam vidio temperaturu CPU-a već gpu-a ako se ne varam. A 81C za gpu i nije nešto strašno, ipak se hawaii jezgre griju na 95 u referentnim kulerima. To je sasvim ok, mislim bilo bi bolje da je niže, al sad tu ima dosta faktora kao što je ventilacija u kućištu i sl.
Ako je pak riječ o CPU temperaturi, to je problem. No nekako mi teško zamislit da jedan fx ide na te temperature na h80i vodenom. Moj se na 4.6ghz nije grijao toliko sa hyper 212evom?!
Sad reci o čemu je riječ, cpu ili gpu na 81C?
Mislim da je to CPU temp 81 stupnjeva jer je bio klokan na 4.6 sa 1.375 voltazom , Evo al mozda te i lazem jer nisam sada doma da bi pogledao i bio 100 posto siguran . Kad dodem doma pa vidim i javim sa sigurnoscu . :)
Edit : da da tzo je temp gpu sad vidim tj nekako sam povecao sliku i pise GPU . ;) a proc jbg sad neznam na koliko se grijao .
Nemamo sta vise pricati i svaka daljnja diskusija je suvišna jer slika govori vise od rijeci. Iako je vec bio link, da se ne zaboravi. Znaci ta jadna 290x im je ubila GTX 780 pa 780Ti pa 980 i na kraju im je sahranila 980 Ti.
I onda se tu pojavljuju neki likovi kako je 970 bolja kupovina jer trosi manje struje.Pa brate kupi si led sijalicu umjesto volframove u sobi da si izbalansiras potrosnju struje. Taman ces dobiti tih 80W na potrosnji.
http://arstechnica.com/gaming/2015/08/directx-12-tested-an-early-win-for-amd-and-disappointment-for-nvidia/
bezveze, sad fali nesto kakti i kod amd-alol, ali to sto kod njega fali neutjece na gubitak perfomansi
,
joj kako traze iglu u plastu sijena da se izvuku...
Amd-ov ovaj lik je nakon ovog "skandala" sa nvidiom oko asinkronog računanja rekao kao "ma neš ti, ni mi nemamo potpuni support", čovik odma priznao istinu. Izgleda kao da želi reć "ma nvidija je super, nema veze, malo su lagali, ni mi nemamo pootpuni support za dx12"... Kontra-marketing.
Edit : da da tzo je temp gpu sad vidim tj nekako sam povecao sliku i pise GPU . ;) a proc jbg sad neznam na koliko se grijao .
Da FX ode na 80C na vodenom... jednom riječju - nemoguće.
Mozda su ovi iz Nvidije potplatili i AMD da daju takve izjave.
Mozda su ovi iz Nvidije potplatili i AMD da daju takve izjave.
Garant!!!
Mozda su ovi iz Nvidije potplatili i AMD da daju takve izjave.
Garant!!!
Odmah će biti u plusu na sljedećem tromjesečnom izvještaju.
Ni AMD ni Nvidija niti jednog trenutka nisu tvrdili da podržavaju baš sve mogućnosti predviđene DX12 i, ako se sećate, bilo je poređenja ko podržava šta, šta je bitnije i ko dostiže koji tier, tj od strane MS-a definisani nivo podrške predviđen u DX12. Dakle, nema tu nikakvog iznenađenja što AMD (ili Nvidija) ne podržava sve tehnologije. Uostalom, tako je bilo i sa ranijim verzijama DX-a.
Iznenađenje je da Nvidija ne podržava nešto što je rekla da podržava, i to asinhrone shadere koji bi trebalo da donesu najdramatičniji pomak u performansama u novom DX-u i navodno ih developeri na konzolama već itekako koriste u razvoju nadolazećih igara (dakle, bez toga, port sa konzole na PC u startu trpi performance hit; vlasnici GTX 900 kartica neka misle o tome sledeći put kad budu hteli da se požale na "loš port" koji ima slabe performanse na njihovim "odličnim" karticama). To je problem. Šlag na torti je da su lagali u vezi podrške, da su napali developere Ashes of Singularity da im ne valja engine, a da su ih istovremeno iza kulisa molili da iz igre isključe tehnologije koje oni ne podržavaju.

Koje su šanse da (ne)će biti isključeno u Meant to Be Played naslovima?
Znači Nvidia je lagala, hmhmh deja vu !!
I onda se tu pojavljuju neki likovi kako je 970 bolja kupovina jer trosi manje struje.Pa brate kupi si led sijalicu umjesto volframove u sobi da si izbalansiras potrosnju struje. Taman ces dobiti tih 80W na potrosnji.
AHAHAHAHAHAH :DDDDDDDDDDDD
Znači Nvidia je lagala, hmhmh deja vu !!
nije prvi put u godinu dana
Nemamo sta vise pricati i svaka daljnja diskusija je suvišna jer slika govori vise od rijeci. Iako je vec bio link, da se ne zaboravi. Znaci ta jadna 290x im je ubila GTX 780 pa 780Ti pa 980 i na kraju im je sahranila 980 Ti.
I onda se tu pojavljuju neki likovi kako je 970 bolja kupovina jer trosi manje struje.Pa brate kupi si led sijalicu umjesto volframove u sobi da si izbalansiras potrosnju struje. Taman ces dobiti tih 80W na potrosnji.
http://arstechnica.com/gaming/2015/08/directx-12-tested-an-early-win-for-amd-and-disappointment-for-nvidia/
jbte a u testu nema furije kao ni furi-x...lol, niti ne stanu u sliku, jer bi graf izbijao van na dx12 metru
jbte a u testu nema furije kao ni furi-x...lol, niti ne stanu u sliku, jer bi graf izbijao van na dx12 metru
Mogao bi 4mal odvrtiti koji AoS test, cisto za raju
sad će za 980ti spustit cijenu ispod 350 eura da bi konkurirao R9 390
ispada da je amd stavija prenisku cijenu za svoje