Moguće da su i riješili probleme sa 8 gb vrama ali meni je ostao PTSP kad sam morao TLOU spuštati na 1080p i još paliti DLSS da se igra ne ruši svakih deset minuta.
Kad se opečeš pušeš i na hladno :D Neka je meni 16 gb zlu ne trebalo :D
Moguće da su i riješili probleme sa 8 gb vrama ali meni je ostao PTSP kad sam morao TLOU spuštati na 1080p i još paliti DLSS da se igra ne ruši svakih deset minuta.
Kad se opečeš pušeš i na hladno :D Neka je meni 16 gb zlu ne trebalo :D
Ma kakva 7900gre ako za 50 eu više ima 4070super, jednake performansama, rtx manji tdp naprednija tehnologija. Zar ima netko tko kupi tu GRE.
Ma cijena isti qurac na Amazonu ovi naši nabiju stočku eura premium jerbo Nvidia se lakše proda.
Moguće da su i riješili probleme sa 8 gb vrama ali meni je ostao PTSP kad sam morao TLOU spuštati na 1080p i još paliti DLSS da se igra ne ruši svakih deset minuta.
Kad se opečeš pušeš i na hladno :D Neka je meni 16 gb zlu ne trebalo :D
i to je sasvim ok, svatko puše na nešto na što se opekao
ali par neoptimiziranih igrica predstavljati kao ultimativni primjer je sasvim nešto drugo, a bogme i to uzimati kao ultimativni primjer što će se dogoditi sa 12gb je isto bezveze
još jednom - u 99% igrica prije ćeš smanjivati detalje radi toga što je čip postao preslab, nego radi toga što ti fali vrama
isto tako u 99% slučajeva gdje 'fali vrama', dovoljno je spustiti sa ultra na high, isto kao što spuštamo na stotinama igrica druge postavke radi čipa
samo što se jedno podrazumijeva kao normalno, a od drugoga se pravi drama
Sve to stoji da neke stare kartice iznenađuju da se još dobro drže. Za nekakvu budućnost 12gb će bit malo jer već sada imaš ne jedan naslov koji uzme zero više. Tko sada radi neki konkretan upgrade a planira dat oko 700e i više radije ići na karticu sa 16gb vrama. Ekipa koja si to ne može priuštiti 12 će za sada biti u redu. No uživajte i u obzir naslove koje igrate ako vas rt ne dira, AMD je logičiniji odabir.
Ma da nisi ti onaj šta je imao 7600x pa nakon ugodnog iskustva drop na 12400f sa b760 riptide. Tak bi mogla i ova GRE bit top pick kad nejde u moj case.
Jesam, ne vidim kakve to veze ima...evo i nakon 3mj. uzeo ProArt 602 kučište, te će iči opet vjerujem Ryzen 7800x3d i Proart ostatak builda, kod mene nema mira, ja duže od 10mj. računalo niti jedno nemam Šteta što nema jedino AMD bga u ProArt seriji, barem za sada ih nisam našao.....
Pa naravno da nema Proart Radeon kad ih nitko ne uzima za ozbiljno ako je vezano za neki ozbiljan posao
Moguće da su i riješili probleme sa 8 gb vrama ali meni je ostao PTSP kad sam morao TLOU spuštati na 1080p i još paliti DLSS da se igra ne ruši svakih deset minuta.
Kad se opečeš pušeš i na hladno :D Neka je meni 16 gb zlu ne trebalo :D
Nije to nista "rijeseno", TLOU jest bio drek po izlasku ali i dalje imas dosta igara gdje se osjeti razlika 8GB vs 12+ GB i na 1080p sto mozes vidjeti na ovom videu dolje
konkretno pogledaj primjer na 10:45, igra na oba modela daje dobar fps i da gledas ciste brojke rekao bi isti drek je na 8gb i 16gb ali pogledaj kako teksture izgledaju na modelu od 8gb.
Pa naravno da nema Proart Radeon kad ih nitko ne uzima za ozbiljno ako je vezano za neki ozbiljan posao
Dobro i šta sada ako ih počnu proizvoditi recimo, da ti kažem da se sam sebi pokako u usta
Ništa ne uzimaj zdravo za gotovo druže
konkretno pogledaj primjer na 10:45, igra na oba modela daje dobar fps i da gledas ciste brojke rekao bi isti drek je na 8gb i 16gb ali pogledaj kako teksture izgledaju na modelu od 8gb.
i za taj jedan primjer od stotina i stotina novih igrica 'problem' riješiš time da staviš postavke na v.high
ne bi da ćeš vidjet neku razliku između ultra i v.high
isto tako imaš hrpu igrica gdje ionako moraš kresat detalje, pa makar imao i rtx 4090, pa nitko od toga ne radi dramu kao od ovoga
A neka si se ti kao veliki "stručljak" našao javiti i preporučiti koju grafu da netko drugi kupi. Ti prvi za sebe nisi znao što želiš i koju grafu ćeš kupiti, sada ideš davati savjete drugima i da ti je pri tom znanje o grafičkim karticama jedna velika 0 (da ne kažem u minusu). A zašto to kažem? Zato što si još uvijek ovim gore napisanim mišljenjima zaostalim u prošlom stoljeću (Amd driveri ne valjaju, da takve grafe troše čuda struje) zamislio da si "Einstein". Svoje "Einstein" fore i neznanje ostavi za sebe i molim te ne iznosi ga u javni prostor (na Bugu između ostaloga) jer je ništa drugo nego neznanje i laž. Nakon takvog iznesenog neznanja ideš i vrijeđaš druge kolege sa ovim "ako ima mozga". Što reći.
Sad ću se osvrnuti na tvoj loš savjet koji je ravan tvome neznanju. 4070s pored 7800xt bi se mogla usporediti što se tiče jačine i DLSS-a, ali kako su već ovdje neki spomenuli 12Gb rama je problem i već sada bottleneck na 2k u nekim igrama, a za 4k da i ne pričamo. Dakle imaš u dnevnoj Tv koji je 4k i onda se hoćeš izvaliti u fotelju i igrati "eye candy" igru i uživati u detaljima, kad ulazi 4070s sa 12 gb rama i da ti šamar u lice. Rekao bi hvala, ali ne hvala. Opet što se tiče jačine te grafe su slabe za 4k pa ni za to nisu dobar izbor.
O 4070ti kao polovnom izboru bolje da ne govorim jer reći ću samo puno lošega. 4070ti su kupili oni koje si ti spomenuo u svojem postu, a samo isti takvi će tu istu i kupiti, što je nadam se, vrlo mali postotak. Zamisli dat 800+ eura u 2024. godini za grafu koja ima 12 Gb rama, nemam riječi.
U cijelom tom kupusu 4070ti Super bi bila najbolji izbor, ali je i najskuplja od svih navedenih i ima najviše smisla, a sve ispod toga je izbor Radeon. I to tako da se van Hr kupi, oko nekih 500 i kusur eura 7800XT, do 600 eura 7900GRE i uz popuste ili neku akciju 7900XT malo iznad 670 eura kao best buy.
...ali kako su već ovdje neki spomenuli 12Gb rama je problem i već sada bottleneck na 2k u nekim igrama, a za 4k da i ne pričamo. Dakle imaš u dnevnoj Tv koji je 4k i onda se hoćeš izvaliti u fotelju i igrati "eye candy" igru i uživati u detaljima, kad ulazi 4070s sa 12 gb rama i da ti šamar u lice. Rekao bi hvala, ali ne hvala. Opet što se tiče jačine te grafe su slabe za 4k pa ni za to nisu dobar izbor.
ma gdje je to 12gb premalo? gdje ćeš to 'dobiti šamar'?
igram na 3080 12gb već godinu i pol dana i niti jedna igra nije zatrzala zbog vrama, dapače, sve što režem od detalja režem radi toga što je čip već preslab za neke nove naslove
daj se više ostavite mitologije, ono gore što je linkao kolega ibme je izuzetak i to riješiš time da skineš teksture sa ultra na v.high
neš ti problema, sjest ćeš u fotelju tri metra od televizora i teleskopom tražit gotovo nepostojeće razlike sa ultra na v.high, a to ćeš ionako na 4k televizoru rezat ako hoćeš iole igriv fps u većini novih igara
kome je panika zbog vrama neka uzima grafe sa 16gb, ali prestanite prodavat muda pod bubrege
konkretno pogledaj primjer na 10:45, igra na oba modela daje dobar fps i da gledas ciste brojke rekao bi isti drek je na 8gb i 16gb ali pogledaj kako teksture izgledaju na modelu od 8gb.
Ne možeš ti sa njima jer i nakon 100 videa im ne bude jasno jer gledaju brojke i avgFPS a ne i onaj 0.1% low i kako fluidno se igra izvodi i texture učitavaju....nekom je to Ok valjda i ne smeta ga bez obzitra na nik "Picajzla"
Svatko po svome, ima kartica na bacanje, svatko zna svoje i ne igra svatko na istim rezolucijama/Hz i postavkama....kad sjenem na monitor sa 60hz dođe mi zlo, dok večina mojih kolega ne kuži nikakvu razliku, tako da ne možeđ ih krivit....kako se kaže mi imamo feler, ne oni Njima je jeftinije i lakše i bolje prođu
Kad imaš 16 gb vrama takav vido gledaš sa smiješkom od uha do uha, kao da si sagradio atomsko sklonište :D
Ne možeš ti sa njima jer i nakon 100 videa im ne bude jasno jer gledaju brojke i avgFPS a ne i onaj 0.1% low i kako fluidno se igra izvodi i texture učitavaju....nekom je to Ok valjda i ne smeta ga bez obzitra na nik "Picajzla"
i opet, u čemu je problem smanjiti teksture sa ultra na v.high u jednoj od sto igrica?
kad naiđeš na igricu koja je toliko zahtjevna da je grafa nemere pokretat na ultra, jel smanjiš postavke ili mazohistički igraš samo zato jer je neki video pokazao kako se ta grafa muči na ultra?
dramite bezveze
EDIT
zapravo si sam rekao - nemereš podnijet 60hz, dakle niti 60fps
i što radiš kad ti grafa nemere pokretat sve na ultra? naravno, smanjiš postavke dok ne dođeš do fps-a koji ti odgovara
ali za potrebe drame, nedajbože smanjit teksture sa ultra na high... kako vam se uopće da skakat sami sebi u usta na tako proziran način
Opet vi o kruškama i jabukama, kolega Matan fino sve objasnio. Gpu neki kupuju sada za narednih neznam koliko, a neki mijenjaju svako malo. Trebaš bit van serijski idiot da radi rt a koji je jedva dosežan na 4070 u med range gpu ima kupiš nvidiu. Treba ostat na zemlji i reći da developeri izbacuju ne dovršene naslove samim time optimizacija čini svoje. To da vi smanjite detalje objesiti možeš mačku o rep. Jer već sada ima poprilično naslova gdje je 12gb malo a tek u buduće. Zar nije klošarski sebično nvidiu dizat u nebesa. Sry stari ali u mid range u pored AMD a za neku budućnost nemaju šta tražit.
Najveći je problem što ljudi paze na svaki euro i u nadi da će ipak koristit rt sa manjim detaljima zalete se i kupe 4070. Za godinu dana se hvataju za glavu kad novi naslov teksture neće učitat radi manjka vrama. Raster performanse odavno govore svoje. Sjetite se koliko je koštala rx 6800xt a koliko rtx 3080...
Opravdava li uloženo??
Imate 300 postova copy, paste a ništa napisali niste. Spamate po cijele dane.
Dal bi bila jako velika razlika da se komp na 1440p spoji na OLED 4K@120Hz pa da telka radi upscale u odnosu da sa kompa ide 2160p?
...To da vi smanjite detalje objesiti možeš mačku o rep. Jer već sada ima poprilično naslova gdje je 12gb malo a tek u buduće. Zar nije klošarski sebično nvidiu dizat u nebesa. Sry stari ali u mid range u pored AMD a za neku budućnost nemaju šta tražit.
de ti nama reci koji su to naslovi gdje je 12gb malo? računaš li alokaciju vrama koju netko vidi sa 4090 ili stvarno nužnu količinu vrama koja je potrebna za glatko izvođenje
i de reci nam kako je smanjivanje detalja toliki tabu? nikad nisi smanjivao detalje, gejmaš na plejki pa nemaš opcije?
jesi li kad upalio igru i pokušao vidjet razliku između ultra i v.high? ne bi da moraš svaku drugu igru smanjivat i kresat na low
zar stvarno i dalje insistirate na ovakvim bedastoćama samo da bi dokazali da je radeonka bolji izbor, majko mila
ako te toliko paranoja puca, uzmeš radeonku, ali daj molim te prestani s bedastoćama
zar stvarno i dalje insistirate na ovakvim bedastoćama samo da bi dokazali da je radeonka bolji izbor, majko mila
Ok, bacio si udicu, sad je na tebi da dokažeš da je nevidija bolji izbor
naravno, bilo bi idealno da ne moraš nikad smanjivat detalje, ali u 99% vremena smanjuješ detalje radi toga jer je čip preslab
i ja igram na 1440p sa 3080, ali je monitor 144hz pa koristim koliko ide, lock na 60 mi nema smisla ako igra može na 80-90 ili više
negdje pičim na ultra, negdje za mrvu smanjim detalje - nikad dosad radi vrama, nego radi čipa
svi smanjujemo detalje osim onih par koji su uzeli 4090 za 1440p, samo je pitanje zašto je u jednoj od sto igara problem smanjiti teksture sa ultra na v.high, a to nitko od ovih dramatičara neće odgovoriti - tu prestaje rasprava, a neće jer im priznati da na tu i tamo nekoj igrici smanjit teksture sa ultra za jednu crticu dolje ruši famoznu vram teoriju... i di su onda? godine drame oko vrama odoše u nepovrat
Ok, bacio si udicu, sad je na tebi da dokažeš da je nevidija bolji izbor
okrećeš pilu naopako
dokažite vi svoje teorije i odgovorite zašto je na jednoj od stotine igara problem smanjit teksture sa ultra na v.high, ako ionako svi smanjujemo postavke jer nikome grafa nije dovoljno jaka baš za sve igre na ultra
Jel to kožnati plaća za taj marketinški bullšit da je 12GB dosta na grafi od 700 evra?
Znači isključivo uzimate u obzir raster performanse di je 7800xt rame uz rame sa 4070 a 7900xt uz 4070ti super.
Tek na 4070ti super ima smisla uopće o rt u razmišljat.
Usporediš li cijene i sjetiš li se da je 4070ti na 12gb rama to je pametnom dosta. Poanta je u tome da netko tko će kupovati sada karticu, planira je imati duži period od 6 mjeseci. Nitko ne želi reći da je kartica loša ali brate mili nikako se ne isplati davat više love za nikakav porast. Logika je isto da ti sa svoje kartice ne odeš na ništa ispo 4080 ili 7900xtx.
O ovom smanjivanju detalja sam sebi lupiš šamar kad znaš da si tu karticu ako si prvi kupac platio preko 1100e
@picajzla
Ne okrećem ja ništa.
Znači (po tebi) nije bitan average FPS (ni 0.1%), nije bitan RT, nije bitna potrošnja, nije bitna jebačina za pare (bang for buck, ne znam na rvaški, pitaj Ajara), nije bitno igrat na 1440+ rezi itd.
Objasni meni (kao laiku) po čemu se grafe onda vrednuju...
Igrao sam se na rtx 3060ti i sad s 4070ti na 4k sam vec poprilican broj godina, neznam da li mi je ikad iti jedna igra zaštucala, naravno da bi dobio cca 100fpsa-a na 4k s 3060ti morao sam smanjivati detalje, tako da 12gb na 4070ti je i previše ako se mene pitaPozdrav svim Radeoncima
Igrao sam se na rtx 3060ti i sad s 4070ti na 4k sam vec poprilican broj godina, neznam da li mi je ikad iti jedna igra zaštucala, naravno da bi dobio cca 100fpsa-a na 4k s 3060ti morao sam smanjivati detalje, tako da 12gb na 4070ti je i previše ako se mene pitaPozdrav svim Radeoncima
Horseshit.
7800XT nikad neće biti brža od 4070S pa taman da ima 128gb vrama isto kao što niti RTX 4060ti 16gb nikad neće biti brža od 4070 sa 12gb vrama. Govorimo o uzorku od 15+ igara tak da svatko bira sebi šta mu više paše ali tvrdnje da je Radeon bolji pick jer ima 4gb vrama više, a sve ostalu u dimu su bez veze. Još kod nas možeš i opravdat kupnju Radeona jer su Nvidije nabijene cijenom iz razloga brže prodaje ali ako je cijena ista tehnološki RTX je ipak korak ispred ma koliko se trudili dokazat suprotno.