Nekaj ti radiš pogrešno, niš ne trza. A TVu/ monitoru upali freesync, u driverima upali freesync ili VRR isve radi savršeno, barem kod mene.
Vodič za odabir grafičke kartice
- poruka: 41.094
- |
- čitano: 5.922.787
- |
- moderatori:
DrNasty, pirat, XXX-Man, Lazarus Long, vincimus
- +/- sve poruke
- ravni prikaz
- starije poruke gore
Nekaj ti radiš pogrešno, niš ne trza. A TVu/ monitoru upali freesync, u driverima upali freesync ili VRR isve radi savršeno, barem kod mene.
ti si ćorav isto kao i ja, to smo već odavno utvrdili
Bolje ćorav nego bez frejm generatora...a kožnati nek si uzme svoje cuda jezgre. Što više kupuješ, više štediš kožnati alan ford, grunf i bob rok u jednome.
otkud ti uopće vadiš te informacije? lupaš gluposti kao da su čvrsta činjenica
nije uopće mala 'utilizacija' i nije istina na nikad ne upregne više od 5%, kad radi, radi na 90% - link
ukupna 'utilizacija' je nebitna, bitno je da odradi ono što treba i kad treba, a to je da ti dade dlss, koji je kao tehnologija fantastičan fičr i dakako da se koristi
nadalje, uopće se ne radi o 'ogromnom' komadu silicija, jer i tensor i rt jezgre zauzimaju 8-10% ukupne površine čipa - link
s druge strane kad pričaš tko što plaća... grafa koja je bila konkurentna mojoj 3080 u izlasku je bila neznatno jeftinija, rtx 3080 je imala msrp 700usd, a 3800xt je bila 650usd, a taman toliko je bila i slabija u rasterizaciji, dok je fsr u tom trenutku bio na dugom štapu - što je točno onda amd naplatio za tu cijenu?
ako sam ja platio 'dodatno' tensor jezgre u cijeni, onda je kupac 6800xt očito u cijeni platio porez na budale, a to te nekako ne bode u oči
Vadim baš s tog linka koji si dao.
Samo kaj nisi čitao izvorni tekst.
https://www.reddit.com/r/hardware/comments/16gez4x/discussing_the_use_of_tensor_cores_in_upscaling/
I ispada baš tak, ne daje ti nikakve benefite u odnosu na isto to u shaderima jer ni u njima ne poraste latencija ni približno da bi limitirala framerate.
Zato kad na Nvidiji koristiš druge algoritme (FSR i XeSS, ne dobiješ ništa sporiji rezultat makar nisu izvođeni na tensoru), a sveukupna utilizacija shadera ode svega par posto gore (tj. dosta više na XeSS ali on je skroz druga stvar u odnosu na ova dva, čak 10 puta zahtjevniji).
I ispada da se uopće ne koristi ništa od instrukcija koje su specifične za tensor na Adi (osim onoga optical flow akceleratora koji na kraju ispada da radi na bilo čemu, ali naravno nema onda akceleraciju, ali je algoritam koji se lako izvede i na starijim tensorima bez velikog udara na performanse) , i mogli su komotno dati DLSS 3 i na starije kartice s tensorom, ali nisu jer su
Ali, tensor će imati smisla jednog dana kad igre počnu dolaziti s AI algoritmima, tj. neuronskim mrežama ili kak se već zove (ima već par demoa).
Samo kaj to ne bude baš išlo tak, nego bude MS morao definirati neki API za to, i vrlo vjerovatno se bude išlo na neki dedicirani čip koji bude imao svoj slot tipa PCI-ex (ali to je još relativno daleka budućnost).
A ako si vidio ovo kaj je forumaš linkao, sad je AMD totalno sjebao Nvidiji taktiku, i morali budu požuriti seriji RTX50xx jer budu morali dopustiti DLSS 3 i na karticama iz serije RTX20 i 30, tak da budu sad silom morali release date ubrzati na ovu jesen umjesto druge proljeće, tak da mogu imati neki selling adut prije nego kaj iza nove godine krenu davati podršku starijim karticama.
P.S. tih 8-10% površine čipa na 4090 ti je jednaka površina kao cijela neka low end kartica, za praktički neiskorišten ASIC sklop...
I velim, nije to nikakav problem, nek Nvidia radi kaj hoće, ali sam poprilično siguran da su mislili da se bude prodavala kao radna kartica, a na kraju ispala samo gamerska.
Vadim baš s tog linka koji si dao.
Samo kaj nisi čitao izvorni tekst.
https://www.reddit.com/r/hardware/comments/16gez4x/discussing_the_use_of_tensor_cores_in_upscaling/
I ispada baš tak, ne daje ti nikakve benefite u odnosu na isto to u shaderima jer ni u njima ne poraste latencija ni približno da bi limitirala framerate.
čitao sam izvorni tekst, pretpostavljaš bezveze
i ne ispada 'baš tak', jer itekako se tensor cores koriste za dlss, a bez tensor cores dlss je pušiona i to su pokazali testovi na low end profi grafi koja nema tensor cores, ali može izvoditi dlss jer je serija rtx, pa kad se izvodi dlss na običnim jezgrama rezultat je katastrofa, zato jer su spore
pišeš bedastoće koje nemaju pokriće nigdje, pretpostavke i mitologiju koja se prenosti po redditu isto tako kako ti prenosiš - izvučeno iz dupeta
test na linku ti jasno pokazuje da prilikom izvođenja dlls-a tensor jezgre budu opterećene skoro pa maksimalno na vrlo kratki moment, upravo zato jer se dlss mora izvoditi jako brzo da ne uspori ukupni fps, što se pokazalo na testu grafe koja nema tensor cores
EDIT
veličina rt sklopa je 10%, sami tensor je još manji, a bogme i nije samo 4090 bitna, tensor ima i moja 3080
vrlo bitno koliko je 10% na 4090, tko kupuje 4090 ne gleda koliki je čip na nekakvoj low end grafi
daj barem priznaj kad lupiš glupost, umjesto što se izvlačiš s dodatnim bedastoćama - 8-10% nije nikakav 'ogromni' dio čipa, bilo u rtx 4070 ili 4090
Zato sam ja prešao an AMD, da ne moram razmišljati da li koristim 1000% chipa tj. silikon koji sam platio. Ovak kožnati potkrada gamere sa cuda i tranzistor jezgrama u skupom silikonu.
Samo kaj silikon inače nije tak skup. Još kad uzmemo u obzir DX 12 nvida driver overhead niakd sretniji sa AMD-om i frejm generatorom na softverskoj razini. Nije istina na čvrstoj hardveskoj muževnoj razini ali ak si šonjo boli te kifla.
edit: opet sam preskočio terapiju
Totalno nas palis s tim silikonskim jezgrama!
Ali tema je: vodic za odabir gpu SILICIJA!!! :)
.... sa AMD-om i frejm generatorom na softverskoj razini. Nije istina na čvrstoj hardveskoj muževnoj razini ali ak si šonjo boli te kifla.
edit: opet sam preskočio terapiju
Jel to kao ono, hardverski imam 8 gb rama a softverom sam downloadao jos 16gb.... tako da imam 24... (ako se tko sjeca tih fora o downloadu rama).....
.... sa AMD-om i frejm generatorom na softverskoj razini. Nije istina na čvrstoj hardveskoj muževnoj razini ali ak si šonjo boli te kifla.
edit: opet sam preskočio terapiju
Jel to kao ono, hardverski imam 8 gb rama a softverom sam downloadao jos 16gb.... tako da imam 24... (ako se tko sjeca tih fora o downloadu rama).....
Odabereš plan i rokaš
Spamate ne potrebno...
Nvidia je u zadnje vrijeme imala žešći problema sa driverima, doslovno radi nekih igara se vraćati na staru verziju.
Što znači da nema ne dodirljivi kad je software u pitanju.
Što se tiče AMD kartica u 10ak igara su vidni arfitekti i tu osobno nebi palio FSR niti FG. Kod fps igara bi iskoristio čisto radi fluidnosti igre. Nije mi jasno kad ekipa fura slabiji hardware i sili fps, s obzirom na nedostatak tensor jezgri tu dolazi do štekanja makar pisalo 100fpsa. Za većinu sp naslova nema potrebe ni za FSR niti FG, ako je smanjena fluidnost smanji detalje. Postoji uvijek opcija za nadogradnju koja bi sanirala stvari. Tvrditi da su kartice tipa 3070 i 6700xt za 4k je totalan apsurd iz razloga što ne igramo svi iste stvari. U ponudi imamo more igara svaka nova je sve zahtjevnija, možda za moje osobne potrebe je dovoljno ali ne i za tvoje.
meni klinac uredno napravi apdejt drajvera, cak i kad mu kazem da to ne radi, ali nikad nisam primjetio neki problem s igrama, doduse ja trenutno igram samo 2 (fw i banishers), ali on barem 10 dnevno vrti i nije rekao da ga ista zeza.....
valjda ovisi od igre do igre....
Meni isto uvijek zadnja verzija drivera, nikad nisam imao problema.
Možda jednostavno ne igram toliko igara, pa nen naletim na ništa problematično.
Spamate ne potrebno...
Nvidia je u zadnje vrijeme imala žešći problema sa driverima, doslovno radi nekih igara se vraćati na staru verziju.
Što znači da nema ne dodirljivi kad je software u pitanju.
Definitivno problemi postoje sa skoro svakom verzijom drivera, sad sa zadnjom verzijom nvidia drivera imam problema da mi samo u chromu nekad jedan dio ekrana ostane crn i pokaze se jedan pixel, pa moram ugasit chrome i upalit da se vrati u normalnu, na predzadnjim driverima mi se zasad to ne desava, i naravno ja uvijek radim ddu i debloatam drivere sa nvcleaninstall. Ali nije to prvi put.. Prije sam imao problema gdje nisam mogao pokrenut BF2042, pa onda na jednom driveru radi BF4 a neradi beamng, pa na trecem radi beamng a bf4 se crasha pa sam se vracao na drivere stare preko godinu dana... Kod ovog novog nvidia UIa me zivcira to sto mi se iz nekog razloga automatski ugasi instant replay bez da sam stisnuo onaj shortcut (koji sam stavio na tipke koje nikad ne stisnem zajedno) i tak mi se desi situacija di mi treba snimka unazad jednu minutu i kifla, ovaj isljucen... Generaralno nikad nisam imao problema sa AMD driverima (ali zadnja amd grafa mi je bila R9 380, predzadnja grafa R7 260X), nisam doduse niti sa nvidijom imao problema dok sam imao 1060, sa 1660ti su ti problemcici poceli pred jedno ~1.5god dok su se kao navodno srozali sa driverima
Meni isto uvijek zadnja verzija drivera, nikad nisam imao problema.
Možda jednostavno ne igram toliko igara, pa nen naletim na ništa problematično.
Lažem, imao sam onaj problem sa sjeckanjem pri browsanju, ali nakon što sam prešao sa RTX3070 na RTX4080, taj problem više ne primjetim.
ALi kod igara ne pamtim probleme.
čitao sam izvorni tekst, pretpostavljaš bezveze
1) i ne ispada 'baš tak', jer itekako se tensor cores koriste za dlss, a bez tensor cores dlss je pušiona i to su pokazali testovi na low end profi grafi koja nema tensor cores, ali može izvoditi dlss jer je serija rtx, pa kad se izvodi dlss na običnim jezgrama rezultat je katastrofa, zato jer su spore
2) pišeš bedastoće koje nemaju pokriće nigdje, pretpostavke i mitologiju koja se prenosti po redditu isto tako kako ti prenosiš - izvučeno iz dupeta
3) test na linku ti jasno pokazuje da prilikom izvođenja dlls-a tensor jezgre budu opterećene skoro pa maksimalno na vrlo kratki moment, upravo zato jer se dlss mora izvoditi jako brzo da ne uspori ukupni fps, što se pokazalo na testu grafe koja nema tensor cores
EDIT
4) veličina rt sklopa je 10%, sami tensor je još manji, a bogme i nije samo 4090 bitna, tensor ima i moja 3080
vrlo bitno koliko je 10% na 4090, tko kupuje 4090 ne gleda koliki je čip na nekakvoj low end grafi
daj barem priznaj kad lupiš glupost, umjesto što se izvlačiš s dodatnim bedastoćama - 8-10% nije nikakav 'ogromni' dio čipa, bilo u rtx 4070 ili 4090
1) nisu pušiona kad svi ostali framegenovi rade jednako brzo, a rade na shaderima. I onaj optical flow kak već im je samo obični scheduler koji su mogli implementirati i na serijama 2 i 3 da su htjeli, pa bi i oni imali sve to.
Prouči si malo kak ti zapravo funkcionira, imaš na sve strane informacije.
Jedini smisao framegena je da ga koristiš s upscaleom s duplo manje rezolucije, jer onda prepoloviš vrijeme renderiranja pa možeš zapravo dobiti neki benefit od framegena jer je njegovo vrijeme izvođenja zanemarivo u odnosu na renderiranje framea, i to ne samo na tensoru, nego u u shaderima (zato kaj i rade istu stvar).
A ovo kaj je na T400 tak sporo je zato kaj direktno emulira instrukcije pisane za tensor na shaderima, ali to ti ništa ne znači, da su pisali direktno kod za shadere radilo bi sasvim normalno, ali nisu jer im je to selling point tensora.
Jel budeš počinio seppuku kad dodaju DLSS 3 na serije 2 i 3? Budi dosljedan...
2) nisu nikakve bedastoće nego ne kužiš tekst koji si pročitao pa odmah bacaš na političarske floskule. Boring....
3) da, kad koristiš emulirani tensor kod na shaderima. Pogledaj kad Nvidia vrti FSR na shaderima, bez benefita tensora, opet rezultat potpuno identičan (često i bolji, ali to je do drugačijeg algoritma).
4) tako je, ja pričam gluposti, ti si najpametniji na svijetu, to smo već apsolvirali prije par stranica
Ispričavam se, o sveti, o veliki, o plemeniti, o najpametniji vrhovniče !
Za pokoru ću jesti samo stari kruv i vodu mjesec dana !
1) nisu pušiona kad svi ostali framegenovi rade jednako brzo, a rade na shaderima. I onaj optical flow kak već im je samo obični scheduler koji su mogli implementirati i na serijama 2 i 3 da su htjeli, pa bi i oni imali sve to.
Prouči si malo kak ti zapravo funkcionira, imaš na sve strane informacije.
Jedini smisao framegena je da ga koristiš s upscaleom s duplo manje rezolucije, jer onda prepoloviš vrijeme renderiranja pa možeš zapravo dobiti neki benefit od framegena jer je njegovo vrijeme izvođenja zanemarivo u odnosu na renderiranje framea, i to ne samo na tensoru, nego u u shaderima (zato kaj i rade istu stvar).
A ovo kaj je na T400 tak sporo je zato kaj direktno emulira instrukcije pisane za tensor na shaderima, ali to ti ništa ne znači, da su pisali direktno kod za shadere radilo bi sasvim normalno, ali nisu jer im je to selling point tensora.
Jel budeš počinio seppuku kad dodaju DLSS 3 na serije 2 i 3? Budi dosljedan...
2) nisu nikakve bedastoće nego ne kužiš tekst koji si pročitao pa odmah bacaš na političarske floskule. Boring....
3) da, kad koristiš emulirani tensor kod na shaderima. Pogledaj kad Nvidia vrti FSR na shaderima, bez benefita tensora, opet rezultat potpuno identičan (često i bolji, ali to je do drugačijeg algoritma).
naravno da su pušiona, jer je dlss drukčiji od fsr, a drukčije je zato jer amd nema hardver za dlss, pa je osmislio verziju koja ne zahtjeva tensor jezgre
fsr i dlss nisu ista stvar - fsr radi na normalnim jezgrama, zato radi i na nevidiji gtx karticama jednako, dlss zahtjeva tensor jezgre i zato je grafa bez tensor jezgri pušiona sa dlss
kaj imam proučit? laprdanje na redditu likova koji pretpostavke vuku iz dupeta, zasnovane na mudologiji da je fsr isto što i dlss
ne nije isto, nvidia je dlss objasnila kako radi
DLSS uses the power of NVIDIA's supercomputers to train and regularly improve its AI model. The latest models are delivered to your GeForce RTX PC through Game Ready Drivers. Tensor Cores then use their teraFLOPS of dedicated AI horsepower to run the DLSS AI network in real time.
čak i da nevidija mulja, imaš test koji ti pokazuje da su tensor jezgre itekako opterećene kad izvode dlss, imaš test da je grafa bez tensor jezgri pušiona u dlss i da zapravo smanji fps jer obične jezgre nisu dovoljno brze
i sve je to zakurac, jer takvi poput tebe više vjeruju teoriji zavjere da plaćaš tensor jezgre nevidiji, a da iste ne služe ničem
jebote
kako rekoh ranije, bitno je da se raspravlja, pa makar i o boji slova...... :)
pa forum i služi za raspravu ili sam nešto krivo shvatio, tema su grafičke kartice, o njima i rapravljamo tako da nije offtopic
problem je što se teorije zavjere uzimaju kao osnova i onda se, kao i obično kod teorija zavjere, gura narativ koji potkrjepljuje teoriju, dok su sve ostalo laži i zavjera zločestih kompanija
intel svoj xess ima otvoren za korištenje na svim arhitekturama, dakle preko običnih jezgri, no isto kao i nevidija ima prednost kad koristi xe jezgre, koje su pandan tensor jezgrama
da li bi se dlss mogao izvoditi kao xess i na običnim jezgrama, vjerojatno bi - no očito je da specijalizirane ai jezgre daju prednost, nevidija je taj hardver ionako razvijala za ai, pa su odabrali verziju tehnologije koja je bolja i za koju ionako imaju hardver
nevidijin dlss je u svemu bolji od fsr, intelov xess je bolji kad se izvodi na intelovom xmx hardveru, dakle očito je da ai jezgre daju prednost pri izvođenju ai upscale tehnologije
problem je što radeonke jedine nemaju specijalizirane ai jezgre, pa onda treba srat po nevidiji i napravit teoriju zavjere
da li je nevidija iskoristila tensor jezgre da bi dobila superiorniju tehnologiju - jest, da li joj je usput dobrodošlo da izbace konkurenciju i svoje starije grafe kako bi potaknuli prodaju rtx serije - ofkors da jesu, pizdunska politika im je uvijek bila jača strana, ali da li to znači da su tensor jezgre beskorisne - e to je već teorija zavjere koju pobija sama tehnologija, a bogme i testovi
doduše, teoretičare zavjera nemere pokolebat apsolutno ništa, jer sve što se kosi s njihovom teorijom nije 'prava istina' i sve je to zavjera
tako da zapravo rasprava i jest uzaludna
pa forum i služi za raspravu ili sam nešto krivo shvatio, tema su grafičke kartice, o njima i rapravljamo tako da nije offtopic
Zapravo jeste off topic, ovo je tema za pomoc oko odabira grafe, a ovo je tema za raspravu oko grafickih kartica
Na kraju ce to sve biti kao i gsync monitori.. naravno kroz neko vrijeme...
Uzeo sam rx 7700 xt, a mislio sam rx 6800 zbog toga što ima 16gb vram što je očito imperativ za neoptimizirane igre. Ulovio sam Mindstar akciju gdje je xfx rx 7700 xt qick bila u tom kratkom trenu jeftinija, pa me nekako kupila cijena i to što je novija arhitektura. Trenutno igram na 1080p, a potencijalno je uskoro i 1440p, sad me totalno muči dal sam se zajebo.?
Uzeo sam rx 7700 xt, a mislio sam rx 6800 zbog toga što ima 16gb vram što je očito imperativ za neoptimizirane igre. Ulovio sam Mindstar akciju gdje je xfx rx 7700 xt qick bila u tom kratkom trenu jeftinija, pa me nekako kupila cijena i to što je novija arhitektura. Trenutno igram na 1080p, a potencijalno je uskoro i 1440p, sad me totalno muči dal sam se zajebo.?
Jel moguće da te to muči? Ajd uživaj udaraj gaming ostavi se razmišljanja.
I mene muci isto rx 6800 ili 7700xt, gledam kod nas, sve je oko 500eur, eventualno ako nadjem 10% na ekupi pa 7700xt bude oko 460eur.
Jedna je novija grafa, av1, druga ima 16gb. Nemam pojam sta napraviti.
Ili da uzmem 6750xt ako bi to bilo dovoljno za 1440p 100+ fps za warzone, fortnite i sl.?
Trenutno sam na rx6600 i fullhd, radi ok. Upgrade ide na 2k jer poklanjam bratu.
I mene muci isto rx 6800 ili 7700xt, gledam kod nas, sve je oko 500eur, eventualno ako nadjem 10% na ekupi pa 7700xt bude oko 460eur.
Jedna je novija grafa, av1, druga ima 16gb. Nemam pojam sta napraviti.
ma 7700xt, manja potrošnja, novija grafa...
prije će ti grafa sama po sebi postat preslaba, nego što će ti zafalit rama
ja gejmam na 3080 12gb koja je nešto jača i nigdje dosad nije falilo vrama na 1440p, ali fali već snage samog čipa za novije igre na max
kad počnu izlazit igre kojima na max postavkama bude trebalo više od 12gb vrama, čip ti ionako neće podržavati niti mid postavke na nekom normalnom fps-u
Rx 6800 je kompletnija i bolja/brža kartica no ne znatno, isto kako je i potrošnja 7700XT neznatno manja od Rx 6800, tako da sa ni jednom ne budeš fulao.
barem danas graficke nisu skupe (ne, nije sarkazam), kad prezivis pocetnu investiciju, nadogradjivati na godisnjoj bazi i nije toliko strasna investicija.....
u svakom slucaju, lakse je danas nekome tko ima 3090 prijeci na 4090 (ako bas zeli), nego nekome tko ima 1060.....
prodas, nadomiris razliku.....stvarati neku zalihu za buducnost u doba kad prakticki na mjesecnoj bazi izbacuju nove stvari, modele......ne znam bas...
imam
i5 12400f
32gb ddr 4
650w napajanje gigabyte
6600xt
sta od ovih grafi uzeti, a da se isplati vs 6600xt
https://www.kleinanzeigen.de/s-anzeige/amd-radeon-rx-6900-xt-red-devil-xtxh/2781413322-225-4542
https://www.kleinanzeigen.de/s-anzeige/nvidia-geforce-rtx-3070-ti-top-zustand/2767580749-225-16311
https://www.kleinanzeigen.de/s-anzeige/msi-rx6750xt-gaming-trio-12g/2779136190-225-4822
ovako po meni, najvise se isplati RTX 4070ti?
6750XT uzmi, iz razloga što 6900XT, iako puno jača, traži vrlo jako napajanje. A to koje imaš nije dovoljno, a i procesor je ne može kvalitetno ispratiti. Ali napajanje je glavni problem za tu grafičku.
imam
i5 12400f
32gb ddr 4
650w napajanje gigabyte
6600xt
sta od ovih grafi uzeti, a da se isplati vs 6600xt
https://www.kleinanzeigen.de/s-anzeige/amd-radeon-rx-6900-xt-red-devil-xtxh/2781413322-225-4542
https://www.kleinanzeigen.de/s-anzeige/nvidia-geforce-rtx-3070-ti-top-zustand/2767580749-225-16311
https://www.kleinanzeigen.de/s-anzeige/msi-rx6750xt-gaming-trio-12g/2779136190-225-4822
ovako po meni, najvise se isplati RTX 4070ti?
Bilo bi dobro da navedeš budget . Ali generalno ni jedna od te tri nije dobar upgrade. RTX 3070 i RX 6750XT nisu toliko osjetan upgrade. RX 6900XT je osjetan upgrade ali nema smisla pored ili RX 7800 XT ili još bolje RX 7900 GRE. RTX 4070 Ti je skuplja od svih navedenih i mislim da se u biti i ne kupuje/prodaje više. Ili se uzme RTX 4070S ili RTX 4070Ti Super, ako se gleda Nvidia. Ali sve ovisi o budgetu, prije svega.