Znači AMD-u ne gine 2025. za biti konkurentan ako tek kreću
AMD Navi
- poruka: 9.270
- |
- čitano: 1.634.362
- |
- moderatori:
DrNasty, pirat, XXX-Man, Lazarus Long, vincimus
- +/- sve poruke
- ravni prikaz
- starije poruke gore
Znači AMD-u ne gine 2025. za biti konkurentan ako tek kreću
Hah naravno da ne gine. Ovisi o tome i kako ce se igre razvijat. AMD ima neku prednost sto s hardverom u PS5 i XSX jer vjerojatno unaprijed zna kako ce se novi engini ponasat.
Znači AMD-u ne gine 2025. za biti konkurentan ako tek kreću
Amd tehnologija ce bit open source i laksa za implementaciju, a i radit ce na novim konzolama.
Da nebi bilo kao i gsync i free sync ?
Informacije se siri od ljudi koji ko papige ponavljaju ono sto marketing govori bez kritickog razmisljanja i vlastitog testiranja.
Ovo za FPS stoji i to funkcionira i slika je jako dobra. Nemam nikakve primjedbe, ALI to da DLSS stvara nove informacije tj. da ima vise informacija nego native je cista glupost koju tu neki vole ponavljat.
Informacije se siri od ljudi koji ko papige ponavljaju ono sto marketing govori bez kritickog razmisljanja i vlastitog testiranja.
Ovo za FPS stoji i to funkcionira i slika je jako dobra. Nemam nikakve primjedbe, ALI to da DLSS stvara nove informacije tj. da ima vise informacija nego native je cista glupost koju tu neki vole ponavljat.
Nit ovo za FPS ne stoji kak treba, mislim stoji u ovim igrama koje igraju 5000 ljudi sve skupa (i koje su SP), eto fortnite i DLSS je ko krepana krava, ljudi imaju manje fpsa sa DLSS ON nego OFF.
Informacije se siri od ljudi koji ko papige ponavljaju ono sto marketing govori bez kritickog razmisljanja i vlastitog testiranja.
Ovo za FPS stoji i to funkcionira i slika je jako dobra. Nemam nikakve primjedbe, ALI to da DLSS stvara nove informacije tj. da ima vise informacija nego native je cista glupost koju tu neki vole ponavljat.
Nit ovo za FPS ne stoji kak treba, mislim stoji u ovim igrama koje igraju 5000 ljudi sve skupa (i koje su SP), eto fortnite i DLSS je ko krepana krava, ljudi imaju manje fpsa sa DLSS ON nego OFF.
Ovisi i koja verzija DLSS-a je u pitanju. Prve verzije su jako lose i bolje ne pricat o njima. Ne znam koju ima Fortnite...
Na Death Strandingu radi kolko vidim dobro, ali to nije igra gdje je to neka potreba kad ona ima odlicnu optimizaciju i vrti se dobro na slabijim grafickama.
Informacije se siri od ljudi koji ko papige ponavljaju ono sto marketing govori bez kritickog razmisljanja i vlastitog testiranja.
Ovo za FPS stoji i to funkcionira i slika je jako dobra. Nemam nikakve primjedbe, ALI to da DLSS stvara nove informacije tj. da ima vise informacija nego native je cista glupost koju tu neki vole ponavljat.
Imaš i hrpa nezavisnih testova i videa po netu gdje možeš viditi kako DLSS dodaje detalje, koji nisu samo obični sharpening.
Jel uopće kužiš kako AI i DLSS funkcionira?Cijela poanta je upravo u tome da iz manjka informacija stvara podatke kojih tu inače nema.
To što ti pišeš da je glupost je ustvari srž kako ta tehnologija funkcionira..
Informacije se siri od ljudi koji ko papige ponavljaju ono sto marketing govori bez kritickog razmisljanja i vlastitog testiranja.
Ovo za FPS stoji i to funkcionira i slika je jako dobra. Nemam nikakve primjedbe, ALI to da DLSS stvara nove informacije tj. da ima vise informacija nego native je cista glupost koju tu neki vole ponavljat.
Nit ovo za FPS ne stoji kak treba, mislim stoji u ovim igrama koje igraju 5000 ljudi sve skupa (i koje su SP), eto fortnite i DLSS je ko krepana krava, ljudi imaju manje fpsa sa DLSS ON nego OFF.
Ovisi i koja verzija DLSS-a je u pitanju. Prve verzije su jako lose i bolje ne pricat o njima. Ne znam koju ima Fortnite...
Na Death Strandingu radi kolko vidim dobro, ali to nije igra gdje je to neka potreba kad ona ima odlicnu optimizaciju i vrti se dobro na slabijim grafickama.
Ne pricam o prvim verzijama, ovo su videi stari tjedan-dva. Death Stranding je SP igra, Fortnite je MP igra koju nitko ne igra na 4k i na ultra postavkama, ali kad igraju na 1080p/1440p i low postavkama dogadja im se da imaju 20-30 fpsa manje.
@ivicask to što izoštri malo je li-la, osim na paketu u DS (a i tamo) nitko tko to igra ne primječuje. Ipak, 60+ umjesto 30+ je genijalno i upravo ono što je bitno.
@ivicask to što izoštri malo je li-la, osim na paketu u DS (a i tamo) nitko tko to igra ne primječuje. Ipak, 60+ umjesto 30+ je genijalno i upravo ono što je bitno.
Pa to i pričam ne moraš ići na najveći FPS, stavis onaj high quality mode, dobiš par FPS a detalji su isti ili bolji.
Ne kužim, zašto nebi netko htio free FPS i detalji boost???
Dolaze još zahtjevnije igre sljedećih godina, i možete zaboraviti 4k@60fps ili 2k 120fps+ na njima bez tehnologija kao DLSS, uvijek je tako...
Informacije se siri od ljudi koji ko papige ponavljaju ono sto marketing govori bez kritickog razmisljanja i vlastitog testiranja.
Ovo za FPS stoji i to funkcionira i slika je jako dobra. Nemam nikakve primjedbe, ALI to da DLSS stvara nove informacije tj. da ima vise informacija nego native je cista glupost koju tu neki vole ponavljat.
Imaš i hrpa nezavisnih testova i videa po netu gdje možeš viditi kako DLSS dodaje detalje, koji nisu samo obični sharpening.
Jel uopće kužiš kako AI i DLSS funkcionira?Cijela poanta je upravo u tome da iz manjka informacija stvara podatke kojih tu inače nema.
To što ti pišeš da je glupost je ustvari srž kako ta tehnologija funkcionira..
Iskreno volio bi vidjet neovisan test iste stvari jer mi se cini da DLSS OFF verzija ima puno vise motion blur-a koji zamucuje detalje, a sve detalje su lovili iz pokreta.
Jednostavnije i bolje bi bilo da je staticna scena za usporedbu no oni su se nekim cudom odlucili za suprotno
Evo ti staticna scena sa pravom nvidia igrom
https://ibb.co/gD8R5s2 al dobro to je msaa
Ja na dlss gledam ko bonus feature na cijenu.
Dakle kriterij je ovakav, RAW perfomance, sve ostalo dodatak. On nikako ne može bit najveći razlog kupnje, ali dodatan DA.
Ja na dlss gledam ko bonus feature na cijenu.
Dakle kriterij je ovakav, RAW perfomance, sve ostalo dodatak. On nikako ne može bit najveći razlog kupnje, ali dodatan DA.
Nadam se da postoji šansa da ta AMD tehnologija postane standard posto je open source i trebala bit radit na vise platforma kao freesync (Gdje je nvidia popusila)
Ne volim te stvari koje rade samo na određenom HW-u iako naravno razumijem zasto je to tak.
Ja sam se malo nadao kad je došlo da je 3090 samo 10% brža od 3080. Reko, ovo je dostižno. Ali tebra sa 300w potrošnjom ni u ludilu. Ovu karticu bih baš želio kupiti, al se bojim da me kriza ne uzme i piknem 6800 ili 3080.
3900 je bagatela publici koja trazi CUDA-u i puno rama, vjeruj mi da takvih ima puno i cesto kupuju puno kartica. Tu AMD uopce ne igra...
Kontao sam i 5800x. Ono monolitni dizajn i 8 jezgri za future proofing i ko ga jebe iako je gora kupnja od ova dva. Budem vidio. Lud sam već od ove apstinencije.
Ali nije Sandy još rekao zadnju...
Ah, Intel ljubav. Nicky huligan nam je jedina nada . Ja sam se prodao za par fpsa. I to u fhdu.
Znaci svi koji zelite 6900xt- preporucio bih vam da nekupite slijede razlozi: Znaci vidjeli smo 6800xt i6900xt koji imaju isti klok ali i 6900xt sa 80 CU-a u prosijeku je 10-15% bolja od malog brata. Znaci 6800xt ima daleko veci power limit mogucnost tj sigurno ce se manje grijati pri klokanju nego 6900xt bas radi toga.. nebi me cudilo da dobri primjerci 6800xt dodju na nekih 5% ili izjednace se sa 6900xt. DA ima vise Vrama, vise IFcache-a oke, ali ovako sada vam kazem nakolkana 6800xt bit ce 6900xt po perf. 8CU-a nije neka razlika u relativnoj perf, dokaz je i vega 56 koja sa biosom dodje na 64 level. Stime vam moram napomenuti da ce 6900xt biti u malim kolicinama na trzistu-tj da se netko nebi razocarao ako nju zeli a nedobije ju. Ipak je to samo AMD dizajn tako da.
6800xt bit ce full release, kao sto je i decko iz moores law-a rekao: svatko ko zeli unutar prvih sat-dva dobit ce karticu. Ali uzmite si na um sada da AMD ima stvarno tezak posao jer mora zadovoljiti i kupce koje je nvidia razocarala najvjerojatnije.
I eto napookon da sam docekao da ce full AMD rig imati nekih prednosti- b500 ploca, 5000 proc i 6000 grafa radit ce zajedno i medjusobno si pomagati- vrhunska stvar koja ce kasnije samo dobivati gain kada devosi to dobiju isto u ruke.
I btw Igor iz Igors lab-a vec je na cackanju oko red bios-a tj modificirn tool slican 1usmus-ovim toolovima ali za cackanje po grafi. Imo ih je za polaris,navi1. CVim tool bude gotov postam ga vamo ako ce biti ljudi koji ce se htijeti igrati jer cini mi se da ovaj navi je odlican za OCanje https://www.igorslab.de/dram-einstellungen-de-luxe-alle-gddr6-timings-fuer-navi-karten-ab-sofort-frei-editierbar-red-bios-editor-update/
Znaci svi koji zelite 6900xt- preporucio bih vam da nekupite slijede razlozi: Znaci vidjeli smo 6800xt i6900xt koji imaju isti klok ali i 6900xt sa 80 CU-a u prosijeku je 10-15% bolja od malog brata. Znaci 6800xt ima daleko veci power limit mogucnost tj sigurno ce se manje grijati pri klokanju nego 6900xt bas radi toga.. nebi me cudilo da dobri primjerci 6800xt dodju na nekih 5% ili izjednace se sa 6900xt. DA ima vise Vrama, vise IFcache-a oke, ali ovako sada vam kazem nakolkana 6800xt bit ce 6900xt po perf. 8CU-a nije neka razlika u relativnoj perf, dokaz je i vega 56 koja sa biosom dodje na 64 level. Stime vam moram napomenuti da ce 6900xt biti u malim kolicinama na trzistu-tj da se netko nebi razocarao ako nju zeli a nedobije ju. Ipak je to samo AMD dizajn tako da.
6800xt bit ce full release, kao sto je i decko iz moores law-a rekao: svatko ko zeli unutar prvih sat-dva dobit ce karticu. Ali uzmite si na um sada da AMD ima stvarno tezak posao jer mora zadovoljiti i kupce koje je nvidia razocarala najvjerojatnije.
I eto napookon da sam docekao da ce full AMD rig imati nekih prednosti- b500 ploca, 5000 proc i 6000 grafa radit ce zajedno i medjusobno si pomagati- vrhunska stvar koja ce kasnije samo dobivati gain kada devosi to dobiju isto u ruke.
I btw Igor iz Igors lab-a vec je na cackanju oko red bios-a tj modificirn tool slican 1usmus-ovim toolovima ali za cackanje po grafi. Imo ih je za polaris,navi1. CVim tool bude gotov postam ga vamo ako ce biti ljudi koji ce se htijeti igrati jer cini mi se da ovaj navi je odlican za OCanje https://www.igorslab.de/dram-einstellungen-de-luxe-alle-gddr6-timings-fuer-navi-karten-ab-sofort-frei-editierbar-red-bios-editor-update/
A sto ako ljudi ne klokaju?
Znaci svi koji zelite 6900xt- preporucio bih vam da nekupite slijede razlozi: Znaci vidjeli smo 6800xt i6900xt koji imaju isti klok ali i 6900xt sa 80 CU-a u prosijeku je 10-15% bolja od malog brata. Znaci 6800xt ima daleko veci power limit mogucnost tj sigurno ce se manje grijati pri klokanju nego 6900xt bas radi toga.. nebi me cudilo da dobri primjerci 6800xt dodju na nekih 5% ili izjednace se sa 6900xt. DA ima vise Vrama, vise IFcache-a oke, ali ovako sada vam kazem nakolkana 6800xt bit ce 6900xt po perf. 8CU-a nije neka razlika u relativnoj perf, dokaz je i vega 56 koja sa biosom dodje na 64 level. Stime vam moram napomenuti da ce 6900xt biti u malim kolicinama na trzistu-tj da se netko nebi razocarao ako nju zeli a nedobije ju. Ipak je to samo AMD dizajn tako da.
6800xt bit ce full release, kao sto je i decko iz moores law-a rekao: svatko ko zeli unutar prvih sat-dva dobit ce karticu. Ali uzmite si na um sada da AMD ima stvarno tezak posao jer mora zadovoljiti i kupce koje je nvidia razocarala najvjerojatnije.
I eto napookon da sam docekao da ce full AMD rig imati nekih prednosti- b500 ploca, 5000 proc i 6000 grafa radit ce zajedno i medjusobno si pomagati- vrhunska stvar koja ce kasnije samo dobivati gain kada devosi to dobiju isto u ruke.
I btw Igor iz Igors lab-a vec je na cackanju oko red bios-a tj modificirn tool slican 1usmus-ovim toolovima ali za cackanje po grafi. Imo ih je za polaris,navi1. CVim tool bude gotov postam ga vamo ako ce biti ljudi koji ce se htijeti igrati jer cini mi se da ovaj navi je odlican za OCanje https://www.igorslab.de/dram-einstellungen-de-luxe-alle-gddr6-timings-fuer-navi-karten-ab-sofort-frei-editierbar-red-bios-editor-update/
A sto ako ljudi ne klokaju?
Pa da, relativno vecina korisnika stavi samo i pici. I 6800xt i 6900xt su odlicne grafe, svatko ko moze platiti 6900xt bi toplo preporucio- Nova xx80TI ali od AMD-a
za sve koji sumnjaju u "AMD DLSS" AMD radi usko sa microsoftom u vezi svojeg rijesenja sto je odlicno znaci dx12 ultimate je AMD-ov API doslovno
https://news.xbox.com/en-us/2020/10/28/a-closer-look-at-how-xbox-series-xs-integrates-full-amd-rdna-2-architecture/
https://www.heise.de/news/KI-Upscaling-AMD-arbeitet-mit-Microsoft-an-Alternative-zu-Nvidias-DLSS-4942900.html
A i sony ima patent za to kojim cudom
opet pitanje, s kime da usporeduju 6800xt ako ne s svojom proslom najjacom grafom? ne razumijem te brat bratu niti malo a pokusavam, mogli su staviti i 6900xt da su htjeli...
Trebaju pokazati rast u odnosu na proslu seriju, jesu to napravili? Jesu i to uzevsi svoju najjacu trenutnu karticu vs trenutne ne najjace... ne vidim problem
ajmo ovako
6800xt ima 72cu, 5700xt ima 40cu - jel su to grafe za usporedbu?
samo zato jer u prošloj generaciji nisu imali grafu od 72cu (a nisu jer bi cuclala 500w) ne znači da je validna usporedba 'najjačih kartica' kao pokazatelj rasta perfomansi u odnosu na prošlu seriju
jel sad jasnije da je tvrdnja od 2x rasta perfomansi veća laž od jensenovih laži da je 2080 duplo brža od prošle generacije, jer je 3080 jača bar 60% od 2080, dok će 6700xt (koja je usporediva) biti tek možda 10% brža od 5700xt
Ti uspoređuješ broj CU-a, a normalno ti je uspoređivati 3080 sa 2080...one kao imaju jednak broj jezgri i tranzistora i svega...o čem pričaš ti čovječe daj se odluči...što se gleda da bi usporedba bila ispravna...broj jezgri ili cijena ili nešto treće
Usporediti međusobno AMD grafičke koje su hardverski potpuno drugačije "nije validno", ali istu stvar raditi sa nvidia grafičkim karticama je naravno prihvatljivo.
Pa nije to baš potapanje,ali je velika 500$ jeftinija šamarčina sa vratima od stare Škode.
Ja sam to očekival, ili znao sam(pitaš pa ne skitaš)zato sam prije osam dana napisal 5% brži od RTX 3090.
https://forum.bug.hr/forum/topic/graficke-kartice/amd-navi/265345.aspx?page=139&jumpto=6224182&sort=asc&view=flat
3900 je bagatela publici koja trazi CUDA-u i puno rama, vjeruj mi da takvih ima puno i cesto kupuju puno kartica. Tu AMD uopce ne igra...
Tocno, ali opet je 3090 preblizu 3080, a predaleko od A6000. Ne bih se iznenadio da izade nesto izmedu uskoro, a 3090 padne blize cijeni 6900 XT.
Iskreno volio bi vidjet neovisan test iste stvari jer mi se cini da DLSS OFF verzija ima puno vise motion blur-a koji zamucuje detalje, a sve detalje su lovili iz pokreta.
mda, jer je ekipa iz hw unboxed inače plaćena od nevidije za ovakve testove - link, pa žudiš jadan za neovisnim testovima
Ti uspoređuješ broj CU-a, a normalno ti je uspoređivati 3080 sa 2080...one kao imaju jednak broj jezgri i tranzistora i svega...o čem pričaš ti čovječe daj se odluči...što se gleda da bi usporedba bila ispravna...broj jezgri ili cijena ili nešto treće
Usporediti međusobno AMD grafičke koje su hardverski potpuno drugačije "nije validno", ali istu stvar raditi sa nvidia grafičkim karticama je naravno prihvatljivo.
o jebote, jel ovo više moguće, kao da pričam kineski
uspoređujem broj cu zato jer, za razliku od nevidije, amd nije ponudio veći broj tranzistora za istu cijenu - nevidija je nagurala veliki čip u manju klasu kojoj je cijena ostala ista, dakle 3080 ide za cijenu (msrp) 2080, zato se faking uspoređuje
s druge strane, ako 6800xt sa 72cu košta 650usd, 6800 sa 60cu košta 580usd, a 5700xt je imala msrp od 400usd, onda se ove dvije ne mogu uspoređivati i nasljednik će biti neka 6700xt sa 40cu i cijenom blizu 400usd koliko je imala 5700xt
znači ista cijena, isto ime s drugom brojkom na početku = nasljednik i usporedba, nevezano jel se performance boost dobio guranjem više tranzistora ili promjenom arhitekture, nas korisnike boli nižepotpisani
nemereš uspoređivat novu duplo skuplju grafu sa starom koja je usput i konstrukcijski duplo slabija i vikat - vidi kak su napredovali
da su gurnuli 72cu čip u cjenovno niži rang i da takvu prodaju za 400usd bez problema bi gledao usporedbu, kao kad su gurnuli dotad top čip 7970 u srednju klasu i nazvali novu grafu 280x
super, izbaciš potpuno novu 290 koja kida 780 i 780ti, stariji top čip gurneš u srednju gdje pokida 760 i 770 i nitko nema problema s tim
ali, faking po stoti put, nemereš grafu skoro duplo skuplju mjerit s onom jeftinijom iz prošle serije
evo, počet ću farbat ko rambox, valjda ćeš nekako shvatit