NVIDIA Ampere 30xx izdvojena tema

poruka: 11.274
|
čitano: 1.884.864
|
moderatori: DrNasty, pirat, XXX-Man, Lazarus Long, vincimus
+/- sve poruke
ravni prikaz
starije poruke gore
13 godina
offline
NVIDIA Ampere 30xx

AIO na grafama bi bez sumnje još digao cijenu, koje i ovako idu u nebo. 

 

A i nešto sumnjam da bi riskirali s puno Hybrid/AIO kartica, ipak je to još jedan novi mogući 'point of failure', a i ovako vodena hlađenja ne glase baš kao super izdržljiva i pouzdana. Sav potencijalan RMA rizik bi skupo došao proizvođače, dal bi te kartice izdržale 3 godine gare i u kojem postotku.

 

Makar sam razmišljam o G12+neki AIO na svoju 1080Ti.

Moj PC  
0 0 hvala 0
13 godina
offline
NVIDIA Ampere 30xx

Oko memorije će izgleda i bit sranje. 

 

 

2:13

Dery:Dobaci meni tvog delidera pa da vidiš kako mu cijena raste kao platini.Kad ga ja uštelim to će postat pravi i7 , ostavi se ocanja i plug and play-a, nije to za te.Ja sam izbrusio vještine na amdu
Moj PC  
3 0 hvala 1
11 godina
offline
NVIDIA Ampere 30xx

Ponasate se kao svaki taj yotuber kojega linkate ima doma primjerak rtx3090 😂😂😂😂

 

Nitko od njih nema nista niti znaju ista, a kao sto sam vec napisao....velike ribe koje mozda znaju nesto zasigurno to ne djele po internetima 🥂

Moj PC  
0 0 hvala 0
11 godina
offline
Re: NVIDIA Ampere 30xx
rambox kaže...

Pa zato jer po defoltu/navici AMD grafe žderu znatno više struje.Sad če situacija bit obrnuta, ali eto dosta ljudi i dalje ne vjeruje da je to moguče.

 čisto sumnjam da će biti obrnuta situacija, amd ako misli pratiti nevidiju itekako će morat žderat struju

pogotovo ako ubace rt hardver kako su najavljivali, nije to ništa bez potrošnje, a i velike radeonke redovno su bile žderačice struje i tu se ništa neće promijeniti jer i arhitektura neće doživjeti značajnije izmjene

 

uostalom, navi nije niti izbliza postigao sfikasnost kakvu su najavljivali - link

 

I've talked with industry sources over the last couple of weeks and was told AMD had not squeezed as much efficiency out of the new 7nm+ node as they hoped so this will cause some issues with power consumption.

 

5 godina
protjeran
offline
Re: NVIDIA Ampere 30xx
picajzla0707 kaže...

 čisto sumnjam da će biti obrnuta situacija, amd ako misli pratiti nevidiju itekako će morat žderat struju

pogotovo ako ubace rt hardver kako su najavljivali, nije to ništa bez potrošnje, a i velike radeonke redovno su bile žderačice struje i tu se ništa neće promijeniti jer i arhitektura neće doživjeti značajnije izmjene

 

uostalom, navi nije niti izbliza postigao sfikasnost kakvu su najavljivali - link

 

I've talked with industry sources over the last couple of weeks and was told AMD had not squeezed as much efficiency out of the new 7nm+ node as they hoped so this will cause some issues with power consumption.

 

 Isto ko sto je AMD napravio 64/128 cip i trosi manje struje u workloadu od novog 1090k...

Nema su tu sta reci vise, nvidija je na losijem/rastrosnijem 8 NM od samsunga jer jednostavno nemaju toliko mogucnosti narudjbe u TSMC-u radi AMD-a. Jedino radne grafe od nevidije ici ce na 7 NM tsmc.

A amd NEMA raytracing jezgre kao nevidija, rijesili su to pomocu softwer/hardware idejom gdje ce umjesto zasebnih jezgri TMU raditi to.

Ali sigurno da ce biti gladnije ako se suska o preko 80CU grafi, ali mislim da ce nvidia ipak biti gladnija cisto radi losijeg 8NM procesa.

11 godina
offline
NVIDIA Ampere 30xx

Ne moze se Nvidia usporedjivat sa Intelom nikako, Intel je spavao dugo godina a Nvidia je 2018 imala tech koji tek sada AMD pokusava dostic.

 

Moj PC  
0 0 hvala 0
16 godina
offline
Re: NVIDIA Ampere 30xx
picajzla0707 kaže...

 čisto sumnjam da će biti obrnuta situacija, amd ako misli pratiti nevidiju itekako će morat žderat struju

pogotovo ako ubace rt hardver kako su najavljivali, nije to ništa bez potrošnje, a i velike radeonke redovno su bile žderačice struje i tu se ništa neće promijeniti jer i arhitektura neće doživjeti značajnije izmjene

 

uostalom, navi nije niti izbliza postigao sfikasnost kakvu su najavljivali - link

 

I've talked with industry sources over the last couple of weeks and was told AMD had not squeezed as much efficiency out of the new 7nm+ node as they hoped so this will cause some issues with power consumption.

 

Uzmi u obzir ono kaj znamo, pa dalje lako moš procjenit kolko če bit rastrošne Desktop RDNA 2 grafe.Nedavo je bila hardverska prezentacije XBox X konzole, i to je cifra koja se spominje za potrošnju GPU hardvera.

 

- XBox X RDNA 2/52 CU/1800mhz, samo GPU dio vuče oko 130-140W

 

- RX 5700XT RDNA/40CU/1700mhz, po testovima grafa maksimalno može povuč/tipičan gejming oko 250W

 

https://twitter.com/_rogame/status/1295411437423210496

 

AMD,........is that Epyc or what?
Poruka je uređivana zadnji put pet 4.9.2020 16:39 (rambox).
11 godina
offline
Re: NVIDIA Ampere 30xx
HCgamingCRO kaže...

 Isto ko sto je AMD napravio 64/128 cip i trosi manje struje u workloadu od novog 1090k...

Nema su tu sta reci vise, nvidija je na losijem/rastrosnijem 8 NM od samsunga jer jednostavno nemaju toliko mogucnosti narudjbe u TSMC-u radi AMD-a. Jedino radne grafe od nevidije ici ce na 7 NM tsmc.

A amd NEMA raytracing jezgre kao nevidija, rijesili su to pomocu softwer/hardware idejom gdje ce umjesto zasebnih jezgri TMU raditi to.

Ali sigurno da ce biti gladnije ako se suska o preko 80CU grafi, ali mislim da ce nvidia ipak biti gladnija cisto radi losijeg 8NM procesa.

 to nije isto - brkaš kruške i jabuke

cpu odjel je napravio potpuno novu arhitekturu, radeonke su i dalje navi arhitektura

što se tiče rt sposobnosti, to tek trebamo vidjeti kako su 'riješili'

rambox kaže...

Uzmi u obzir ono kaj znamo, pa dalje lako moš procjenit kolko če bit rastrošne Desktop RDNA 2 grafe.Nedavo je bila hardverska prezentacije XBox X konzole, i to je cifra koja se spominje za potrošnju GPU hardvera.

 

- XBox X RDNA 2/52 CU/1800mhz, samo GPU dio vuče oko 130-140W

 

- RX 5700XT RDNA/40CU/1700mhz, po testovima grafa maksimalno može povuč/tipičan gejming oko 250W

 

 to bi bilo u redu kad amd ne bi morao te grafe nasviravati da bi se nosio s nevidijom, a kako već znamo - kad se radeonke nasviraju, potrošnja raste u nebo

i prije je amd imao energetski dosta efikasne grafe, ali pod uvjetom da ne budu prenasvirane - u konzolama nemaju konkurenciju, u grafama za desktop itekako imaju, tako da te podatke za rdna2 iz xboxa treba uzeti sa zrnom soli

Poruka je uređivana zadnji put sub 22.8.2020 20:11 (picajzla0707).
15 godina
offline
NVIDIA Ampere 30xx

 Znači dobitš i 12pin pcie kabel za grafu ili kako ju uopće spojit na napajanje? 

 

https://videocardz.com/newz/seasonic-confirms-nvidia-rtx-30-series-12-pin-adapter

Moj PC  
0 0 hvala 0
6 godina
offline
NVIDIA Ampere 30xx

cuo sam da ce biti PCIE 4.0, a sta mi koji imamo plocu s 3.0, hoce li to biti neka velika razlika u brzini ? 

 

pa necu samo radi graficke novu plocu kupovati, a i da hocu mislim da nema z390 ploce s 4.0 ili ? 

 

ubiti, bitno mi je da nemam bottleneck. 

Moj PC  
0 0 hvala 0
9 godina
online
Re: NVIDIA Ampere 30xx
_itsmoriarty kaže...

cuo sam da ce biti PCIE 4.0, a sta mi koji imamo plocu s 3.0, hoce li to biti neka velika razlika u brzini ? 

 

pa necu samo radi graficke novu plocu kupovati, a i da hocu mislim da nema z390 ploce s 4.0 ili ? 

 

ubiti, bitno mi je da nemam bottleneck. 

 

ma neće. Ništa, odnosno skoro ništa to neće utjecati na grafiku, fpsove itd itd.

to pomaže kod puno većeg prijenosa podataka, gaming nije ni blizu tome

 

edit: Kad kažeš PCIE to se odnosi na matičnu koliko ja znam

Poruka je uređivana zadnji put pon 24.8.2020 10:55 (Cansee).
16 godina
offline
NVIDIA Ampere 30xx

Eh, da, Ampere...

Dakle ovo što čitam je zanimljivo.

 

AMD ima navodno nVidia killer grafu u obliku Big Navi. Tako ju zovu već dvije godine navodno, no ne znamo ništa više od toga.

 

nVidia kao odgovor izbacuje seriju 3000 sa 3090 grafom sa posebnim konektorima (adapterima bolje reć) za napajanje jer će TDP bit 400W, znaći da će vuć i preko 500W , koliko shvaćam 3080Ti (ili barem jača 3080, još se ne zna što je ta misteriozna grafa sa 20GB ,naspram 3090 sa 24GB) neće puno manje.

Srećom dolazi zima, a ne ljeto, samo ko nema 800W+ napajanje nema što puno o njima razmišljat. Deklariranih 400W je sigurnoh 500W u "realnim uvjetima" o kojima uvijek pričamo, pogotovo nVidia fanboys koji to vole još malo OC-at.

 

E, sad... AMD od prije izlaska 5700XT leaka i spominje, više ili manje javno i direktno taj nVidia killer, al on nikako da dođe. Spominju i vrhunski RT, imamo i neke teasere, a opet ne znamo ništa o tome. AMD još nije leakao ni veličinu chipa, dizajn grafe, coolera, cijene, snagu, potrošnju... u biti ništa.

Ne vjerujem da u 9. mjesecu AMD može još kalkulirat sa dizajnom, jer u ovoj fazi ili imaju nešto ili treba čekat daljnjih pola godine da prilagode dizajn nečega što mora kroz 2-3 mjeseca bit dostupno kupcima.

 

Ili to, ili AMD ima toliko dobar proizvod da može parirati 3090 pa to skrivaju trenutno dok nvidia i formalno ne izađe sa karticama i cijenama. Nakon ovolike halabuke proz zadnjih godinu, godinu i pol, bilo bi zaista tragično da izađu sa nećim što neće moć parirat (slabijoj/jedinoj?) 3080 , a postoje još 2 jače kartice iznad nje.

 

Druga stvar, planira li i AMD izbaciti nešto što prelazi 300W ili 350W?! Hoćemo li imati zaista generaciju grafa sa ogromnim monolitnim chipovima koji troše 400W+ i funkcioniraju ko omanje peći u sobi?

 

 

 

Priča ide dalje... nVidia navodno ima GDDR6X koji em troši em se grije, pa su grafe ogromne. To je OK onima koji imaju velika kućišta, al trebat će i napajat i hladit.

nVidia navodno ima grafu koja će u potpunosti zagušiti PCIE 3.0 i potreban joj je 4.0 za optimalan rad (!?!?!? nije li 2080Ti bila na tek nešto više od 1/2 PCIe 3.0 x16? )

 

I zadnje, cijena... ni GPU ni RAM, ni hlađenje nisu jeftini, ali 1200$ ili 1400$ ili 2000$ MSRP za najjaći model!?

 

Još 7 dana, pa ćemo znat barem Ampere dio... ali AMD ovaj put bolje da ima neki odgovor, inače bude i ova halabuka zadnjih godinu dana, i oavakva panika u nvidiji i ove sulude grafe sa posebnim konektorima i 400W+ slučbene potrošnje djeluju suludo!

 

Poruka je uređivana zadnji put pon 24.8.2020 11:21 (Rhodin).
Moj PC  
0 0 hvala 0
15 godina
offline
Re: NVIDIA Ampere 30xx
rokonja kaže...

 Znači dobitš i 12pin pcie kabel za grafu ili kako ju uopće spojit na napajanje? 

 

https://videocardz.com/newz/seasonic-confirms-nvidia-rtx-30-series-12-pin-adapter

 Spaja se na 2x8 pin konektore. Možda grafičke budu imale uz taj 12 pin i još jedan dodatni 6 ili 8 pin. Jače grafičke...

13 godina
online
Re: NVIDIA Ampere 30xx
Rhodin kaže...

 

  Zaboravljaš da se AMD "zabavlja" nadolazećim novim konzolama.  Tu im je očito GPU fokus. Toga će se kroz koji mjesec prodavati na milijune, a znamo kakav CPU i GPU je unutra, ili ta ga APU (ajmo reći).

16 godina
offline
NVIDIA Ampere 30xx

Ma ne zaboravljam, jasno mi je da su konzole prioritet, sve je to u redu, ali sa jedne strane nVidia izbacuje GPU sa 400W deklariranom potrošnjom i posebnim konektorom koji to napaja, kao odgovor na nešto što AMD još nije ni otprilike predstavio. Da se ne desi scenarij "tresla se brda, rodio se niš"

 

 

Ja nisam toliko uvjeren da je 400W GPU pametna stvar. 400W napaja serverčinu, a ne GPU - volumenom je ko 2.5 2080Ti, o čemu pričamo? Ima gaming konfiguracija koje troše toliko, cca. Doslovce potrošnja struje ulazi u kalkulaciju cijene računala za igru. Još ubaciš neki od Intel procesora 125W deklarirane , a povuče osjetno preko 150W realne potrošnje , moš računat 1250W napajanje i kilovat potrošnje na sat sa monitorom i svim ostalim. Vikend igranja 50kn struje.

 

Ne kažem da je drugi tabor puno bolji... ali 400W GPU... deklarirane potrošnje.

 

Treba to i hladiti... Treba prostor oko toga hladiti.

 

 

Moj PC  
1 0 hvala 0
5 godina
neaktivan
offline
NVIDIA Ampere 30xx

Mislim da AMD ceka da nvidia postavi cijene da onda oni znaju kako pozicionirati svoje kartice. Jer mali broj ljudi ide na top performanse po bilo kojoj cijeni, vecina ce gledati da za odredene pare dobije najbrzu karticu. Cak i da AMD nema konkurenciju 3080, prodavati ce dosta kartica ako za manje pare ponude konkurenciju 3070. Ako pretpostavimo da nemaju konkurenciju 3080 onda im marketing malo znaci jer iako svatko gleda kroz novcanik kada kupuje, dok se pise o novome proizvodu na internetu, pise se samo o tome tko je najbrzi.

 
0 0 hvala 0
11 godina
offline
NVIDIA Ampere 30xx

Ne bih se uopce iznenadio da AMD izbaci 20+ TF GPU ali uzevsi u obzir kakav kaos su im driveri kroz cjelu dosadasnju Navi generaciju....ja osobno kroz takvo nesto ne zelim niti bih prolazio.

Moj PC  
3 0 hvala 0
16 godina
offline
NVIDIA Ampere 30xx

AMD mora izbaciti 10% jaču grafu od bilo koje nvidijine kojoj želi konkurirati. To je cca omjer koliko bolji rezultat nVidia zbog partnerskog odnosa i boljih drivera ostvaruje sa slabijom grafom i trikovima poput napredni AA, ili trenutni DLSS. Možda sa DLSS i nešto više.

 

Sa druge strane teško je očekivati da će AMD izbaciti na sličnoj arhitekturi (7nm+ TMSC vs 8nm Samsung) nešto toliko optimalnije potrošnje da će imati sa 300-350W (10% ) jaču grafu od one koju nVidia izbacuje sa 400W deklarirane potrošnje.

 

A onda kreću svi "sitrni" problemi sa driverima.

 

 

 

 

Moje pitanje je što nVidiji treba grafa deklarirane potrošnje 400W i protiv čega se njome točno bore? nVidia to može izbaciti, ali ima smisla samo je pod prisilom i kao odgovor na nešto iz drugog tabora, inače ne vidim smisla. Ta grafa će imati NEKAKVIH problema sigurno, pitanje smao kakvih i koliko. Ne sjećam se baš grafa koje su imae preko 300W... možda Titan Z ili ovako nešto, ali 400W ne nova psihološkla granica koju nisam siguran da je trebalo prelazit, omdah na releaseu i naočigled ničim izazvano.

Moj PC  
0 0 hvala 0
13 godina
offline
Re: NVIDIA Ampere 30xx
itomic009 kaže...
Rhodin kaže...

 

  Zaboravljaš da se AMD "zabavlja" nadolazećim novim konzolama.  Tu im je očito GPU fokus. Toga će se kroz koji mjesec prodavati na milijune, a znamo kakav CPU i GPU je unutra, ili ta ga APU (ajmo reći).

AMD je potvrdio da će RDNA 2 biti vani za desktop prije nego kaj izađu konzole, a iz Sonyja vele da PS5 izlazi ove godine usprkos cijelom kaosu...Znači to bi trebalo biti uskoro, a AMD šuti, kod Nvidija sve pljušti od leakova i slika. Sumnjam da će AMD imati s čime parirati Nvidiji u high-end segmentu (3080 i više), mislim da će ponuditi karticu koja je 2080Ti level po performansama, normalno za puuuno pristupačniju cijenu.

16 godina
offline
Re: NVIDIA Ampere 30xx
Rhodin kaže...

AMD mora izbaciti 10% jaču grafu od bilo koje nvidijine kojoj želi konkurirati. To je cca omjer koliko bolji rezultat nVidia zbog partnerskog odnosa i boljih drivera ostvaruje sa slabijom grafom i trikovima poput napredni AA, ili trenutni DLSS. Možda sa DLSS i nešto više.

 

Sa druge strane teško je očekivati da će AMD izbaciti na sličnoj arhitekturi (7nm+ TMSC vs 8nm Samsung) nešto toliko optimalnije potrošnje da će imati sa 300-350W (10% ) jaču grafu od one koju nVidia izbacuje sa 400W deklarirane potrošnje.

 

A onda kreću svi "sitrni" problemi sa driverima.

 AMD će sigurno imati manju potrošnju, ali nekako sumnjam da će imati bržu grafu od Nvidia. Ja osobno očekujem da će Nvidia biti 10% brža od AMD.

Ono što je velika predonst kod Nvidia to što ima taj DLSS.

BF3:fluffy_inside
9 godina
online
Re: NVIDIA Ampere 30xx
Wolf88 kaže...
Rhodin kaže...

AMD mora izbaciti 10% jaču grafu od bilo koje nvidijine kojoj želi konkurirati. To je cca omjer koliko bolji rezultat nVidia zbog partnerskog odnosa i boljih drivera ostvaruje sa slabijom grafom i trikovima poput napredni AA, ili trenutni DLSS. Možda sa DLSS i nešto više.

 

Sa druge strane teško je očekivati da će AMD izbaciti na sličnoj arhitekturi (7nm+ TMSC vs 8nm Samsung) nešto toliko optimalnije potrošnje da će imati sa 300-350W (10% ) jaču grafu od one koju nVidia izbacuje sa 400W deklarirane potrošnje.

 

A onda kreću svi "sitrni" problemi sa driverima.

 AMD će sigurno imati manju potrošnju, ali nekako sumnjam da će imati bržu grafu od Nvidia. Ja osobno očekujem da će Nvidia biti 10% brža od AMD.

Ono što je velika predonst kod Nvidia to što ima taj DLSS.

 

po onome što sam čuo i vidio taj DLSS 2.0 je gamechanger

13 godina
offline
Re: NVIDIA Ampere 30xx
Wolf88 kaže...
Rhodin kaže...

AMD mora izbaciti 10% jaču grafu od bilo koje nvidijine kojoj želi konkurirati. To je cca omjer koliko bolji rezultat nVidia zbog partnerskog odnosa i boljih drivera ostvaruje sa slabijom grafom i trikovima poput napredni AA, ili trenutni DLSS. Možda sa DLSS i nešto više.

 

Sa druge strane teško je očekivati da će AMD izbaciti na sličnoj arhitekturi (7nm+ TMSC vs 8nm Samsung) nešto toliko optimalnije potrošnje da će imati sa 300-350W (10% ) jaču grafu od one koju nVidia izbacuje sa 400W deklarirane potrošnje.

 

A onda kreću svi "sitrni" problemi sa driverima.

 AMD će sigurno imati manju potrošnju, ali nekako sumnjam da će imati bržu grafu od Nvidia. Ja osobno očekujem da će Nvidia biti 10% brža od AMD.

Ono što je velika predonst kod Nvidia to što ima taj DLSS.

 Na čemu baziraš te pretpostavke ?

Dery:Dobaci meni tvog delidera pa da vidiš kako mu cijena raste kao platini.Kad ga ja uštelim to će postat pravi i7 , ostavi se ocanja i plug and play-a, nije to za te.Ja sam izbrusio vještine na amdu
16 godina
offline
NVIDIA Ampere 30xx

Ne znam... ne vjerujem da je nVidia zaista ničim izazvana išla na GPU od 400W , a da taj GPU nije odgovor na nešto što je nVidia saznala iz suprotnog tabora.

Drugim riječima vjerujem da i AMD ima konja za utrku, pitanje samo dal taj konj također ždere 400W.

 

Ili to, ili nakon svih silnih obečanja od AMD-a da imaju nVidia killera, nVidia odgovara sa karticom koja je 20-30% brža od onoga što AMD nudi, samo da mogu reć "nVidia killer? We certainly don't think so".

 

Također mi je interesantan osobno segment 3070-3080, ovisno o pokazanom, cijenama, suprotnom taboru... Imam 1440p 144Hz monitor sa freesyncom, treba ga iskoristit, i nadam se lijepoj RTX grafici na njemu. jače grafe su valjda 4K grafe, nadam se 3080, koji je jači od 2080Ti po najavama, da će to fino gurat.

Moj PC  
0 0 hvala 0
14 godina
protjeran
offline
NVIDIA Ampere 30xx

4 godine stari 14nm nvidija cipovi imaju perf/watt na razini 7nm Navija i vi sad tu idete pricat o tome dal ce nvidija sa 8nm cipovima i dalje imati bolji perf/watt?

 

Kakve crne AMD kartice, to je roba za mazohiste, koliko god su cpu-ovi izvrsni, nvidija je jos uvijek predaleko na gpu podrucju...

Moj PC  
3 0 hvala 1
10 godina
offline
NVIDIA Ampere 30xx

Jel se netko sjeća prije 2 godine kad su predstavili Turning seriju koliko je trebalo da nakon predstavljanja dođu AIB modeli? Prodao bih svoju 1080TI sada ali nebih htio biti bez kompa idućih mj dana 

Moj PC  
0 0 hvala 0
11 godina
offline
Re: NVIDIA Ampere 30xx
Dobro, treba računati na veliku količinu jako žednog ddr6x vrama i možda nekoliko puta više rt i tensor jezgri. Nije sve samo u klasičnom dijelu gpu-a.
Ali da će amd biti efikasniji, to sumnjam, osim ako se zadrže na sporijem i manje žednom vramu i ako ne ubace neki rt hardver. Ove priče kako će rt rješavati uz pomoć klasičnih jezgri zvuči kao polovično rješenje, jer onda gube na perfomansama, a nemaju nit dlss da to kompenzira
13 godina
online
Re: NVIDIA Ampere 30xx

 Imat će i AMD svoju verziju "DLSS"-a, to se ne sekiraj. Tako da to neće biti nikakava prednost. 

11 godina
offline
Re: NVIDIA Ampere 30xx
itomic009 kaže...

 Imat će i AMD svoju verziju "DLSS"-a, to se ne sekiraj. Tako da to neće biti nikakava prednost. 

Na cemu baziras svoje misljenje koje iznosis kao cinjenicu?

Za sada je pretpostavka da RDNA2 nema pandan Tensor jezgrama i da ce morat svoju varijantu DLSSa odradit preko shadera.

Nvidia je to radila sa DLSS 1.0 i zna se kakva je razlika DLSS 1.0 na shaderima vs DLSS 2.0 na Tensor jezgrama. 

16 godina
offline
Re: NVIDIA Ampere 30xx
itomic009 kaže...

 Imat će i AMD svoju verziju "DLSS"-a, to se ne sekiraj. Tako da to neće biti nikakava prednost. 

 Neslužbeno tek sa NAVI 3 dolazi AMD-ov DLSS

BF3:fluffy_inside
13 godina
offline
Re: NVIDIA Ampere 30xx
MEGATAMA kaže...
itomic009 kaže...

 Imat će i AMD svoju verziju "DLSS"-a, to se ne sekiraj. Tako da to neće biti nikakava prednost. 

Na cemu baziras svoje misljenje koje iznosis kao cinjenicu?

Za sada je pretpostavka da RDNA2 nema pandan Tensor jezgrama i da ce morat svoju varijantu DLSSa odradit preko shadera.

Nvidia je to radila sa DLSS 1.0 i zna se kakva je razlika DLSS 1.0 na shaderima vs DLSS 2.0 na Tensor jezgrama. 

 To sam i ja gore pitao lika.

 

Info vade direkt iz vrutka mašte.

 

Ono s AMDovom efikasnošću je krinđ samo takvi. 

Dery:Dobaci meni tvog delidera pa da vidiš kako mu cijena raste kao platini.Kad ga ja uštelim to će postat pravi i7 , ostavi se ocanja i plug and play-a, nije to za te.Ja sam izbrusio vještine na amdu
Poruka je uređivana zadnji put pon 24.8.2020 15:53 (DarthMarkus).
Nova poruka
E-mail:
Lozinka:
 
vrh stranice