Nemoj smetnut s uma da u EU to rijetko prati ovo u dolarima, a sad će i teže kad je dolar trenutno jači od eura, ako bi kojim čudom 6600xt/6650xt ipak pala na 300e to bi bila dobra cijena, posebno ako rtx 3060 ostane oko 400 ili neznatno padne (znala je povremeno pasti na 380), ali za sad je i dalje zacementirana na 400 (mindfactory), premda je najeftinija 6600 (powercolor i xfx) pala na 270 (bar trenutno), ne znam dal na ovoj tablici fali 6600 ili se radi o tipfeleru gdje je navedena 6600xt jer nema smisla da je tolika razlika između 6600xt i 6650xt kad se radi ustvari o istoj kartici...
Rasprava o grafičkim karticama
- poruka: 3.678
- |
- čitano: 793.556
- |
- moderatori:
DrNasty, pirat, XXX-Man, Lazarus Long, vincimus
Veći dobavljači imaju na lageru još tih AMd kartica kupljenih po starim cijenama, zašto mislite da će oni zalihe, npr. rx 6700 xt koja je kod nas najeftinija 4000 kn, spustiti na 3 tisuće ?!
Ma neće, riješit će se starih zaliha po sadašnjim cijenama.
Da li će nabavljati nove komade starih modela po nižim cijenama, ne vjerujem, a uz to odmah prodavati konkurentne iz nove serije ?!
Ma, to se tako ne radi kod nas, niti se ikad radilo.
Možda u USA da, ali kod nas ne.
4 slot....koliko ce te grafe izbacivat topline u kucista kada moraju imat takve nenormalno ogromne coolere?....
Sve vise me zanima situacija sa RDNA3 sto se svega ovoga tice....ne planiram mjenjat ovu moju rtx3080 ali me zanima kako ce se odvijat iduce 2 godine na trzistu grafa.
Uopce nije lose ako ce za tu cijenu doc u rang RTX3070 kada se driveri posteno ispeglaju .
Sama grafa mi je preljepa a ni kutija u kojoj dolazi uopce nije losa.
I najbitnije od svega...sada ce se tri korporacije borit za moje novce🥂🥂🥂
https://wccftech.com/intel-arc-a770-and-a750-graphics-cards-landing-in-shelves-on-october-12th/
Edit
https://wccftech.com/intel-xess-debuts-in-shadow-of-the-tomb-raider-ahead-of-arc-a770-launch/
Arc A770 usporedba sa rtx3060 ray trace negdje je jača jedna negdje druga. Daleko je to od rtx3070. Možda u rasteru bude?
Arc A770 usporedba sa rtx3060 ray trace negdje je jača jedna negdje druga. Daleko je to od rtx3070. Možda u rasteru bude?
Oslanjaju se na optimizaciju kroz drivere sto u biti stoji jer znamo da nam i amd i nvidia na svakoj novoj seriji/arhitekturi donesu poprilican boost kroz optimizaciju driverima pa je tako sigurno slucaj i kod Intela koji tek krece u dedicated gpu vode pa su sigurno u gadnom zaostatku sa driverima.
Ovaj dio zvuci obecavajuce
As far as the raster performance goes, the A770 will be able to beat out the RTX 3060 on launch and will have fine wine drivers. As AMD enthusiasts would know, what that means is that the hardware is capable of vastly more performance and as Intel gets a hang of things, they should expect the performance to significantly improve and approach or even beat the RTX 3070. In fact, Intel was able to achieve a 25% performance uplift in Ghostwire Tokyo just by optimizing the drivers which should show users just how much potential remains to be unlocked in software.
I 329 dolara mi djeluje posteno za ovakve specifikacije
The Intel Arc A770 is the flagship GPU of Intel’s first ever discrete GPU lineup. It features 32 Xe cores (which translates to 4096 ALUs) and 32 ray tracing units along with 512 XMX engines. The GPU clock is 2.1 GHz out of the box with a total board power of 225W. It will be paired with 16GB of GDDR6 vRAM, which should be more than enough for modern games. The GPU core is fed with a 256 bit bus and can sustain up to 560 GB/s of bandwidth. It will also feature XeSS upscaling technology and utilize the PCIe 4.0 standard.
Edit
Takodjer je pomalo nevjerovatno da imaju spreman svoj dlss day one i da daje tako dobre rezultate.
https://wccftech.com/intel-xess-debuts-in-shadow-of-the-tomb-raider-ahead-of-arc-a770-launch/
Sa jedne strane imamo AMD i Intel koji svoje upscale tehnologije nude svima a sa druge strane Nvidiu koja novom verzijom vise ne podrzava niti svoju prijasnju seriju a kamoli druge arhitekture 🤣
Zanimljivo će biti pratiti tržište narednih par mjeseci...po meni najgluplja opcija je kupiti Nvidiu po izlasku, eventualno tek tamo za godinu dana kada bude svega na lageru,a do onda se i cijene iskristaliziraju pa budemo znali na čemu smo.
Zanimljivo će biti pratiti tržište narednih par mjeseci...po meni najgluplja opcija je kupiti Nvidiu po izlasku, eventualno tek tamo za godinu dana kada bude svega na lageru,a do onda se i cijene iskristaliziraju pa budemo znali na čemu smo.
Mislim da jos ovu seriju Nvidia ima "free" pass ali na iducoj smjeni generacija....AMD kako se cini dugo nije bio u boljoj poziciji....imaju love da ulazu u razvoj koliko nisu imali nikad prije,Intel je vec u startu ulozio milijarde i kako se cini imaju izvrstan proizvod u tom cijenovnom rangu.
Nvidiji je monopol udario u glavu ali vidimo na primjeru Intela kako se moze desit nesto nezamislivo gdje ne da je AMD dostigao titana nego ga i prekazio i Intel se vraca u utrku tek sada...godine i godine kasnije.
Ja osobno mogu dat svoje novce bilo kome tko mi pokaze da je najbolji za ono sto ja trebam,jbe mi se jel pise Nvidia,AMD ili Intel na kutiji.
Tko ponudi bolje za lovu to kupujem.
Ako je to mid range 6750xt je kod nas best buy. Za high end bi opet isao na 3080
Sa jedne strane imamo AMD i Intel koji svoje upscale tehnologije nude svima a sa druge strane Nvidiu koja novom verzijom vise ne podrzava niti svoju prijasnju seriju a kamoli druge arhitekture 🤣
To sta sa novom verzijom nije podrzano nije upscalling.... Upscalling je isti na 3xxx i 4xxx...
Sa jedne strane imamo AMD i Intel koji svoje upscale tehnologije nude svima a sa druge strane Nvidiu koja novom verzijom vise ne podrzava niti svoju prijasnju seriju a kamoli druge arhitekture 🤣
To sta sa novom verzijom nije podrzano nije upscalling.... Upscalling je isti na 3xxx i 4xxx...
Cekaj ti si sad u svojoj glavi razdvojio DLSS 3 na elemente pa jedan bude dostupan na 2xxx/3xxx drugi ne itd....to sigurno ne funkcionira tako.
Interpolacija iliti umjetno stvaranje frejmova sigurno donosi artefakte i input lag....artefakte ce valjda rijesavat upscale algoritam koji kreira tu sliku u konacnici dok ce input lag snizavat reflex.
Barem ja tako mislim,ne moram bit u pravu naravno.
Sa jedne strane imamo AMD i Intel koji svoje upscale tehnologije nude svima a sa druge strane Nvidiu koja novom verzijom vise ne podrzava niti svoju prijasnju seriju a kamoli druge arhitekture 🤣
To sta sa novom verzijom nije podrzano nije upscalling.... Upscalling je isti na 3xxx i 4xxx...
Cekaj ti si sad u svojoj glavi razdvojio DLSS 3 na elemente pa jedan bude dostupan na 2xxx/3xxx drugi ne itd....to sigurno ne funkcionira tako.
Interpolacija iliti umjetno stvaranje frejmova sigurno donosi artefakte i input lag....artefakte ce valjda rijesavat upscale algoritam koji kreira tu sliku u konacnici dok ce input lag snizavat reflex.
Barem ja tako mislim,ne moram bit u pravu naravno.
DLSS 3 ima isti upscalling algoritam kao i DLSS 2, sta je tu tesko za shvatit? Imat ces identican upscalling, generiranje frameova i eventualni artefakti su nesto drugo.
Pogledajte na 10:15.......od kada dlss 2.0 na performance dlss dize samo 7-8% performanse?.
Kaze vjerovatno cpu bottleneck,ako je sudit po ovome danasnji top end procesori su postali usko grlo za ultra visoki framerate u modernim igrama.
Edit
Koliko bi onda bio boost na quality dlss?...posto ide quality,balanced,performance,ultra performance.
Pogledajte na 10:15.......od kada dlss 2.0 na performance dlss dize samo 7-8% performanse?.
Kaze vjerovatno cpu bottleneck,ako je sudit po ovome danasnji top end procesori su postali usko grlo za ultra visoki framerate u modernim igrama.
Edit
Koliko bi onda bio boost na quality dlss?...posto ide quality,balanced,performance,ultra performance.
Sta cu gledat youtube klipove kad i onako koristim DLSS pa znam da je na 4K ubrzanje barem 60-70% a ne 7-8%....
Igram Deathloop, koristim Performance DLSS jer je razlika u odnosu na Quality nikakva, sa prosjecnih ~65fps native 4K na ~115-120fps prosjek...
Edit:
Pogledao clip, cpu je tu gadno usko grlo, u tom slucaju ukljucis DLAA i imas ultimativnu kvalitetu prikaza...
Bas me zanima koliki ce bit tvornicki OC.
https://wccftech.com/intel-arc-a770-arc-a750-custom-graphics-cards-from-asrock-gunnir-displayed/
DLSS koliko je koristan, toliko i više opterećuje grafičku karticu, može i smanjiti FPS, iako ga uglavnom povećava uz svoje ostale mogućnosti poboljšanja kvalitete izgleda igre.
Kako to mislis?
Pa dlss dize fps i smanjuje opterecenje grafe u tom procesu.
Pa dlss dize fps i smanjuje opterecenje grafe u tom procesu.
Imaš malo dolje u tekstu objašnjeno... https://hr.digitalentertainmentnews.com/what-is-nvidia-dlss-454066
Pa dlss dize fps i smanjuje opterecenje grafe u tom procesu.
Imaš malo dolje u tekstu objašnjeno... https://hr.digitalentertainmentnews.com/what-is-nvidia-dlss-454066
Iako je to idiotski google translate clanak, da si ga citao s razumijevanjem, ne bi napisao onu glupost.
Dio gdje pise da povecava opterecenje na grafu se odnosi na raytracing a ne na DLSS. DLSS uvijek ubrzava izvodjenje, osim ako je cpu bottleneck, onda ti treba brzi cpu...
Zašto arc izlazi isti datum kad duboko grlo? Žele možda da im sramota prodje neprimjetno jer će fokus biti na 4090.
Zašto arc izlazi isti datum kad duboko grlo? Žele možda da im sramota prodje neprimjetno jer će fokus biti na 4090.
Tesko da ce svi trcat u trgovine kupovat rtx4090,vani nije bajna situacija kao u Hr tojest na BUG forumu.
Dio gdje pise da povecava opterecenje na grafu se odnosi na raytracing a ne na DLSS. DLSS uvijek ubrzava izvodjenje, osim ako je cpu bottleneck, onda ti treba brzi cpu...
Pa to je računalo firme, tako je podešeno, Chrome sve prevodi i nemoš ga vratiti na normalno...
Zašto arc izlazi isti datum kad duboko grlo? Žele možda da im sramota prodje neprimjetno jer će fokus biti na 4090.
Tesko da ce svi trcat u trgovine kupovat rtx4090,vani nije bajna situacija kao u Hr tojest na BUG forumu.
Nije pametno ni za arc trčati jer će biti porođajnih muka i dječjih bolesti. Dobra ti je ova kao jači smo i od amera, ovde će se kampirat ispred dućana dok će vani bježati od dućana.
Death Stranding sada podrzava DLSS 2.0,FSR 2.0 i Intel XeSS.
Nvidija je pobjednik i kvalitetom i performansama ALI.....XeSS se ovdje ne vrti na Intel gpu pa to sigurno radi bolje a AMD je cisto softversko rijesenje za sada.
Takodjer Nvidija je imala doslovno godine za razvoj dok su se FSR 2.0 i XeSS tek pojavili.
Bas me zanima AMD i Intel odgovor na framerate booster.
U svakom slucaju sve ovo je samo plus za nas gamere.
da sad kupujem graficku, piknuo bih GTX 1080 za 1000kn i sa FSR 2.0 se igrao sljedece 3 godine