Nvidia GTX 560 i 580
- poruka: 761
- |
- čitano: 175.742
- |
- moderatori:
DrNasty, pirat, XXX-Man, Lazarus Long, vincimus
dado8, evo i anandtech dokazuje ono što ja pričam, jer je HD 5970 jedva 25% brža od HD 5870 u BC2.
A nezaboravimo da su unutra dva čipa HD 5870 (doduše downlclockirana, ali nebitno jer bi trebalo barem biti 50-70% skaliranja).
Trunku više? Slabija je od dvoglave crvene neosjetno, još će to driveri novi popravit, i ako dođe 100kn jeftinije bio bi lud onaj koji bi išo na hd 5970.
dado8, evo i anandtech dokazuje ono što ja pričam, jer je HD 5970 jedva 25% brža od HD 5870 u BC2.
A nezaboravimo da su unutra dva čipa HD 5870 (doduše downlclockirana, ali nebitno jer bi trebalo barem biti 50-70% skaliranja).
To je do igre gotovo sigurno. Nema šanse da je svugdje tako, i da dodavanjem druge dobiješ 25% gore u odnosu na single 5870. Ne vjerujem ni da je stvar drivera, imali su cijelu seriju 4 i 5 da to poprave,3 neću ni spominjati sa 3870x2 i počecima.
Gotovo sam siguran da je isključivo do igre, sa nekim karticama skalira loše,sa nekima bolje. Treba više primjera,ali koliko sam gledao 5770 CF i 5850 CF, odlično skaliraju, oko 70% čak.
Eventualno možemo govoriti o jačini, pa ispada da sa jačim karticama slabije skalira, jer su jednostavno - prejake. I jedna 5870 je životinja, a kamoli dvije. Jasno da neće biti 70% gore, niti u jednoj igri.
Ali baš opet - 25% u svakoj, iz jedne krajnosti u drugu,teško. Vjerojatno se čisto radi o tome da skaliranje opada sa jačinom grafa u pojedinim naslovima. Ne znam na šta bi sličio CF 5970 onda.


evo još malo preformasi
ovako je preglednije
GTX580 Vs GTX480
AvP2 - 480/580
1680 - 17.6%
1920 - 16.5%
2560 - 14%
BFBC2 - 480/580
1680 - 18.2%
1920 - 14.4%
2560 - 14.6%
BattleForge - 480/580
1680 - 17.2%
1920 - 11.9%
2560 - 17%
COD4 - 480/580
1680 - 7.3%
1920 - 17.3%
2560 - 16.5%
Call of Juarez 2 - 480/580
1680 - 15.9%
1920 - 17.2%
2560 - 18%
Crysis - 480/580
1680 - 15.4%
1920 - 18.1%
2560 - 18.3%
DoW2 - 480/580
1680 - 19.4%
1920 - 19.3%
2560 - 20.6%
Dirt2 - 480/580
1680 - 16.9%
1920 - 17.7%
2560 - 19.8%
FC2 - 480/580
1680 - 14.3%
1920 - 15.9%
2560 - 17.4%
HAWX - 480/580
1680 - 22.7%
1920 - 22.7%
2560 - 28.7
Metro 2033 - 480/580
1680 - 14.1%
1920 - 14.3%
2560 - 17.8%
Riddick: Dark Athena - 480/580
1680 - 19.7%
1920 - 23.9%
2560 - 25.9%
S.T.A.L.K.E.R. - Clear Sky - 480/580
1680 - 8.7%
1920 - 13.9%
2560 - 15.9%
Supreme Commander 2 - 480/580
1680 - 0.8%
1920 - 1.8%
2560 - 6.4%
Unreal Tournament 3 - 480/580
1680 - 9.9%
1920 - 12.5%
2560 - 15.5%
WoW - 480/580
1680 - 3.3%
1920 - 2.7%
2560 - 0.8%
3DMark03 - 480/580
1680 - 13.2%
1920 - 14.1%
2560 - 15.8%
3DMark05 - 480/580
1680 - 2.1%
1920 - 3.6%
2560 - 7.7%
3DMark06 - 480/580
1680 - 4.2%
1920 - 5%
2560 - 10.6%
Unigine Heaven 2.0 - 480/580
1680 - 19.5%
1920 - 20.6%
2560 - 22.8%
dado8, evo i anandtech dokazuje ono što ja pričam, jer je HD 5970 jedva 25% brža od HD 5870 u BC2.
A nezaboravimo da su unutra dva čipa HD 5870 (doduše downlclockirana, ali nebitno jer bi trebalo barem biti 50-70% skaliranja).
BC2 ocito ne lezi HD5xxx crossu
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
haha koja komedija
In order to stay within the 300 W power limit, NVIDIA has added a power draw limitation system to their card. When either Furmark or OCCT are detected running by the driver, three sensors measure the inrush current and voltage on all 12 V lines (PCI-E slot, 6-pin, 8-pin) to calculate power. As soon as the power draw exceeds a predefined limit, the card will automatically clock down and restore clocks as soon as the overcurrent situation has gone away. NVIDIA emphasizes this is to avoid damage to cards or motherboards from these stress testing applications and claims that in normal games and applications such an overload will not happen. At this time the limiter is only engaged when the driver detects Furmark / OCCT, it is not enabled during normal gaming. NVIDIA also explained that this is just a work in progress with more changes to come. From my own testing I can confirm that the limiter only engaged in Furmark and OCCT and not in other games I tested. I am still concerned that with heavy overclocking, especially on water and LN2 the limiter might engage, and reduce clocks which results in reduced performance. Real-time clock monitoring does not show the changed clocks, so besides the loss in performance it could be difficult to detect that state without additional testing equipment or software support.
al ga opet kemijaju, u Fumarku potrosnja dodje do 304W a onda ju limiter sreze - toliko o optizimiranju potrosnje
Potrošnja je solidno optimizirana, jer GTX 580 je u prosjeku jača 15-ak % od GTX 480, i radi na većem taktu od GTX 480, površina čipa je tek 6mm2 manja - Dakle ista ili čak manja potrošnja uz veće perfomanse u debelo bolje hlađenje.
Solidan posao.
Ne bi znao, u nekim igrama ( Batman AA npr.) skaliranje je bolje od 25%,čisto me taj postotak zaprepastio. Evo jedna i dvije 5850.
http://www.legitreviews.com/article/1097/4/
142 fps single 5850
251 fps CF
******************
1920x1200 reza
170 fps single 5870
278 fps CF 5870
Resident Evil 5 engine također,vrlo solidno skaliranje.
http://www.legitreviews.com/article/1097/7/
EDIT : Evo i popularni 3D Mark Vantage,gotovo duplo. Što bi,bar na papiru i trebalo biti,da nije brljotina ili u igrama,ili driverima kako sugerirate.
http://www.legitreviews.com/article/1097/9/
Jednostavno driveri nisu sređeni za neke igre i to je jedini mogući zaključak.
dado8, po tvojoj teorij, ATi je platio DICE-u da optimiziraju igru za njihove grafe (jer se nalazi u programu), pa ako je platio zašto se bolje skalria na nvidij?
Jednostavno driveri nisu sređeni za neke igre i to je jedini mogući zaključak.
dado8, po tvojoj teorij, ATi je platio DICE-u da optimiziraju igru za njihove grafe (jer se nalazi u programu), pa ako je platio zašto se bolje skalria na nvidij?
to moras pitat njih
Očito opet ona moja teorija da tu nema plaćanjai

Platio da je skaliranje bolje na konkurencij :)?
Al ja osobno nevijerujem u Fer play, ima tu svakakvih smicalica.

morti more bit da nisu piknuli dovoljno soldi pa su im samo popeglali single GPU
Uostalom Single GPU je najbitniji.

Nije tu ništa plaćeno, BC2 se jednostavno izvodi bolje što igra bolje leži ATi-u (niska razina teselacije) i jednostavno radi nešto bolje iako ne puno.
Nije tu ništa plaćeno, BC2 se jednostavno izvodi bolje što igra bolje leži ATi-u (niska razina teselacije) i jednostavno radi nešto bolje iako ne puno.
pa na gtx580 ide bolje nego na 5970

Nije tu ništa plaćeno, BC2 se jednostavno izvodi bolje što igra bolje leži ATi-u (niska razina teselacije) i jednostavno radi nešto bolje iako ne puno.
vidim da ti konstantno tvrdis da je to tako, da je fair play sto se toga tice..
istina je da se kod ne moze napravit da prosto, ako ubacis nvidiu ili amd, da radi bolje ili losije, ali se moze igra napraviti u tom smijeru da bolje iskoristava resurse koje nudi jedna ili druga graficka, a da na kraju izgleda isto dobro..
recimo eto, BC2 bolje lezi AMD-u jer ima slabu teselaciju, i vjerovatno iskoristava bolje resurse koje AMD kartice imaju, a nvidije nemaju, isto vrijedi i obrnuto, jer se kartice razlikuju po mnogo toga
EDIT: nije ni toliko bitno primjer (jer je mozda netacan), stvar je u tome da se lahko moze igra optimizirati da radi bolje na drugoj grafickoj, samo ako se stvari realiziraju tako da na drugaciji nacin koriste resurse..dobra grafika u igri se moze postic povecanjem nivoa teselacije (sto ide nvidiji u korist) ili na neki drugi, tradicionalniji nacin (sto recimo ide AMD-u u korist) itd..

Nije tu ništa plaćeno, BC2 se jednostavno izvodi bolje što igra bolje leži ATi-u (niska razina teselacije) i jednostavno radi nešto bolje iako ne puno.
pa na gtx580 ide bolje nego na 5970
Mozda je stvar i novih drivera.
Po forumima su se ljudi masovno zalili da Fermi kartice imaju jako nisak usage u BFBC2 (na nekih 40-50%) posebno sa malo starijim procesorima.
Ne igram BFBC2, ali sam bas to isao isprobati spojivsi se na neku random MP igru i GPU usage je meni osobno bio cijelo vrijeme iznad 95% sa 260.99 driverima, pa ne znam sta tocno uzrokuje drugoj ekipi takav nizak GPU usage.
Navodno bi neki skori release drivera trebao to rijesiti, a kako se GTX580 kartice testiraju na 262.99 driverima mozda upravo oni nose potrebni fix za nVidia kartice i BFBC2.
gledao sam rewiuove na linus tech tips i dosta ostalih stranica , prema preformansama i temperaturama kartica je životinja , sad jos i cijenu vidit moramo..
I koliko para, bude koštala 580x na kraju? Bojim se premasno za mene, al možda cijene s vremenom padnu pa ubodem jednu na rate.
Evo u SAD 500 dolori ,ovde u evropi bi onda mogla do 500 eura
Evo u SAD 500 dolori ,ovde u evropi bi onda mogla do 500 eura
kod nas će koštat ko 5970.
dakle, bit će stvar preferencije..
haha koja komedija
In order to stay within the 300 W power limit, ...
al ga opet kemijaju, u Fumarku potrosnja dodje do 304W a onda ju limiter sreze - toliko o optizimiranju potrosnje
Detekcija Furmarka i OCCT-a.. zvuči mi ko driverska implementacija. zar nije bolje rješenje da se sprječi oštećenje kartice kao ona HW implementacija što su ATI-evci implementirali u 58xx seriju? Isto zbog sprječavanja pregaranja kartice.
Ako se prisjetimo 48xx serije, ATI je u driverima imao "profil" za Furmark kojim bi usporio framerate kako bi sprječio pregrijavanje.
Amerima je cijena 500 dol -2600 kn za najaču grafu na planetu vjerovatno pretjerana.Kad bi se kod nas ona ponudila po ovoj cijeni naš ludi narod bi reka:kupuj odma to je jeftino.