A Crysis? Toga se nitko ne sjeća?
Uključiš AA u igri i FPS se prepolovi, isključiš u igri i forsaš na Catalyst, a FPS ostane gotovo nepromijenjen... Render identičan da ne bi mislili da se razlikuje.
S atijem je uvijek neko sranje u pojedinim igrama a o bučnosti kartica da ne govorim ...
Samo ovo zadnje. Ja niti ne čujem svoju tako da ti je to krivi podatak, a imam i 9800 i poprilično je bučna... Čak je par NV zaposlenika svojevremeno snimilo kratki YT filmić gdje se našalila na bučnost svojih kartica...
Baš me zanima kako će Fermi biti tih.
ne zanimaju me podaci već činjenice. Imam doma ati 3800 , 4800 , kao i nvidiu 7800 , 260 i 280 uz još neke starije kartice tipa ati 9800 , 9600 te nvidia serije 4 i 6. Sve nvidia kartice su tiše od atia a ati serije 3 i 4 su kartice koji stvaraju nepodnošljivu buku. Da ne pričam o problemimam prikaza u pojedinim igrama bez obzira na prisutnost nvisia loga ...
ne zanimaju me podaci već činjenice. Imam doma ati 3800 , 4800 , kao i nvidiu 7800 , 260 i 280 uz još neke starije kartice tipa ati 9800 , 9600 te nvidia serije 4 i 6. Sve nvidia kartice su tiše od atia a ati serije 3 i 4 su kartice koji stvaraju nepodnošljivu buku. Da ne pričam o problemimam prikaza u pojedinim igrama bez obzira na prisutnost nvisia loga ...
Mislim da govorim u ime većine kada na boldano kažem LOL!
A podatak/činjenica je pod "Moj PC", još uvijek čujem dovoljno dobro i rekao sam ti koja je višestruko bučnija. Neću se ponavljati.
Glupost.
Nvidia nije sabotirala ATI, vec je davala svoje kartice developerima koji bi za uzvrat stavljali Nvidin logo na igru.
Samim time sto su radili na Nvidiji, igre su bile vise optimiizirane za nju, a manje su gledali na ATI.
Isto to sad ATI radi u brojnim igrama.
Nista cudno i nije ni ATI nevin...nemoj bit naivan.
Batman: Arkham Asylum bez Anti-Aliasinga za ATI kartice
AMD je u svom testnom labu izveo nekoliko pokusa te potvrdio da je u igri implementiran kod koji jednom kad detektira ATI Radeon karticu u računalu, onemogućuje korištenje Anti-Aliasing algoritme koji mogu drastično povećati kvalitetu slike i doživljaj u igri. Zanimljivo da ovakvih „bugova“ nema na Nvidijinim karticama, a ne pojavljuju se ni kada su AMD-ovi tehničari promjenili identifikacijski kod Radeon kartica.
Batman: Arkham Asylum Enables AA Only on NVIDIA Hardware on PCs
je ta nvidia stvarno prljava,kad nemogu proizvest normalnu karticu onda se služe podvalama
Glupost.
Nvidia nije sabotirala ATI, vec je davala svoje kartice developerima koji bi za uzvrat stavljali Nvidin logo na igru.
Samim time sto su radili na Nvidiji, igre su bile vise optimiizirane za nju, a manje su gledali na ATI.
Isto to sad ATI radi u brojnim igrama.
Nista cudno i nije ni ATI nevin...nemoj bit naivan.
Batman: Arkham Asylum bez Anti-Aliasinga za ATI kartice
AMD je u svom testnom labu izveo nekoliko pokusa te potvrdio da je u igri implementiran kod koji jednom kad detektira ATI Radeon karticu u računalu, onemogućuje korištenje Anti-Aliasing algoritme koji mogu drastično povećati kvalitetu slike i doživljaj u igri. Zanimljivo da ovakvih „bugova“ nema na Nvidijinim karticama, a ne pojavljuju se ni kada su AMD-ovi tehničari promjenili identifikacijski kod Radeon kartica.
Batman: Arkham Asylum Enables AA Only on NVIDIA Hardware on PCs
je ta nvidia stvarno prljava,kad nemogu proizvest normalnu karticu onda se služe podvalama
Ne bih rekao da je to podvala. Jednostavno su platili izdavaču da igra bude optimizirana samo za nVidia kartice. Zakoni tržišta...
Jel bi ti koristio i radio software za druge kompanije kad ti netko plaća ili daje resurse?
je li to uređeno zakonom? ispada da nvidia plaća proizvođačima igara da sabotiraju i onesposobe ati,a uz to nvidia se reklamira
ako se želi reklamirat onda neka to radi na temelju surovih performansi, a ne da plaća za sabotažu i optimizaciju
Krivo ste (mislim na Bugovce) prepisali navodne karakteristike GTX-a 470.
Navodno su radni taktovi 607/1215/1674 MHz za core/shader/memoriju (a ne 725/1450/1050 kao što ste vi naveli).
Mada se drugdje spominje takt memorije od oko 1000 MHz (ili malo više) za obje kartice, što mi zvuči realnije budući da se radi o GDDR5 memoriji (i 4 puta većem efektivnom taktu).
AMD je u svom testnom labu izveo nekoliko pokusa te potvrdio da je u igri implementiran kod koji jednom kad detektira ATI Radeon karticu u računalu, onemogućuje korištenje Anti-Aliasing algoritme koji mogu drastično povećati kvalitetu slike i doživljaj u igri. Zanimljivo da ovakvih „bugova“ nema na Nvidijinim karticama, a ne pojavljuju se ni kada su AMD-ovi tehničari promjenili identifikacijski kod Radeon kartica.
Batman: Arkham Asylum Enables AA Only on NVIDIA Hardware on PCs
Za ovo nisam imao pojima, ali to je slično što je radio Intel sa svojim kompajlerom (kod detekcije AMD procesora nisu se koristile sve instrukcije pa su bile lošije performanse). Znači širi se ta "taktika". Nije dobro, nikako nije dobro...
je li to uređeno zakonom? ispada da nvidia plaća proizvođačima igara da sabotiraju i onesposobe ati,a uz to nvidia se reklamira
ako se želi reklamirat onda neka to radi na temelju surovih performansi, a ne da plaća za sabotažu i optimizaciju
Zašto bi bilo zbranjeno napraviti igru koja radi samo na jednom tipu hardware-a?
je li to uređeno zakonom? ispada da nvidia plaća proizvođačima igara da sabotiraju i onesposobe ati,a uz to nvidia se reklamira
ako se želi reklamirat onda neka to radi na temelju surovih performansi, a ne da plaća za sabotažu i optimizaciju
Zašto bi bilo zbranjeno napraviti igru koja radi samo na jednom tipu hardware-a?
ja dođem u trgovinu i kažem: hoću kupit batmana ali hoću nižu cijenu jer imam ati karticu,a prodavač kaže: ma nemoj,cijena je ista za sve
znači onda proizvođači igara koji rade samo za nvidiu igre,neka izvole spustit cijene onima sa ati grafama koji ispadaju zakinuti
je li to uređeno zakonom? ispada da nvidia plaća proizvođačima igara da sabotiraju i onesposobe ati,a uz to nvidia se reklamira
ako se želi reklamirat onda neka to radi na temelju surovih performansi, a ne da plaća za sabotažu i optimizaciju
Zašto bi bilo zbranjeno napraviti igru koja radi samo na jednom tipu hardware-a?
ja dođem u trgovinu i kažem: hoću kupit batmana ali hoću nižu cijenu jer imam ati karticu,a prodavač kaže: ma nemoj,cijena je ista za sve
znači onda proizvođači igara koji rade samo za nvidiu igre,neka izvole spustit cijene onima sa ati grafama koji ispadaju zakinuti
Pa onda nemoj kupovati igre koje ne rade na Ati karticama. Samom kupnjom podupireš nVidiu i te developere.
Pa onda nemoj kupovati igre koje ne rade na Ati karticama. Samom kupnjom podupireš nVidiu i te developere.
Usprkos velikim naporima fanboya da nekako opravdaju svoju omiljenu kompaniju, činjenica je da je Nvidija svojim mnogobrojnim gafovima, pogreškama, lažima i u najmanju ruku sumnjivim potezima prokockala dobar dio svog kredibiliteta. I ja sam osobno bio impresioniran tom kompanijom u G92 fazi, a kasnije i Jen-Hsun Huangom koji se nije libio otvoreno suprotstaviti ni Intelu, ali ovo sa Fermijem je prešlo sve granice. 6 mjeseci otezanja, lažna kartica na demonstraciji, bahata pretjerivanja oko očekivanih performansi, te otvoreno podmićivanje developera su više nego dovoljan pokazatelj da je Nvidia definitivno zastranila.
Pa onda nemoj kupovati igre koje ne rade na Ati karticama. Samom kupnjom podupireš nVidiu i te developere.
Usprkos velikim naporima fanboya da nekako opravdaju svoju omiljenu kompaniju, činjenica je da je Nvidija svojim mnogobrojnim gafovima, pogreškama, lažima i u najmanju ruku sumnjivim potezima prokockala dobar dio svog kredibiliteta. I ja sam osobno bio impresioniran tom kompanijom u G92 fazi, a kasnije i Jen-Hsun Huangom koji se nije libio otvoreno suprotstaviti ni Intelu, ali ovo sa Fermijem je prešlo sve granice. 6 mjeseci otezanja, lažna kartica na demonstraciji, bahata pretjerivanja oko očekivanih performansi, te otvoreno podmićivanje developera su više nego dovoljan pokazatelj da je Nvidia definitivno zastranila.
Prozivaš mene ili?
Drugo, opet pitam što je zabranjeno u tome da plate developeru da igru napravi isključivo za nVidia kartice.
To je isto kao da kažeš da Sony podmićuje developere da rade samo PS3 eksluzive.
trenutno jedino prepucavanje je da li uzeti 4890 ili 5770, 2x5870 ili 5970...
nvidije nema u svoj toj priči
Pa sad... ja bih uvijek dao prednost jednoj Nvidiji GTX260 nad navedenim 4890 ili 5770 
(jest da je 100-tinjak kn skuplja ali vrijedi svake lipe
)
trenutno jedino prepucavanje je da li uzeti 4890 ili 5770, 2x5870 ili 5970...
nvidije nema u svoj toj priči
Pa sad... ja bih uvijek dao prednost jednoj Nvidiji GTX260 nad navedenim 4890 ili 5770 
(jest da je 100-tinjak kn skuplja ali vrijedi svake lipe
)
ne znam po čemu je gtx260 bolja od 4890
performanse su na strani 4890 koja se može uspoređivati sa gtx275 a još je i malo jeftinija
proguglaj malo,vijdet ćeš dosta testova između ove dvije kartice i neosporno je da je 4890 jača grafa
to ne mogu tvrditi i za 5770 ali zato je ona i dosta jeftinija od te nvidijine gtx260,ima dx11 te koliko sam čuo dosta se manje grije i troši (ako je to uopće nekome bitno)
proguglaj malo,vijdet ćeš dosta testova između ove dvije kartice i neosporno je da je 4890 jača grafa
to ne mogu tvrditi i za 5770 ali zato je ona i dosta jeftinija od te nvidijine gtx260,ima dx11 te koliko sam čuo dosta se manje grije i troši (ako je to uopće nekome bitno)
uzmes vapor-x 5770 i klokas ju bez problema na 4890 (mozda i jace) i temp su ti opet u normali.
a sto se tice dx11, dok nastane pravi boom punokrvnih dx11 igara jedna 5850 ce biti tek taman
proguglaj malo,vijdet ćeš dosta testova između ove dvije kartice i neosporno je da je 4890 jača grafa
to ne mogu tvrditi i za 5770 ali zato je ona i dosta jeftinija od te nvidijine gtx260,ima dx11 te koliko sam čuo dosta se manje grije i troši (ako je to uopće nekome bitno)
uzmes vapor-x 5770 i klokas ju bez problema na 4890 (mozda i jace) i temp su ti opet u normali.
a sto se tice dx11, dok nastane pravi boom punokrvnih dx11 igara jedna 5850 ce biti tek taman
možeš i 4890 klokati pa će razlika opet biti ista ^^
ovdje govorimo o stock frekvencijama
a slažem sa tim o dx11,dok zaživi pravi dx11 gaming 5770 neće biti dovoljan za vrtnju tih igara na high pri malo većim rezama
možeš i 4890 klokati pa će razlika opet biti ista ^^
ovdje govorimo o stock frekvencijama
a slažem sa tim o dx11,dok zaživi pravi dx11 gaming 5770 neće biti dovoljan za vrtnju tih igara na high pri malo većim rezama
heh klokas mu GPU max ~15MHz =D (neka me netko ispravi ako sam u krivu) i odu ti temp do neba =D
možeš i 4890 klokati pa će razlika opet biti ista ^^
ovdje govorimo o stock frekvencijama
a slažem sa tim o dx11,dok zaživi pravi dx11 gaming 5770 neće biti dovoljan za vrtnju tih igara na high pri malo većim rezama
heh klokas mu GPU max ~15MHz =D (neka me netko ispravi ako sam u krivu) i odu ti temp do neba =D
ne vjerujem da će 5770 raditi stabilno na tom kloku na kojem dostiže brzinu 4890
jer razlika između te dvije grafe je u prosjeku 15 %,varira od igre do igre
u nekima je do 10 % a u nekima iznad 20 %
nije to mala stvar,obično klokovi povećaju brzinu grafe možda 5 % ali 15 % je stvarno dosta
a siguran sam da se 4890 može dosta klokati,temperature uopće nisu tak visoke
evo citat iz jednog pcekspertovog članka
Overclocking mogućnosti su nas, moramo priznati ugodno iznenadile. Bez puno muke i sa tvorničkim hladnjakom natjerali smo ga na apsolutno stabilnih 975MHz. Da da, magična granica od 1GHz je vrlo blizu i vjerujemo kako ju je sa malo dodatnog truda moguće postići. Memoriju smo tek toliko sa 975MHz podigli na 1050MHz, te se ni tu nismo previše trudili - krivac opet nedostatak vremena.
i još nešto
XFX Radeon HD4890 1GB
Pozitivno + Performanse, overclocking potencijal.
Negativno - Bučan i ne pretjerano učinkovit sistem hlađenja.
tako da si se dosta prevario
ali ovo nije tema 4890 vs 5770 vs gtx260
bolje da raspravu završimo ili prebacimo u neku drugu temu
Bug ne bi trebao prensoiti svaku glupost sa neta- mislim alo 500+ W graficka :D To bi mogli prodati ukupno 14 ljudi na planetu- ne isplati se trositi tolko love za razvoj proizvda samo za pre*eravanje.
To se misli (a možda sam i ja tebe krivo skužio) na termalnu disipaciju, odnosno koliko će grafički čip stvarati topline.
To nema veze sa potrošnjom
Gle ak stvara 500W topline troši 500W.
Pa ne nužno - može stvarati i više topline i manje topline.
Prozivaš mene ili?
Drugo, opet pitam što je zabranjeno u tome da plate developeru da igru napravi isključivo za nVidia kartice.
To je isto kao da kažeš da Sony podmićuje developere da rade samo PS3 eksluzive.
Usporedba je totalno promašena jer PC svijet počiva na kompatibilnosti i standardima (koji se poštuju već desetljećima), dok su konzole međusobno sve različite. Prema tome, developer ne može napraviti igru "isključivo za Nvidia kartice" - može koristiti praktički jedino DirectX koji uredno podržavaju i ATI i Nvidia. Jedina proprietary tehnologija koju Nvidia tu posjeduje je PhysX, a PhysX proračuni se mogu obavljati i na današnjim multicore procesorima (dok na vidjelo nije izašlo kako PhysX na ATI karticama namjerno koristi samo jednu CPU jezgru kako bi performanse bile što lošije). Prema tome, Nvidia ne plaća nikakve super-turbo GeForce optimizacije nego najobičnije sabotiranje igri i drivera kako bi performanse na ATI karticama bile što lošije. Svaka kompanija koja potone tako nisko je po meni očigledno zastranila i na kraju je čeka sudska parnica - dobar primjer je Intel i njegova dugogodišnja praksa sabotiranja AMD-a za što su na kraju morali platiti preko milijardu eura kazne Europskoj komisiji, a u SAD su pristali isplatiti dodatnih 1.25 milijardi dolara direktno AMD-u kako bi izbjegli daljnje sankcije.
http://www.theinquirer.net/inquirer/news/1137311/intel-guilty-fined-eur1-06-billion-eu
http://www.wired.com/epicenter/2009/11/intel-pays-amd-125-billion-to-settle-all-disputes/

sala, znam da je 4890 bolja ali jbg kad doci do jedne u ducanu je prakticki potraga za blagom =/