Porast za 400%, fuckas Apple-ove dionice onda
- +/- sve poruke
- ravni prikaz
- starije poruke gore
Ovo za ati i 2 marsa mu isto ne vjerujem , ali ovo za nvidiu je lako moguće.
Većina glasina o proizvodima ne curi direktno iz tvrtke, nego od partnera. Ako ti radiš u nVidi-i i odgovoran si za curenje podataka - dobiješ otkaz. Ako radiš u npr. Corsairu - nemaš se za što brinuti jer ti nVidia (gotovo) ne može ništa.
Sve je to ok, samo meni se ovaj lik ne cini bas ko netko tko iznosi realne cinjenice vec neke svoje predpostavke i teorije
da je to reko charlie na semiaccurate bio bih poprilicno uvjeren... ovako je to jos jedna od onih informacija
Pa njegove izjave su daleko realnije od suludo glupih "50% brže od 5870" što je netko malo ranije provalio...
Slazem se, puno realnije i puno blize istini
samo me zanima, cak i s novim standardom napajanja grafa, kako misle gtx 380 x2 slozit...
Slazem se, puno realnije i puno blize istini
samo me zanima, cak i s novim standardom napajanja grafa, kako misle gtx 380 x2 slozit...
Pa možda stvarno misle protiv ATI-evog crosa sa jednim GPU-om.Nvidiji svašta padne na pamet.
A Nvidiji je i u teoriji gotovo nemoguče složiti karticu sa dva GPU-a,a kamoli u praksi.Ako jedan njihov GPU troši 225W sa drastičnim rezom radnih taktova i smanjenjem shadera onda je jako teško očekivati da mogu još negdije srezati da bi dobili prihvatljivu potrošnju.Njihov čip je več napočetku toliko nefleksibilan da više niti nemaju što prčkati po njemu,osim naravno prebacivanje u finiji proizvodni proces.Ja sam mislio da če nvidija sa novim čipom promijenit politiku proizvodnje GPU-a,al izgleda da oni jedino znaju radit dinosaure.Samo se nadam da ti dinosauri neče izumrit.
Slazem se, puno realnije i puno blize istini
samo me zanima, cak i s novim standardom napajanja grafa, kako misle gtx 380 x2 slozit...
Pa možda stvarno misle protiv ATI-evog crosa sa jednim GPU-om.Nvidiji svašta padne na pamet.
A Nvidiji je i u teoriji gotovo nemoguče složiti karticu sa dva GPU-a,a kamoli u praksi.Ako jedan njihov GPU troši 225W sa drastičnim rezom radnih taktova i smanjenjem shadera onda je jako teško očekivati da mogu još negdije srezati da bi dobili prihvatljivu potrošnju.Njihov čip je več napočetku toliko nefleksibilan da više niti nemaju što prčkati po njemu,osim naravno prebacivanje u finiji proizvodni proces.Ja sam mislio da če nvidija sa novim čipom promijenit politiku proizvodnje GPU-a,al izgleda da oni jedino znaju radit dinosaure.Samo se nadam da ti dinosauri neče izumrit.
Pazi druže T-rex ide komet sve će nas pobit...
Ma situacija će vjerovatno biti kao u vrijeme rv770 i gt200, trun bolja za ati (vjerovatno).
Pazi komšija T-rex ide komet sve će nas pobit...
Ma situacija će vjerovatno biti kao u vrijeme rv770 i gt200, trun bolja za ati (vjerovatno).
Ako bude slična situacija onda im je bolje da odmah pokopaju tog T-rex-a.Bilo bi odlično kad bi jedan Nvidijin GPU mogao protiv ATI-eva dva Cypressa,no ja sam jako skeptičan i nevijerujem dok ne vidim svojim oćima.
Dual kartice iz Nvidie će imat 2x8 pin napajanje pa je moguča max potrošnja od 375 W.
Dual kartice iz Nvidie će imat 2x8 pin napajanje pa je moguča max potrošnja od 375 W.
I opet ko slon pije vodu(struju) Kad jedna HD5870 trosi oko 200 w. 295gtx isto trosi vise od ove atijeve.
Dual kartice iz Nvidie će imat 2x8 pin napajanje pa je moguča max potrošnja od 375 W.
375W potrosnje treba nekako hladit...
mislim da bi to bila vrlo limitirana serija sa odlicnim hladenjem... cijena? ako moras pitat vjerojatno si ne mozes priustit.. to mi tako zvuci
ona 360/340 kombo kartica ok, 360 x2 mozda (iako i to sumnjam da bi bilo ispod 300W)
sve u svemu i sad kad je vrlo izgledno da dolaze u Ozujku/Travnju, situacija za nVidiu ne izgleda bajno - jos uvijek su brojni problemi pred njima
taman kad sve srede dodje 6xxx i opet su nigdje...
ja mislim da bi oni tebali pregrist gov*o, odradit gtx3xx seriju kako vec uspiju, u 28nm nista ne mijenjat vec samo izlit Fermi i iskoristit ga u potpunosti, dic malo taktove i to je to, a onda za slijedecu generaciju radit novi chip velicine Fermia u 28nm (kako god da bi se to zvalo)
onda imaju sanse uhvatit korak sa ATIem
ako planiraju dalje sa ovakvim grdosijama i svaki put se cudit kako im neide... mislim da ce im biti jeftinije odustat od utrke sveukupno i pocet se bavit segmentima u kojim imaju visoku zaradu
HD5970 ima cooler koji može podnesti 400W disipacije.
Nisam siguran bih li ovo stavio ovdje ili u novu temu... u svakom slucaju, podupire teoriju o 6xxx u 2010. i mogucim daljnjim problemima za nVidiu
Clanak - cini se da GF vec sada ima stabilan 28nm proces
To je dobra vijest i moglo bi znacit da ce 6000 serija doci krajem ove godine a ne pocetkom sljedece. Da li ce doc ovog ljeta kako neki pricaju ja ne vjerujem. Vrijeme između 4000 i 5000 serije je otprilike 15 mjeseci sa time da 5000 serija nije nova arhitektura vec stara samo poboljšana, a 6000 serija je potpuno nova arhitektura tako da ja mislim da ce 6000 serija doc pocetkom 2011 a ne ove godine. Znat cemo više pred kraj godine.
Nisam siguran bih li ovo stavio ovdje ili u novu temu... u svakom slucaju, podupire teoriju o 6xxx u 2010. i mogucim daljnjim problemima za nVidiu
Clanak - cini se da GF vec sada ima stabilan 28nm proces
To je dobra vijest i moglo bi znacit da ce 6000 serija doci krajem ove godine a ne pocetkom sljedece. Da li ce doc ovog ljeta kako neki pricaju ja ne vjerujem. Vrijeme između 4000 i 5000 serije je otprilike 15 mjeseci sa time da 5000 serija nije nova arhitektura vec stara samo poboljšana, a 6000 serija je potpuno nova arhitektura tako da ja mislim da ce 6000 serija doc pocetkom 2011 a ne ove godine. Znat cemo više pred kraj godine.
I to znaci padanje cijena 4000 serije YAY!!!
Meni je vec puna kapa clanaka i nagadjanja. Hocemo konkretne rezultate. Ili imaju problema ili ih je ovaj put suprotni tabor nadmudrio.
Meni je vec puna kapa clanaka i nagadjanja. Hocemo konkretne rezultate. Ili imaju problema ili ih je ovaj put suprotni tabor nadmudrio.
Hehe, svima je... al kad nece rec nis konkretno sluzbeno, gamad
Evo malo računice:Cypress ima površinu od 336mm2,a GF100 navodno ima 50% veču površinu.Znači nekih 504mm2.
50% veča površina=50% veči troškovi proizvodnje po čipu,ako ne i veči zbog lošijeg yielda.Ako pak je vijerovati glasinama na netu srezani GF100 bi navodno trebao imat od 20 do 30% veče preformanse od Cypressa(što iskreno sumnajm).Znači rezultat je sljedeči:Za 20 do 30% više preformanse moraš izdvojiti 50% više love.
Zar Nvidia mora napravit 50% veči čip da bi dobila 30% veče preformanse od ATI-a?
Žalosno je ak nisu u stanju napravit čip slične veličine sa boljim preformansama.Da je Nvidijin čip 10% veči i sa 20% večim preformansama onda bi im skinuo kapu.
A ovak kad oni moraju napravit monstruma da bi porazili patuljka je po meni žalosno.
Nisam siguran bih li ovo stavio ovdje ili u novu temu... u svakom slucaju, podupire teoriju o 6xxx u 2010. i mogucim daljnjim problemima za nVidiu
Clanak - cini se da GF vec sada ima stabilan 28nm proces
To je dobra vijest i moglo bi znacit da ce 6000 serija doci krajem ove godine a ne pocetkom sljedece. Da li ce doc ovog ljeta kako neki pricaju ja ne vjerujem. Vrijeme između 4000 i 5000 serije je otprilike 15 mjeseci sa time da 5000 serija nije nova arhitektura vec stara samo poboljšana, a 6000 serija je potpuno nova arhitektura tako da ja mislim da ce 6000 serija doc pocetkom 2011 a ne ove godine. Znat cemo više pred kraj godine.
Serija 6xxx neće doći ovog ljeta nego sljedeće godine (potvrdio ATI), ali vjerojatno će izdati seriju 5xxx u 28nm (ljeto, jesen).
Evo malo računice:Cypress ima površinu od 336mm2,a GF100 navodno ima 50% veču površinu.Znači nekih 504mm2.
50% veča površina=50% veči troškovi proizvodnje po čipu,ako ne i veči zbog lošijeg yielda.Ako pak je vijerovati glasinama na netu srezani GF100 bi navodno trebao imat od 20 do 30% veče preformanse od Cypressa(što iskreno sumnajm).Znači rezultat je sljedeči:Za 20 do 30% više preformanse moraš izdvojiti 50% više love.
Zar Nvidia mora napravit 50% veči čip da bi dobila 30% veče preformanse od ATI-a?
Žalosno je ak nisu u stanju napravit čip slične veličine sa boljim preformansama.Da je Nvidijin čip 10% veči i sa 20% večim preformansama onda bi im skinuo kapu.
A ovak kad oni moraju napravit monstruma da bi porazili patuljka je po meni žalosno.
Navodno nVidia upotrebljava nove PWM Phase koje im smanjuju troškove za 30% (imaš o tome na prethodonoj stranici).
Ovo veličina/performanse stoji (ako bude tako), ali, iskreno, zaboli me koliko je čip velik ako će trošiti približno isto kao ATI-jev.
Meni je vec puna kapa clanaka i nagadjanja. Hocemo konkretne rezultate. Ili imaju problema ili ih je ovaj put suprotni tabor nadmudrio.
Dobrodošao u klub!
Bwahahahahahaha, trositi slicno ko atiev...
bas si me slatko nasmijo.... gtx 380 koji nece imat puni potencijal Fermia iskoristen (dakle predpostavke su da ce imati svih 512 shaddera odkljucanih, ali bit ce downclockan sa originalno zamisljenih 750 MHz na nesto izmedju 500 sto mu je bio plafon nakon A2 i tih 750, ali dosta nize od 750) i imat ce TDP 300W poput HD5970 (ako je za vjerovat nekim izvorima)
Fermi trosi... to ti je ko da velis briga me sto je Hummer duplo veci od Renault Clia ako ce jednako trosit... no chance
A sto se tice 5xxx u 28 nm.... hmmm... nekako mi to zvuci poput hd5890 x2 (ili recimo hd 5990) superclocked?
Pa gledaj, hoce, samo pitanje koliko srezan...
oni ce ga dovest u situaciju da naprave i x2 karticu...
Gledaj, mislim da ce oni prezivljavat kako mogu sa kakvim takvim karticama (koje nece biti nuzno lose, ali mislim da ce HD5970 definitivno zadrzat dominaciju) dok ne dodje novi standard napajanja za PCI E, zatim ce to skombinirati sa 28nm procesom da u njemu izliju Fermi da sve skupa prodise i onda izbacit onu najavljivanu gtx 380 x2
to je po meni najrealnije sto ce se desavati sa nVidiom slijedecih mjeseci
gtx 260 sa TDP 225W
gtx 380 sa TDP 300W
negdje kasnije GTX 240, pa odma zatim kombo gtx 260+240 i ako uspiju gtx 260 x2 (i to bi mogli cekat ili 28nm ili novo napajanje)
gtx 380 x2 sumnjam prije 28nm i novog napajanja
EDIT: ove predpostavke su temeljene na porocitanom, dakle i opet samo predpostavke....
jos 2 mjeseca pa cemo vidjet...
Gledaj, GTX 285 troši 183 W, i ne vjerujem da će Fermi trošiti 300 W.
Gledaj, GTX 285 troši 183 W, i ne vjerujem da će Fermi trošiti 300 W.
Ljudi koji su radili specijalno kucište za Fermi potvrdili su da se Fermi grije više od bilo koje ATIjeve grafe iz 5000 serije. 5970 ima max potrošnju od 294W to znaci da Fermi ima oko 300W ako je za vjerovat tom izvoru.
Navodno nVidia upotrebljava nove PWM Phase koje im smanjuju troškove za 30% (imaš o tome na prethodonoj stranici).
Ovo veličina/performanse stoji (ako bude tako), ali, iskreno, zaboli me koliko je čip velik ako će trošiti približno isto kao ATI-jev.
PWM je još koristio ATI-ev R600
DOKAZ:
http://en.wikipedia.org/wiki/Radeon_R600
Znači tehnologija nije nova.I PWM ne smanjuje trošak proizvodnje GPU-a več smanjuje potrošnju cijele kartice
Više o PWM pgledaj ovdije:
Gledaj, GTX 285 troši 183 W, i ne vjerujem da će Fermi trošiti 300 W.
Ljudi koji su radili specijalno kucište za Fermi potvrdili su da se Fermi grije više od bilo koje ATIjeve grafe iz 5000 serije. 5970 ima max potrošnju od 294W to znaci da Fermi ima oko 300W ako je za vjerovat tom izvoru.
To kučište je za SLI. A potrošnju ćemo vidjeti dok daju konkretne rezultate, već mi je pun kufer izvora.
Navodno nVidia upotrebljava nove PWM Phase koje im smanjuju troškove za 30% (imaš o tome na prethodonoj stranici).
Ovo veličina/performanse stoji (ako bude tako), ali, iskreno, zaboli me koliko je čip velik ako će trošiti približno isto kao ATI-jev.
PWM je još koristio ATI-ev R600
DOKAZ:
http://en.wikipedia.org/wiki/Radeon_R600
Znači tehnologija nije nova.I PWM ne smanjuje trošak proizvodnje GPU-a več smanjuje potrošnju cijele kartice
Više o PWM pgledaj ovdije:
Rekao sam da nVidia upotrebljava nove PWM faze (znači, novi materijal), a ne da je to nova tehnologija.
Pročitaj si prvo cijeli post (prethodna strana, evo ti direktan link) pa onda komentiraj.
Jesi mislio na ovog kojeg je Hyp citirao:
"mislim sto se tice cene treba sacekati, koliko sam svhatio da nVidia upotrebljava CNDN² kao PWM Phase i ne vise CU. Sto se toga tice, imaju 32% manja kostanja u produkciji kartice. Zato i traje duze kod nvidije. Neznam trenutno dok nedobijemo koje sve kartice ce bazirati na novim PWM Phasama, ali mislim da nisu ludi i da ce biti neki smisao tome. Mora se i sa te strane gledati, da ATI trenutno na svaku HD5000 Karticu daje 50$ minus - Prodaju Karticu za 300$ a plate je 350$. ATI trenutno samo 37% od Produkcije moze da proda - drugo je odpad, koji moraju da plate TSMCu. Prema tome big minus. nVidia prema tome ulazi odma sa 50% u produkciju i ima ce manju minus + stede u produkciji i imaju do 2015 jos stari ugovor da samo 45% Kostanja na odpad Produkciji moraju da plate TSMCu. nVidia je druga Liga sta se tice Business, Jeste da je ATI Hardware savrsen, ali nVidia pravi u toliko drugim sektorima stvari, da njih to ne tangira, dal ATI trenutno ima nesto bolje. U glavnom je za Musteriju dobro ako oba proizvodjaca vode tako rat - padaju cene i to je naravno dobro za svakog ko zeli da kupi nove kartice."
Na ovo ču reči samo BIG LOL!!!!.
Prvo ovo za ATI nije točno.A uz sve probleme koje je nvidija imala sa yeldom najednom su u produkciji bolji od ATI-a koji je več prodao na stotinu tisuča GPU-ova.
I to da če ti novi kvalitetniji PWM smanjiti troškove proizvodnje opet samo LOL.Nekim zdravim razumom samo bi mogao povečati troškove proizvodnje,jer teško je za vijerovati da če nova vrsta PWM matrijala koštat manje od staroga.
"mislim sto se tice cene treba sacekati, koliko sam svhatio da nVidia upotrebljava CNDN² kao PWM Phase i ne vise CU. Sto se toga tice, imaju 32% manja kostanja u produkciji kartice. Zato i traje duze kod nvidije. Neznam trenutno dok nedobijemo koje sve kartice ce bazirati na novim PWM Phasama, ali mislim da nisu ludi i da ce biti neki smisao tome. Mora se i sa te strane gledati, da ATI trenutno na svaku HD5000 Karticu daje 50$ minus - Prodaju Karticu za 300$ a plate je 350$. ATI trenutno samo 37% od Produkcije moze da proda - drugo je odpad, koji moraju da plate TSMCu. Prema tome big minus. nVidia prema tome ulazi odma sa 50% u produkciju i ima ce manju minus + stede u produkciji i imaju do 2015 jos stari ugovor da samo 45% Kostanja na odpad Produkciji moraju da plate TSMCu. nVidia je druga Liga sta se tice Business, Jeste da je ATI Hardware savrsen, ali nVidia pravi u toliko drugim sektorima stvari, da njih to ne tangira, dal ATI trenutno ima nesto bolje. U glavnom je za Musteriju dobro ako oba proizvodjaca vode tako rat - padaju cene i to je naravno dobro za svakog ko zeli da kupi nove kartice."
Na ovo ču reči samo BIG LOL!!!!.
Prvo ovo za ATI nije točno.A uz sve probleme koje je nvidija imala sa yeldom najednom su u produkciji bolji od ATI-a koji je več prodao na stotinu tisuča GPU-ova.
I to da če ti novi kvalitetniji PWM smanjiti troškove proizvodnje opet samo LOL.Nekim zdravim razumom samo bi mogao povečati troškove proizvodnje,jer teško je za vijerovati da če nova vrsta PWM koštat manje od staroga.
Da, na to sam mislio. Dobro, za ATI mu ni ja ne vjerujem, ali za PWM faze kaže samo da će nVidia koristiti drugi materijal, ne vidim tu niša smiješno (da znaš o čemu se tu radi, ne bi već po drugi put pisao gluposti).
Ma to sto je taj lik izvalio ne znam dal krivo prevodim sebi sa srpskog (drugim rijecima ne razumijem ni priblizno sto je htio reci) ili lik baljezga...
da ATI toliko gubi na 5xxx seriji ne bi dionice na burzi skocile sa 2$ na 10$ sto je vec Hyperion spomenuo....
s druge strane, ako nVidia i jest nasla nacin da sama kartica dodje neso jeftinije, jos uvijek ostaje strahovit problem sa yieldom, a i cjena 1 chipa je dosta vec od onoga sto Ati placa za svoje (s time da isporuka chipova ATI-u ide maltene bez problema trenutno)
Da, na to sam mislio. Dobro, za ATI mu ni ja ne vjerujem, ali za PWM faze kaže samo da će nVidia koristiti drugi materijal, ne vidim tu niša smiješno (da znaš o čemu se tu radi, ne bi već po drugi put pisao gluposti).
Koristit če drugi materijal koji je manje kvalitetniji ili koji je više kvalitetniji?
Ako koriste onaj manje kvalitetniji onda je logično da je jeftiniji.No ako je kvalitetniji onda je logično da je skuplji.
No meni je zanimljivo što nitko nezna ni koje če taktove,a kamoli koji PWM koristi.I onda se nađe pametan lik koji uz tu tezu o PWM zbljazga gluposti poput nvidijine bolje produkcije itd....Netreba se vijerovati svakom tko nešt bubne o novom GF100.Ja čekam da Nvida konačno obijavi specifikacije.
A ako bi u kojem slučaju GF100 i imao 30% bolje preformanse onda možeš očekivati istu situaciju koja je bila sa starim konkurentima HD2900XT i 8800Ultra,
Koja je bila baš nekih 25% jača od Radeona.No zato je i imala 85% veču cijenu.HD2900XT je došla oko 3000kn dok Ultra je koštala rekordnih 5500kn.