tako je amd nedaj se!!
- +/- sve poruke
- ravni prikaz
- starije poruke gore
Tvrdoglavo odbijanje novih tehnologija nije baš neka pozitivna stvar za ATI. Ja ću se prilikom kupovine sljedeće grafičke kartice opet odlučiti za nVidiju jer smatram CUDA vrlo bitnim i korisnim.
Tvrdoglavo odbijanje novih tehnologija nije baš neka pozitivna stvar za ATI. Ja ću se prilikom kupovine sljedeće grafičke kartice opet odlučiti za nVidiju jer smatram CUDA vrlo bitnim i korisnim.
ako smatras CUDU vrlo bitnim i korisnim onda bi reci sta je to tocno CUDA!?
Tvrdoglavo odbijanje novih tehnologija nije baš neka pozitivna stvar za ATI. Ja ću se prilikom kupovine sljedeće grafičke kartice opet odlučiti za nVidiju jer smatram CUDA vrlo bitnim i korisnim.
ako smatras CUDU vrlo bitnim i korisnim onda bi reci sta je to tocno CUDA!?
to i ja moslim, a čemu ona uopče služi
Samo uposlite Google, i evo rezultata :)
Ionako će ista funkcionalnost biti implementirana kroz DX 11. Pa bi CUDA brzo mogla biti zaboravljena.
Ionako će ista funkcionalnost biti implementirana kroz DX 11. Pa bi CUDA brzo mogla biti zaboravljena.
Moguće,vidjet ćemo šta će bit i kako će se situacija odvijati al za sada cuda nije loša stvar ko ima bolje grafe od nvidije
Tvrdoglavo odbijanje novih tehnologija nije baš neka pozitivna stvar za ATI. Ja ću se prilikom kupovine sljedeće grafičke kartice opet odlučiti za nVidiju jer smatram CUDA vrlo bitnim i korisnim.
a gdje si je ti koristio ili mozda znas nekoga tko je???
Tvrdoglavo odbijanje novih tehnologija nije baš neka pozitivna stvar za ATI. Ja ću se prilikom kupovine sljedeće grafičke kartice opet odlučiti za nVidiju jer smatram CUDA vrlo bitnim i korisnim.
a gdje si je ti koristio ili mozda znas nekoga tko je???
jedinu uočljivu primjenu (u igrama) koju sam ja do sad vidio je u Mirrors Edge, kroz PhysX (simulacija tkanina i stakla) i meni bi bilo drago da to počnu masovno primjenjivati jer realnu fiziku cijenim deset puta više od fotorealistične grafike
i dobro AMD govori, da prihvate njihovu tehnologiju Nvidia bi ih odmah namjerno sje.... gdje god bi prvo stigla
Nije bitno gdje se to koristi, vecini citatelja Bug-a ne treba mobilini internet, pa se sve jedno kao mala djeca vesele "poklonu".
Tvrdoglavo odbijanje novih tehnologija nije baš neka pozitivna stvar za ATI. Ja ću se prilikom kupovine sljedeće grafičke kartice opet odlučiti za nVidiju jer smatram CUDA vrlo bitnim i korisnim.
Prijatelju smatras CUDU necemu a zaboravio si ATi jev DX 10.1 koji je vrko korisniji od CUDE, a u ostalom i ati ima ATi Stream koji je isto sta i CUDA.
Mora se priznat da je nvidia-in badaboom optimiziraniji od ati avivo convertera. Avivo converter se često crasha, malo formata podržano, nemože se mijenjat rezolucija, kvaliteta lošije nego kada se konverta sa badaboomom, ali ati nešto brže konverta.
Oni su to na brzinu sklepali i vidi se da nemare baš puno za to. Da se uvate posla kak treba to bi bilo super, a i da budu sponzori igricama popularnim kao cod, crysis, farcry itd.
CUDA se već neko vrijeme koristi u znanstvenim aplikacijama tipa SETI@home, Folding@home i GPU grid, a i mnoge druge se pripremaju prijeći na tu tehnologiju. Naravno, individue kojima su izjave tipa "ajde napiši onda što je točno CUDA" vrhunac argumentacije vjerovatno nisu nikad čuli za ništa od navedenog, no to ne umanjuje veliku prednost nVidije na tom području.
Da, kroz DX11 i OpenCL će biti moguće programirati aplikacije za sve GPU-ove, ali CUDA ostaje specijalizirana platforma za Nvidia GPU-ove koja će vjerojatno na njima davati nešto bolje rezultate nego nekakvo unificirano rješenje.
Treba vidjeti na što će taj famozni DX11 ličiti pa onda raspravljat kakav je u odnosu na CUDA-u kad su u pitanju 'GPU only' aplikacije
Tvrdoglavo odbijanje novih tehnologija nije baš neka pozitivna stvar za ATI. Ja ću se prilikom kupovine sljedeće grafičke kartice opet odlučiti za nVidiju jer smatram CUDA vrlo bitnim i korisnim.
Prijatelju smatras CUDU necemu a zaboravio si ATi jev DX 10.1 koji je vrko korisniji od CUDE, a u ostalom i ati ima ATi Stream koji je isto sta i CUDA.
Ti si lud ako mislis da je DX10.1 korisniji od CUDAe.
Ti mislis da je bolje AA filtriranje korisnije od mogucnosti graficke da preuzme matematicke izracune koje bi inace CPU obradivao (i to sporije). Si ti vidio Physix??? Tebi su bolji AA filteri od realne fizike???
GMO kruske i domace jabuke.
Inace svaka cast ATIu, istina je da bi Nvidia lukavo podmetala optimizaciju svojeg hardwarea, s cime bi ATI gubio na ugledu i performansama.
Ovo je klasičan način gaženja protivnika, hvala bogu da Ati nije toliko glup, jer da je pristao bio začas u govnima.
Nesto slicno se prije desilo,
1994 godine, Microsoft se zabrinuo nad sve većom popularnošču unixa, profesionalno mrežnog OS-a na PC-ima . Ms je investirao u mrežni protokol Wise za grupni rad sa unixom. Kad je
učvrstio u tvrtkama, sve koji su na to računali uništio je napuštanjem WISE-a u novijoj inačici.
To mi se čini kao prilično neuvjerljiv i djetinjast argument: nećemo koristiti CUDA tehologiju jer ne bi bila brza kao nVidijina. Činjenica je da ATI-jevi grafički procesori imaju stotine i stotine potencijalnih teraflopsa koji bi se mogli već sutra efikasno iskoristiti pomoću postojećih CUDA aplikacija, na dobrobit cijele računalne industrije, pa i svijeta. Čak i da npr. ATI-jeva CUDA ima 25% lošije performanse, svejedno je riječ o ogromnoj procesorskoj snazi koja će sada ostati protraćena zbog ATI-jevog inata i neprihvaćanja novih tehnologija.
Ma cekajte ljudi, zasto bi ATi uzeo CUDU kad oni imaju isto to svoje pod imenom STREAM..
Odlicno sroceno. A nvidia koristi recimo i open CL i koristit ce dx 11. Sto bi bilo da oni tjeraju taj inat pa zadrze samo CUDA kompatibilnost.
Tvrdoglavo odbijanje novih tehnologija nije baš neka pozitivna stvar za ATI. Ja ću se prilikom kupovine sljedeće grafičke kartice opet odlučiti za nVidiju jer smatram CUDA vrlo bitnim i korisnim.
a gdje si je ti koristio ili mozda znas nekoga tko je???
evo jednog primjera:
blue ray film ili ti u .mkv formatu 16gb velik rezolucije 1920*1080 pokrenut u gom playeru s internim kodekom od goma zauzeće proca da sad nenabrajam pojedniančno za svaki 2 jezgreni ide od 35-75% moj osobno proc 5000+ na 3,1Ghz 35-40% stalno varira, prijateljev 3800+ 2,0Ghz 75%
isto to samo na nvidijinoj graf (konkretno 8600gts) kada u gomu odaberes externi filter i enablaš cuda zauzeće proca padne na 12-18%
pa ti sad računaj 75% vs 18% e pa tko to nesmatra korisnim, e onda nemam šta reći :)
Vecina vas ovdje ocito nema pojma o cemu uopce pricate. ATI ima svoja rjesenja za GPGPU
programiranje pod nazivom ATI Stream SDK koje razvija vec duze vremena i moze se koristiti
sa svim ATI-evim karticama jos od serije HD 2xxx (zapravo i od x1900 ali ona danas vise nije podrzana),
i nudi low-level CTM assembler-like pristup kao i high-level C-like open source jezik Brook+.
CUDA takoder koristi C-like jezik "C for CUDA" s time da je proprietary.
Kako bilo, ovo nema nikakve veze za krajne korisnike ako nisu slucajno programeri, jer samom konzumentu
CUDA kao takav nicemu ne sluzi, nego samo aplikacije koje su napisane s podrskom za CUDA-u,
a posto se iste aplikacije mogu i napisati s podrskom za ATI Stream, moze vam biti sasvim svejedno,
jedino za sada izgleda da ima vise aplikacija za nvidia-ine kartice jer agresivnije guraju svoje tehnologije.
Ali sve to ce tako i tako postati proslost kada se pocne korisiti OpenCL, pomocu kojeg ce se moci
pisati cross-platform GPGPU aplikacije neovisne o proizvodacu GPU-a.
I koji sada smisao za ATI da podrzava CUDA-u?
E pa nema ga, pogotovo kad su obje kompanije objavile da ce podrzavati OpenCL u sljedecim revizijama.
@McNEKONTROLIC, pa sam si napisao s internim codecima ti je visoko zauzece jer oni ne koriste
DXVA (DirectX Video Acceleration), da ukljucis u GOM-u Quick Play Mode ili jednostavno koristis
Media Player Classic Home Cinema, vidio bi da nema uopce potrebe za koristenjem CoreAVC-a
jer se s pomocu DXVA vecina posla dekodiranja videa prebacuje na GPU. Guglaj malo.
Znači, dok OpenCL zaživi, CUDA je vodeća tehnologija za GPGPU. To samo po sebi nije mala stvar. Npr. BOINC znanstvene aplikacije su trenutno napisane isključivo s podrškom za CUDA, a za istovjetne STREAM aplikacije nisam još uopće čuo da postoje. Nvidia je na GPGPU polju dakle trenutno u prednosti i uopće ne vidim nijedan racionalni razlog zašto se ATI ne bi tu barem malo prikačio i podržao CUDA na Radeonima, ako je Nvidia već tako dobro pripremila teren sa svojim agresivnijim marketingom.
To mi se čini kao prilično neuvjerljiv i djetinjast argument: nećemo koristiti CUDA tehologiju jer ne bi bila brza kao nVidijina. Činjenica je da ATI-jevi grafički procesori imaju stotine i stotine potencijalnih teraflopsa koji bi se mogli već sutra efikasno iskoristiti pomoću CUDA aplikacija, na dobrobit cijele računalne industrije, pa i svijeta. Čak i da npr. ATI-jeva CUDA ima 25% lošije performanse, svejedno je riječ o ogromnoj procesorskoj snazi koja će sada ostati protraćena zbog ATI-jevog inata i neprihvaćanja novih tehnologija.
Netko ide kupovat grafičku i gleda ponudu AMDa i Nvidie u istom cijenovnom rangu, nađe po jedan model od svakoga i ide ih detaljnije usporediti, sve performanse su im skoro pa jednake ali AMD je samo u jednom segmentu (koji je odjednom postao važan) 25% slabiji. Koju će karticu taj netko kupiti?
Nije to inat, to je zdrava pamet.
Netko ide kupovat grafičku i gleda ponudu AMDa i Nvidie u istom cijenovnom rangu, nađe po jedan model od svakoga i ide ih detaljnije usporediti, sve performanse su im skoro pa jednake ali AMD je samo u jednom segmentu (koji je odjednom postao važan) 25% slabiji. Koju će karticu taj netko kupiti?
Nije to inat, to je zdrava pamet.
Ne osporavam da ATI već neko vrijeme nudi bolji omjer cijena/performanse (što se tiče igri). Međutim, što se tiče GPGPU-a, Nvidia je za sada u velikoj prednosti (sa CUDA-om). To se možda nekome čini kao marginalna stvar (jer su mu prioriteti Crysis i/ili Far Cry 2), ali činjenica je da u svijetu GPU distributed computinga Nvidia trenutno apsolutno dominira. Tako npr. za BOINC trenutno postoje dvije CUDA aplikacije: popularni SETI@home i GPUgrid (zajedno oko milijun aktivnih korisnika). S druge strane, za ATI ne postoji ni jedna BOINC GPU aplikacija. Što se tiče još popularnijeg Folding@home projekta, i tu Nvidia stoji znatno bolje. Prema F@H službenim statistikama, Nvidia sa 17114 aktivnih procesora bilježi 4298 TFLOPS, dok ATI sa 9330 aktivnih procesora bilježi samo 1004 TFLOPS. ATI je navedenu nezavidnu situaciju mogao brzo i jednostavno poboljšati - prihvatiti CUDA tehnologiju i odmah zabilježiti poene kod BOINC korisnika koji bi navedene aplikacije vrlo brzo mogli početi koristiti i na svojim ATI grafičkim karticama. Međutim, ATI se ipak radije odlučio na inaćenje s Nvidiom. Šteta.
Znači, dok OpenCL zaživi, CUDA je vodeća tehnologija za GPGPU. To samo po sebi nije mala stvar. Npr. BOINC znanstvene aplikacije su trenutno napisane isključivo s podrškom za CUDA, a za istovjetne STREAM aplikacije nisam još uopće čuo da postoje. Nvidia je na GPGPU polju dakle trenutno u prednosti i uopće ne vidim nijedan racionalni razlog zašto se ATI ne bi tu barem malo prikačio i podržao CUDA na Radeonima, ako je Nvidia već tako dobro pripremila teren sa svojim agresivnijim marketingom.
Folding@Home ima podrsku za ATI kartice.
BOINC kao i F@H su kienti koji primaju sirove podatke od servera obrade ih i salju natrag, nisu to nikakve znastvene aplikacije,
a BOINC klient podrzava CUDA zato sto je Nvidia financirala i potpomognula implementaciji podrske za svoje kartice, inace podrska
za ATI kartice je najavljena za verziju 6.8.
Razlog zasto se ATI ne zeli "prikaciti" je taj sto ATI ima vlastite alate tj SDK za razvoj aplikacija za vlastite kartice,
zasto bi onda placali Nvidiji da mogu podrzavati CUDA kada imaju svoja rjesenja koja su jednako dobra, a uz to se
baziraju na open-source tehnologijama sto se meni osobno vise svida?
Isto tako bi mogao pitati zasto nvidia ne impementira Stream ?
Tako ti npr. Nvidia trubi o Babadoom-u koji se placa nekih 30$, dok od ATI-a dobijes Avivo konverter za mukte.
ATI je tek nedavno poceo zesce gurati Stream ali to ne znaci da je spavao, ocekujem da cemo narednih godina biti zasuti
aplikacijama koje podrzavaju GPGPU tehnologije, pa ce to jednostavno postati najnormalnija stvar.
To mi se čini kao prilično neuvjerljiv i djetinjast argument: nećemo koristiti CUDA tehologiju jer ne bi bila brza kao nVidijina. Činjenica je da ATI-jevi grafički procesori imaju stotine i stotine potencijalnih teraflopsa koji bi se mogli već sutra efikasno iskoristiti pomoću CUDA aplikacija, na dobrobit cijele računalne industrije, pa i svijeta. Čak i da npr. ATI-jeva CUDA ima 25% lošije performanse, svejedno je riječ o ogromnoj procesorskoj snazi koja će sada ostati protraćena zbog ATI-jevog inata i neprihvaćanja novih tehnologija.
Netko ide kupovat grafičku i gleda ponudu AMDa i Nvidie u istom cijenovnom rangu, nađe po jedan model od svakoga i ide ih detaljnije usporediti, sve performanse su im skoro pa jednake ali AMD je samo u jednom segmentu (koji je odjednom postao važan) 25% slabiji. Koju će karticu taj netko kupiti?
Nije to inat, to je zdrava pamet.
Zgodna je cinjenica da ATI za sada nudi vece sirove performanse nego NVIDIA. Tako HD 4890 daje do 1.36TFlops-a,
a 285 GTX do 1.06TFlops-a.
Cijela ta GPGPU tehnologija je jos u pelenama, i prvi veci pomak nakon dosta vremena ce se dogoditi dolaskom OpenCL-a
sto bi moglo bit vrlo brzo jer Apple je najavio da ce biti implementiran u Snow Leopard OS. Isto tako DirectX 11 bi trebao
podrzavati do neke mjere koristenje grafickih kartica u GPGPU svrhe ali nije poznato previse detalja.
Dosada je implementiranje GPGPU tehnologija bila tlaka za developere jer moraju ili pisati poseban kod za Nvidia i ATI kartice
ili se odluciti za jednu od opcija, a i jedno i drugo je daleko od optimalnog.
Isto tako de/enkodiranje videa preko grafickih kartica je zgodna stvar, ali svakako najveca korist lezi u ubrzavanju profesionalnih
alata i aplikacija sto je za obicnog usera totalno nevazno.
@Vortac; Ti znaci zelis reci da bi ATI trebao placati Nvidiji iako imaju svoju tehnologiju, da bi mogli koristiti CUDA-u, sto bi naravno
potrajalo kojih godinu dana, zato da bi korisnici ATI kartica dobili podrsku za BOINC koja ce i tako doci kad tad (za sada planirano za verziju 6.8),
i unatoc tome sto nam je unificirani standard pred vratima koje su obje strane prihvatile ? A sve to u ime humanitarnosti.
EDIT: Ukratko receno predvidam skori odlazak u vjecna lovista i Stream-a i CUDA-e i Phisyx-a i ko zna cega sve ne,
jer vise nitko nece htjeti pisati kod od kojega profitira samo jedna strana, jer se to eto ne isplati ekonomski...
Zato pozdravljam OpenCL (kojeg gura Apple sto je najzanimljivije) i DirectX 11 jer ce nas konacno rijesiti tih napasti,
a i nvidia vise nece biti toliko naporna sa svojom CUDA kampanjom, jer koliko ga pilaju covjek bi mogao misli da su kod
grafickih kartica danas vaznija GPGPU svojstva nego iscrtavanje piksela.
Da, Folding@home ima podršku za ATI i na ATI grafičkim karticama radi ~55% sporije nego na Nvidijinim karticama. Baš i nije neka podrška.
Što se tiče BOINC-a, riječ je o znanstvenim aplikacijama. Obrada podataka koju spominješ je često procesorski vrlo zahtjevna, pa i na modernim računalima zna potrajati nekoliko dana, a rezultati se koriste u znanstvene svrhe. Ne znam kako bi drukčije tu aplikaciju opisao nego kao znanstvenu?
Vecina vas ovdje ocito nema pojma o cemu uopce pricate. ATI ima svoja rjesenja za GPGPU
programiranje pod nazivom ATI Stream SDK koje razvija vec duze vremena i moze se koristiti
sa svim ATI-evim karticama jos od serije HD 2xxx (zapravo i od x1900 ali ona danas vise nije podrzana),
i nudi low-level CTM assembler-like pristup kao i high-level C-like open source jezik Brook+.
CUDA takoder koristi C-like jezik "C for CUDA" s time da je proprietary.
Kako bilo, ovo nema nikakve veze za krajne korisnike ako nisu slucajno programeri, jer samom konzumentu
CUDA kao takav nicemu ne sluzi, nego samo aplikacije koje su napisane s podrskom za CUDA-u,
a posto se iste aplikacije mogu i napisati s podrskom za ATI Stream, moze vam biti sasvim svejedno,
jedino za sada izgleda da ima vise aplikacija za nvidia-ine kartice jer agresivnije guraju svoje tehnologije.
Ali sve to ce tako i tako postati proslost kada se pocne korisiti OpenCL, pomocu kojeg ce se moci
pisati cross-platform GPGPU aplikacije neovisne o proizvodacu GPU-a.
I koji sada smisao za ATI da podrzava CUDA-u?
E pa nema ga, pogotovo kad su obje kompanije objavile da ce podrzavati OpenCL u sljedecim revizijama.
@McNEKONTROLIC, pa sam si napisao s internim codecima ti je visoko zauzece jer oni ne koriste
DXVA (DirectX Video Acceleration), da ukljucis u GOM-u Quick Play Mode ili jednostavno koristis
Media Player Classic Home Cinema, vidio bi da nema uopce potrebe za koristenjem CoreAVC-a
jer se s pomocu DXVA vecina posla dekodiranja videa prebacuje na GPU. Guglaj malo.
Tako je...
drnde, svjestan sam ja tog i naravno da za .mkv koristim mpc home cinema i zauzeće proca je na 3%, ALI gom player mi je APSOLUTNO najbolji player ikada za video kao vjerovatno i večini ekipe ovdje i ide mi na k... što kad hoću gledati .mkv film ako neću 50% zauzeća proca moram gledati u MPC HC i to potvrđuje ono što si naveo o aplikacijama koje su pisane baš tako da bi cuda činila čuda :) a oni koji imaju nvidinie kartice ko moj frend to nemoraju raditi jer ima 3puta lošiji proc od mog bude na 18% zauzeća kad gledaju taj isti filmu gomu... :(
i na glupavom power dvd koji bi trebao biti kralj hd videa i koji ima opciju hardverskog ubrzanja što je prednost za ati nemožeš reproducirati .mkv, truba:(
a ja sam ono gore naveo zato jer je SAŠA pitao gdje se koristi cuda i tko ju je koristio i ja sam mu samo naveo jedan jednostavni primjer!