A AA tam mas? O tom dost silne pochybuju ;)
Printable View
Na B3Df někdo zmínil, že na X1950PRO mu HDR+AA+stín hráče funguje. Nemám to jak ověřit - možná záleží na verzi ovladače.
Muze mi tu, prosim, nekdo zasvedceny rict, jestli ma HD2900 uz konecne linearni filtrovani pri ziskavani vzorku z depth mapy nebo je to porad zalezitost NV? (tj. ze na min/max filtr u depth mapy funguje v OGL: GL_LINEAR_MIPMAP_LINEAR a nebo zase jen GL_LINEAR_MIPMAP_NEAREST, obdobne v D3D)
Sem to zkousel vykoumat ze screenu a podle nich se zda, ze tam je. Ale je to tezko takhle posoudit. Muzou to byt i pozmenene shadery, resp. jiny vzor rozlozeni samplu.
Screeny X1900 (bez linearniho filtru, ale s rozlozenim vice vzorku) a HD2900(ciste jenom linearni HW filtr?).
Tak jsem zjišťoval info ohledně HDR+FSAA+stínů v R6V a situace je následující:
- hra tuhle kombinaci oficiálně vůbec nepodporuje
- na Radeonech se buďto nezapne AA, nebo se nezobrazí stíny
- nVidia používá nějaký driver hack (zřejmě něco a la Chuck-patch), ale přesto AA+HDR+stíny korektně nefungují - konkrétně stíny vypadávají nebo jsou nekompletní (pict1, pict2)
Takže v tomhle si ATi s nVidií nemají co vyčítat - s AA to prostě korektně nechodí na ničem :-)
Vi nekdo v cem je problem, ze jim nejde HDR a AA zaroven?
Jo, ale nejde o samotný HDR+AA (to by nebyl problém), jako spíš kombinace obojího se stíny. Konkrétně je to způsobeno nestandardním algoritmem pro vykreslování stínů, který R6V používá.
Peclive jsem si procetl velkou spoustu testu novych Radeonu a musim rict, ze ackoliv bych se zrejme smiril s nedodelanymi drivery, vec kterou neprekousnu je hlasity chladic zpusobeny velkym tepelnym vyzarovanim. Takze si ted hodlam poridit 8800GTX a na ni "prezit" do dalsi generace grafik. A pevne doufam, ze v te uz bude zase ATi konkurenceschopna po vsech strankach...
Zdar,to už není možné co špíný se háže na r600...mám sapphire hd2900xt a žádné problémi s ní nemám teploty i hlučnost jsou ok,co se týče ovladaču mám verzi 8.37.4 a na to že to jsou bety,tak jedou bez problému ani náznak nestability!
Tohle proste musi byt slyset.
http://www.xbitlabs.com/images/video..._noise_5cm.gif
http://www.xbitlabs.com/images/video...t_noise_1m.gif
presne, viz aj mirkov test na zive, 2900XT je jednoducho hlucnejsia a ma menej prijemny zvuk ako GTX ... taky ako Mayhem cz asi nikdy GTX v akcii nevideli :)
Haste: Nejde o engine, ale o způsob vykreslování stínů, který se samozřejmě v jednotlivých hrách založených na stejném enginu může lišit. Jinak hra byla optimalizovaná přímo na Xbox, kdežto port už na konkrétní "sestavu" optimalizován není. Je to prostě věc driverů, možná i patche, ne hardwaru, ale v tuto chvíli je jisté, že to prostě na žádné kartě správně nefunguje
---
Zilla: Hlučnost a spotřeba minimálně ve 2D nejsou konečná - 8.36 a 8.37 drivery mají bug, kvůli kterému se 2D v některých situacích nevrací frekvence na nižší hodnotu, takže čip hřeje víc než by měl a větrák se podle toho točí. Mělo by to být brzy vyřešeno. Co se týká hlučnosti ve 3D, nemám žádné konkrétní info, ale je až zarážející, jak se mění teploty a hlučnost podle zkušeností jednotlivých uživatelů - někteří mají 65°C v zátěži a větrák na nízkých otáčkách, jiní 90°C a větrák skoro na maximu. Jeden uživatel zmiňoval hlučnost nižší než u X1800XT, ale těžko posuzovat, když každý má jiné výsledky
---
a na závěr perlička :-)
Testy HD2900XT s 8.38 drivery:
http://www.hkepc.com/bbs/hwdb.php?ti...HIS&rid=790821
Ono v pripade UE3 jsou vsechny technicke veci uz primo implementovane v enginu. Je to kompletni balik i vcetne shaderu pro NormalMapping, Parallax mapping, Relief mapping i Dynamic Occlusion Mapping, stejne tak i techniky stinu, refrakce, reflexe aj. Navic vykreslovani stinu je zalozene na dvou technikach, ktere se jen s minimalnima zmenama omilaji stale dokola. Vzdy je to bud pomoci stencil bufferu nebo pomoci depth mapy. Shaderem pak uz jen dopocitavas transformace texturovych koordinat a to je taky standardni pristup. Zpusob vykresleni je potom naprosto stejny a rozdily ve vzhledu jsou dane jenom velikosti depth mapy, poctem samplu, kolik ziskavas na pixel a samotnym vypoctem nad nima(v pixel shaderu), ktery ovsem nema na AA naprosto zadny vliv. To co je videt na tech screenech z R6V mi spis prijde jako problem s polygon offsetem, ktery se pouziva pri renderovani depth mapy do textury, ale zahada je, proc se to projevi az po zapnuti AA.
Pekne... takze voci GTSke proti ktorej svoju kartu ATI postavila je to dobreee !!!
dakujem no-X, hned sa mi bude lepsie spat ;)
trosku mimo tohto tematu ale nebudem kvoli tomu zakladat nove tema, odpovedzte mi prosim cez sukromne spravy : ma nejaky zmysel tlacit na moju kartu (1650Pro na AGP) 7.4 drivery ??? zatial mam 7.1 omegy.... dakujem za odpovede a borci - nehnevajte sa...
Pokud nemáš problémy, doporučuju zůstat u 7.1.
Ted nevim, jak to co nejlip napsat, ale ja jsem uzivatel, ktery slysi i piskani z opticke mysi, takze kazde zvyseni hluku nesu dost nelibe, zvlast proto, ze komp mi bezi 24/7 asi tak metr a pul od postele. Sice jsem se smiril s tim, ze vykonny pocitac jen tak pasivne neuchladim, ale nechci mit doma tornado. Ze svoji X1900XT od Asusu jsem mel i v low otackach vetraku infarkty... ;-)
Super napad, ale ja bydlim v panelakovem byte, takze tu moc volnych spajzek nemam :-)
Presne jsi to vystihl, uz zacinam zjistovat informace o tom pasivu od Thermalrightu... ;-)
BOINC nepocitam z prosteho duvodu, porad jeste cekam na nejaky ofiko tym, kde jsi ted ty?
myslim ze takova osveta jelikoz je nas vcelku stale poskrovnu oproti poctum v UD snad tohle OT prezije cili:
http://4um.ocguru.cz/showpost.php?p=712762&postcount=41
Na X-bit labs se podivali na slusnou radku her pod Windows Vista.
http://www.xbitlabs.com/articles/vid...900-games.html
Radeon HD 2900 XT lacks UVD video acceleration
http://techreport.com/onearticle.x/12552Citace:
True to my word, I set out yesterday to test HD video decode acceleration on a Radeon HD 2900 XT using an HD DVD drive and a version of PowerDVD supplied by AMD for such purposes. To my surprise, CPU utilization during playback on our Core 2 Extreme X6800 test system ran between 40 and 50%, well above what one would expect from a solution with full HD video decode acceleration.
Naturally, I contacted AMD to inquire about the problem. I received a reply from AMD's David Baumann discussing the issue that ended with this revelation:
Be aware, though, that HD 2900 XT itself does not feature UVD, this is specific to 2600 and 2400, so the levels of CPU utilization you see should be somewhat similar to the previous generation.
Že je UVD dekodér integrován jen do low-end a main-stream čipů, jejichž shader core nestačí na zpracování HD videa, bylo recenzentům prezentováno už při uvedení R600...
http://ukazto.com/img_small/hd2000lq.jpg
ale pokud chce někdo z informace, která je známá již od vydání, dělat senzaci... :roll:
A co tedy presne znamena Blu-ray/HD DVD decoding u 2900XT?
Me prijde, ze si stezuje, ze ta akcelerace nejde vubec, protoze 40-50% vytizeni CPU na QC je docela dost.
Mimochodem, kdyby sis aspon precetl ten clanek, coz podle tve reakce soudim, ze si neudelal, tak bys vedel, ze se z toho nikdo nesnazi udelat senzaci. Oni sami totiz ve svoji recenzi uvedli, ze 2900XT obsahuje UVD a to same si myslelo i par dalsich redakci.
Jak píšu - znamená to, že na HD2900 funguje akcelerace přes shader core (podobně jako X1), kdežto na HD2400 a HD2600 je HD stream hardwarově dekódován dedikovaným obvodem (32bit MIPS), protože by jejich shader core na 1080p nestačilo (podobně jako na 1080p nestačily X1300/X1600).
No zda se, ze co se tyce 16-bit ve hrach, tak si G80 a R600 nemaji co vycitat.
http://www.pcgameshardware.de/?article_id=601826
Zkusil jsem to a vysledek v Marku01 je takovy ,ze na G80 je stejny 16 bit obraz jako na R600 krome Nature ktery bylo na G80 bez obrazovych chyb. Namatkou vyzkousen Unreal Tournament a v 16 bit shodne graficke chyby. v 16 bitech obe karty nepouzitelne.V 32bit je UT bez problemu na obou.
Můžeš dodat nějaké screenshoty? Pokud možno 16bit + MSAA?
Pozde PC s R600 si kolega uz odnesl. Mel jsem ho jen na par dni. MSAA jsem pri tom nezkousel pouze nativni rozliseni v 16bit vcetne textur. Obraz je proste spatny stejne jako na tech screenshotech z toho linku na obou kartach. V UT jsou stiny postav,stopy krve a po vybuchu podlozeny svetlymi a tmavymi ctverci a celkove jsou spatny barevny odstiny. V 32bit je vse jak ma byt. Na G80 pak jeste vyzkousen Mortal Kombat 4 ktery byl bez chyb. Fighting Steel nema texturu more a obloha je rozmaznuta. V Darkstone po spusteni jen cerna obrazovka.
Predpokladam ze se na to asi obe firmy jednoduse vybodli nebo je to zalezitost cipu.
Zajímá mě to kvůli tomu, že na R300-R580 znamená zapnutí MSAA použití 32bit frame-bufferu. Což byl jeden z důvodů lepší kvality "16bit" her na Radeonech.
Zkus nejakeho majitele R600. 3Dmark01 musi nekdo z nich mit ,ale mylim ze to nebude mit zadny vliv.
BTW: Beru zpet ctverce v UT - daji se odstranit v ovladacich. Zbyva tedy jen kvalita barev a jejich prechody. Ostatni hry a chyby v nich beze zmen.
Asus EAH2900XT AquaTank
http://ukazto.com/img/20news_asus_2900XT_aquatank.jpg
http://www.tweaktown.com/news/7574/index.html
A co ako s tych obrazkov mam vidiet ??? Ze to ide v takej kvalite, v takom rozliseni a vyzera to skoro ako Motostorm ?
Ci narazas na daco insie ...?
@Yuri - Wow :) Takze teraz to je samozrejme jasne, ale sam by som tam tie čisielka nezbadal. Asi FRAPS ze.
K tem dvema obrazkum: u Ati se mi zdaji barvy a stiny zivejsi (sytejsi) + v levo je u ATi navic zabrana vedle trate. Takze kdovi jestli jsou na vinne jen ovladace ;)
A odkdy děláme závěry z výkonu v jednom vybraném okamžiku? Stačí se podívat na jakoukoli recenzi s grafy průběhu a snadno podle nich najdete v mnoha hrách scény, ve kterých má na okamžik HD2900XT framerate vyšší i než GF8800Ultra. Takže screenshot s okamžitým FPS je jedna věc a naměřený průměrný framerate je věc druhá...
Ja myslim, ze zavery z toho asi nikdo rozumny vyvozovat nemuze. Nekdo si proste tipnul screenshot, ktery se mu hodil do kramu a to ma pramalou vypovidaci hodnotu. Nebo si nekdo skutecne mysli, ze je 8800GTX 3x vykonnejsi nez HD2900XT? Takovych screenshotu by se dalo udelat ve prospech obou stran mraky :-)
zaver uz davno padol momentalne je 2900xt o dost slabsia ako 8800gtx. vydel som kopu tych testov na uz ani neviem kolkych strankach bolo par pripadov ked bola 2900xt dokonca lepsia ako gtx ale to je asi tak 10% s celkoveho poctu. myslim si ze ten screen to celkom vystihuje ako je na tom ta karta. a ak ste si pozreli ten link je tam viac screenov a na vsetkych ma 8800gtx o hodne viac fps. preto tam masster asi aj dal ten link no nie?
Yuri: Nevím, co jsi viděl za testy, ale pokud v nich nebylo napsáno ani to, že HD2900XT je konkurencí GF8800GTS a ne GTX, tak asi za moc nestály...
Tech screenu je tam vic, takze tezko muzete autora vinit z toho, ze si vybiral pouze screeny, ktere se mu hodi.
K propadum ve hre dochazi, ale ze by dochazelo k propadum na miste, kde vidis jedno auto, je to start a je tam spousta casu tu scenu nacist? To se mi docela nezda.
Rozhodne tady z toho nikdo nedela zadne zavery, ale muze to byt ukazatel nejakeho problemu a vzhledem k tomu, ze demo uz je par dni venku, tak to nekdo muze vyzkouset a bez problemu to vyvratit.
mozno uz zle vidim, mozno to robi zmensenie ci kompresia, alebo to, ze tie screeny nejsu fotene v tom istom okamihu, ale ten screen z 2900 mi prijde kvalitnejsi / detajlenjsi ... mozno lepsie AF?
no-x tak potom neviem co sa ti na tych screenoch nepacilo... a stou konkurenciou voci gts co ja viem tu cenu mohli dat trocha nizsie podla mna sak unas stoji gts a r600 asi rovnako :(
no-X: nechcem zase mutit vodu lebo sa to tu uz ako tak ukludnilo ale neda mi to. Obcas mi pripadas ako keby si zachranoval potapajucu sa lod. Samozrejme ze to nie je uplne tak lebo novy radeon natom nie je az tak zle ako sa na prvy pohlad zda (niekto si zase mysli opak) ale ked atina zacala vyvijat r600 tak urcite ju vyvijali stym ze to bude konkuret highendu nvidie. Pol roka na forach fanatici dristali ako bude r600 vykonny ked nie vykonnejsi ako GTX. A co nestalo sa tak. Preco? asi nie je nutne vysvetlovat.
Inak povedane keby nato atina mala tak to postavi proti GTX ale nema tak je to iba konkurent GTS.
Chces mi snad povedat ze sa mylim :-)
Podle mě vnášení osobních názorů na druhé ještě žádné diskusi nijak neprospělo. Ale jsem alespoň rád, že jsi to formuloval slušně a neurážlivě, což se některým účastníkům diskuse moc nedaří :-)
Určitě není, ale taky je nutné říct, že mnoho lidí hledá chyby na nepravých místech. Nebo spíš, že mnoho lidí (kteří se jinak o grafiky celý rok nezajímají a mění to jen při vydání nového high-endu) vyvozuje z neúplných informací, které se mnohdy nesprávně vyloží, ukvapené a chybné závěry
Ano, máme demokracii, každý si může myslet, co chce. Pokud s tím ale vyleze mezi lidi, měl by být schopen svoje názory rozumně obhájit, což se bohužel děje čím dál vzácněji a podle toho diskuze vypadají...
Ani ATi ani nVidia nevytvářejí produkty podle svých konkurentů. Ačkoli si to mnoho lidí myslí, není to tak a v případě high-endu už vůbec ne - na základě výsledků konkurenčního produktu už můžou maximálně tak mírně poladit frekvence nebo zvolit kapacitu paměti - nikoli vytvářet celý produkt. Jak R600, tak G80 začaly vznikat skoro před pěti lety a ani jedna strana neměla ponětí, kdy bude produkt hotový, v jaké konfiguraci bude vydaný a ani proti čemu bude stát. Tehdy dokonce ani nemuselo být jasné, jaké firmě bude konkurovat - tehdy byla situace na trhu přeci jen poněkud pestřejší...
Každá firma se tedy snaží odhadnout požadavky her a API doby, do které nové GPU přijde a pokud je třeba, tak ještě vést vývojáře her směrem, který bude nejlépe novéhmu produktu vyhovovat, případně zasáhnout do vývoje API.
Mám je za to poslat na hambu? :-)
Já si naopak myslím, že to třeba je. Pokud máš vysvětlení, rád si ho poslechnu... většina lidí se snaží najít důvod, jenže problém je v tom, že důvodů je více a prsty jedné ruky by na ně možná nestačily. Jenže takové vysvětlení se nikomu nelíbí - všichni chtějí slyšet jediný důvod - pokud možno takový, aby v podání novinkových serverů vyzníval jako co největší senzace. Pravda je bohužel příliš nudná na to, aby někoho dokázala zaujmout...
Architektura R6xx celkově velice dobře zvládá vysoké takty, dokonce má i dobrý poměr výkon/spotřeba. Jenže, nevyšlo to s výrobním procesem a ačkoli by s 80nm klidně R600 při bezpečném napájecím napětí zvládala běžet i na 900MHz (na kterých by zajísté dokázala velmi dobže GTXce konkurovat), má použitý výrobní proces problémy s power-leakage, což znamená neadekvátní spotřebu (frekvence tím omezeny nejsou, ale nedá se to pak rozumně uchladit). A ATi, i kdyby se na hlavu stavěla, tak s nedostatky 80nm HS procesu nic neudělá a nezbyde jí než počkat na 65nm a doufat, že tyto problémy mít nebude (alespoň pdole výsledků s RV630 by být nemusely - poměr výkon/spotřeba má o dvě třetiny lepší, než měla RV530).
To musíš vědět ty sám :-)
No Atine to teraz nevyslo alebo teda nie tak ako sa ocakavalo a natom sa urcite obidvaja zhodneme?
Prvy dojem robi dost vela a ten nebol hrovna oslnivy. Ono mi to cele pripomina hokejovy zapas. Nasi hrali lepsie mali 50 sanci 100striel na branakra ale aj tak to nestacilo a ....
Je to tady bohuzel na kazde strance, tzn. minimalne 22x. Lide proste ocekavali, ze R600 rozdrti vsechno ostatni. Jakmile se to nestalo, tak prognozuji pomalu zanik AMD (dobre to vystihuje no-xuv podpis).
Kdyby ati porazila nvidii i kdyby ta karta stala 25k, tak by si sice mozna zaslouzila obdiv ostatnich (i kdyz nekterym by se nezavdecila ani tak), ale z toho rozhodne svuj business neuzivi.
No-x tu sice obhauje ATI kolikrat az do sameho konce, ale aspon vam ukaze PROC to tu obhajuje a dokazuje sve tvrzeni REALNYMI a PROKAZATELNYMI skutecnostmi (ackoliv to treba nema vliv na vykon dnes) a ne nazory bulvarnich autoru a spol.
A pročpak by jí měli dávat nižší, když všicni vědí, že je R600 výkonější ??
A proč si myslíš, že po vydání R600 všechny velkoobchody ihned GTS zlevnili??
...ze stejného důvodu, samozřejmě ;-)
A jak tu píše no-X když svojí R600 mám stabilně přetočenou na 870MHz tak je ten výkon opravdu někde jinde a dýchám na záda i GTXce na 625MHz ;D
Ja tedy urcite Ati/AMD nepredvidam zadne potize, ci konec.
Ale soucasne karty postavene na R600 mi proste nevyhovuji hlavne diky produkovanemu teplu a tim padem hluku.
A ze sveho uhlu spis vidim vinu na marketinku - nekdo proste rozhodnul (a technik to nebyl), ze ten chip bude na takovych a takovych taktech a napajen tak a tak. (na maximu, ktere se da jeste uchladit...)
Stejne tak mohli vydat i GT verzi, ktera by byla v nizsich taktech/teplotach - s nizsim vykonem a cenou.....
Takhle mi nezbyva, nez cekat na R650..
@milka - to co tu pises presne vystihuje mainstream. Grafiky v high-ende su obrazne vzdy to naj-teplejsie, naj-hlucnejsie a naj-vykonnejsie co vyrobca ma. Vyrovnany pomer tychto vlastnosti je proste mainstream po ktorom siahne vedsina ludi. Cakat na R650 a nechcet R600 je trochu divne, bo ta krata bude zas naj-vsetko ;)
(Inac Ati je ted ziarivym prikladom ako mozno aj mainstreamu trochu prikurit..viz X1950rada... coje vlastne klesnuty high-end)
Myslel jsem pockat na prichod R650, coz zamava s trhem a nabidkou karet.
Pak si treba poridim nejakou tu GF8800GS postavenou na 0.65nm s pasivnim chlazenim....
Hold muj rozpoctovy limit (ktery manzelka jeste schvali) na grafarnu je kolem 6 tisic, a v teto cenove kategorii v soucasne dobe neni nic zajimaveho...
1950pro stoji kolem 4000 ,- a 8800gts 320mb stoji 8000,- Vykonostne a cenove mezi tim neni proste nic..
mohla by byt lacnejsia ako gts hlavne preto lebo prisla o pol roka neskor :)
som zvedavy kedy chcu vydat tu r650 ak nevide do 3-4mesiacov myslim ze ju nema zmysel ani robit ak by teda bola pravda ze uz vzime ma byt gf9 ktore bude podla mna zasa lepsie aj ako r650 :-/
ad DIRT: tady jsou nějaké výsledky:
http://www.rage3d.com/board/showthread.php?t=33891905
sice je to o stupeň nižší rozlišení, ale ani tak to nevypadá, že by ta hra měla běhat na HD2900XT na osmi FPS...
Celkom zaujimava vec dnes vysla aj tu :
http://www.pctuning.cz/index.php?opt...1&limitstart=0
2900XT vcelku s prehladom poraza 8800GTS (a to je lacnejsi) a tiez ma prijemne prekvapilo (aj autora toho testu) ako dobre sa drzal 1950XTX na rozdiel od 7900GTX
eeeej, asi si budem mastit brucho...
něco tu X2900XT drží aby jela na plný výkon.. má v DX10 ve všech rozlišení stejné fps, něco podobného jsem viděl i v DIRT.
No jak píše dále v příspevku v SSXeon
Not good, and not playable. I was at nvnews and saw it was random, one guy had good results and the other had bad results. Its not that playable for me right now. Hopefully 7.5s change this, so we shall see.
Tak zeby nakoniec predsa GDDR4 radeon? Dokonca v pomerne normalnej velkosti?
http://theinquirer.net/default.aspx?article=39960Citace:
RUMOURS REACH US from Old Taipei to insinuate that 1GB GDDR4 versions of the Radeon 2900 XT may tip up at Computex.
DAAMIT was experimenting with 1GB of the theoretically-faster memory spec on the 2900 XTX, but couldn't make it work with the 65nm XTX chip, with the prototype cards ending up with slower performance than the 512MB GDDR3 XT.
The card will be a firm nine inches, not the 12-inch monstrosity that had been feared.
The jury is still out on whether there is much need for 1GB cards in the consumer space. While games like Unreal Tournament 3 and Quake Wars feature some high detail textures, one can't help wondering if DAAMIT should concentrate on fixing the core marchitecture, rather than just plonking more memory on.
@O GDR3 vs GDR4
Dobre je to, že sa navýsi vykon, ale negatívne je zrejme to, že to tučne navýši aj CENU !!, a ta asi nebude odpovedať tomu výkonu. To je moja šalena predstava.
Ako XTčku podla Vás, chýba prave pamäťova priepustnosť, či je zotpovedná pre súčasný šhit výkon?
Určitě ne. XTéčku chybí frekvence, kterou si ATi nemohla dovolit díky problémům s power-leakage u 80nm procesu (resp. mohla, ale nebylo by to jak uchladit). Pokud bude krom frekvence navýšený i počet všech výpočetních jednotek o 50% (96/24), mohl by být výkon zajímavý, ale nebudu až takový optimista :-)
nějaké HD screenshoty z dema Whiteout
http://xs216.xs.to/xs216/07225/ruby01.jpg.xs.jpg http://xs216.xs.to/xs216/07225/ruby02.jpg.xs.jpg http://xs216.xs.to/xs216/07225/ruby03.jpg.xs.jpg http://xs216.xs.to/xs216/07225/ruby04.jpg.xs.jpg http://xs216.xs.to/xs216/07225/ruby05.jpg.xs.jpg
http://xs216.xs.to/xs216/07225/ruby06.jpg.xs.jpg http://xs216.xs.to/xs216/07225/ruby07.jpg.xs.jpg http://xs216.xs.to/xs216/07225/ruby08.jpg.xs.jpg http://xs216.xs.to/xs216/07225/ruby09.jpg.xs.jpg http://xs216.xs.to/xs216/07225/ruby10.jpg.xs.jpg
http://xs216.xs.to/xs216/07225/ruby11.jpg
http://xs216.xs.to/xs216/07225/ruby12.jpg
http://xs216.xs.to/xs216/07225/ruby13.jpg
Trochu OT, ale všimol som si, že Ati, menovite tu X700PRO ma nadpriemerný výkon u Vertex Shaderu. Je VS u ati rychlejši, alebo preco prekonáva aj 6800GT ...ked papierovo naňu stráca?
Ja som si napr. tiež všimol, v Mother Nature pri pohlade zo začiatku na celú scénu s korytnačkou 66GT jemne potrhava ..pak už vysoké FPS..aj viac bodov celkovo, ale u R9800PRo ..to šlo subjektívne lepšie aj keď celkové FPS nebolo tak vysoké.
Je Ati lepšia u vertex Shaderov? (predpokladám, že tie tvoria vodu, ne?)
Ano, to je správně :-)
X700 (RV410) nese šest vertex shaderů, stejně jako řada X800 (R420/R423). Narozdíl od 6600 (NV43), která nese tři, tedy polovinu oproti 6800 (NV40/NV45/NV41/NV42).
Důvody, proč se ATi takhle rozhodla, jsou tři:
- Nároky na geometrii jsou nezávislé na rozlišení, takže ať používáš 320x240 nebo 3200x2400, tak to vertex shadery zatěžuje stejně. Proto není důvod, aby se mainstream od high-endu v počtu VS nějak razantně lišil. Naopak čím nižší rozlišení se použije, tím méně jsou zatěžovány pixel shadery a víc se projevuje výkon vertex shaderů.
- Čip RV410 (X700) nebyl určen jen pro mainstream, ale byl od počátku chystán i jako čip pro FireGL. Mnohé aplikace, které jsou v profi grafice používané, kladou velký důraz na geometrický výkon, proto 6VS
- Vertex shader jednotky této architektury jsou poměrně malé a neáročné na počet tranzistorů, takže jejich implementace nestála ATi skoro nic.
K tomu ti nemůžu dát žádné 100% zaručené zdůvodnění - napadá mě ale jedna možnost. Architektura NV4x má na každé pipeline dvě pixel shader jednotky v sérii. Ta první (která umí násobit), ale není určená čistě jen pro pixel shading, ale je sdílená a může ji využívat i texturovací jednotka pro texture adressing kalkulace. Tzn. buďto je používána pro jedno, nebo pro druhé (nikoli pro obojí zároveň). To je důvod, proč v syntetickém testu pixel shaderu zaměřeném čistě na aritmetické výpočty dopadají čipy NV4x mnohem lépe, než v reálných aplikacích, kde jsou požadavky na pixel shading i texture adressing mnohem vyrovnanější (a "přetahují" se o sdílenou výpočetní jednotku). Naproti tomu u čipů ATi (a nově i u G8x) je pro texture adressing vymezena samostatná výpočetní jednotka, takže plný výkon pixel shaderu je vždy k dispozici. Tahle teorie by právě na to jezírko v mother nature docela seděla - je totiž nárčoné jak na aritmetické operace (SM2.0, per-pxl fresnel, odlesky), tak na mnohonásobné načítání textur (normálové mapy, alpha-textury, kubické env. mapy...)
Na to se nedá jednoznačně odpovědět.
Na vodu se obvykle používají pixel shadery (konkrétně v 3DMarku pouze pixel shadery - vertex shadery na trávu a větve)
2900XT mi přišla pomalá, tak zítra budu mít druhou do Crossfire :D
Sir Eric Demers on AMD R600
http://www.beyond3d.com/content/news/273Citace:
Part of the myriad things we do here at Beyond3D when covering a graphics architecture is go as deep as we can with the personnel at the IHV that actually architected, concocted, designed, built and shipped the thing. That might take the form of an email exchange or phonecall, or maybe a drunken conversation over cheap bar snacks and bad tequila at a tech event in a seedy hotel bar. Whatever works to get the info everyone craves, right? So it's with great pleasure that we managed to corner one (Sir) Eric Demers, architecture lead on R600. . . .
celý článek (interview):
http://www.beyond3d.com/content/interviews/39/
Radeon HD 2900 Pro in the works
http://www.fudzilla.com/index.php?op...2212&Itemid=34Citace:
According to a post on ChileHardware, AMD is working on a Radeon HD 2900 Pro card and the reason behind this is that the model was mentioned in a recent Beta driver.
However, this isn't the RV670, as it's using the R600 GPU, although we'd expect that AMD has done some modifications to it, so it won't compete with the HD 2900 XT.
The driver string doesn't reveal too much information - "ATI Radeon HD 2900 PRO" = ati2mtag_R600, PCI\VEN_1002&DEV_9403
ChileHardware also claims that this new card should cost around US$200, which seems a little bit too cheap to us, but with AMD's current pricing, you'll never know, but we'd guess it'll be closer to $249.
HD HQV Benchmark: vítězí AMD?
http://www.cdr.cz/a/21982
AMD preps Radeon HD 2900 Pro and GT for fall
http://www.tcmagazine.com/comments.p...=15701&catid=2Citace:
AMD seems to prepare not one but two new cards powered by more or less modified R600 cores, one being the already old Radeon HD 2900 Pro and one the 2900 GT.
The first, and more powerful card, the Radeon HD 2900 Pro is said to have 320 SPs (or should we say shader units?) working at a yet to be determined clock and it will be brought in September to take some fame and fortune from Nvidia's GeForce 8800 GTS 320MB. The 2900 Pro will have 512 MB of GDDR3 memory and will draw a pretty hefty 150W. Performance should be just under the 320 MB 8800 GTS, but the card will also have a lower price tag.
The second card should be the sweetest offer of the 2000 series as the GT will have 240 SPs (still no clocks) and 256 MB of memory. Although its power draw is also supposed to be close to the 150W mark, the upcoming GT will still be very appealing due to its price that should not go over $220. Production of the Radeon HD 2900 GT is set to start in September with mass availability planned for October. And all this, only if AMD won't miss any new deadlines.
No tech 150W v mainstreamu, to teda fakt nevim.
Ale já vím. 150W je teoretické maximum (2x 75W) - ATi vždy uvádí teoretické maximální hodnoty a ty byly pro HD2900XT 225W (3x 75W).
Žere v praxi HD2900XT 225W? Ne. Má typickou 3D spotřebu pod 150W a peak ve 3D kolem 160W, tzn. maximum v praxi odpovídá cca 70% teoretického maxima.
Což znamená, že maximální spotřeba hypotetické HD2900PRO by byla kolem 100W, tedy srovnatelná s GeForce 8800GTS nebo GeForce 7950GX2.
R600Pro has less than 150W TDP
http://www.fudzilla.com/index.php?op...2473&Itemid=34Citace:
ATI’s new mainstream card Radeon HD 2900 PRO powered with R600PRO cut down chip will have the TDP lower than 150W. More important this chip will end up clocked at 600 MHz and will have 512 MB memory with 256 bit interface with 51 GB/s bandwidth.
We believe that this will be just about enough to beat the fastest Geforce 8600 GTS even the overclocked one but I would not be to worried about Nvidia as the company can easily cut down the prices of 8800 GTS 320 MB to put the pressure on this new Radeon HD 2900 PRO.
R600 has 320 stream processors while R600 PRO will have one half of them, 160 total but the number or ROPs will remain the same.
A ted kdo ma pravdu :)
RV670
- dvě verze (PCB): Gladiator, Revival
- 256bit
- 55nm (TSMC)
- 320 stream-processors
- vzorky: září
- plánované zahájení výroby: prosinec
- vydání: přelom roku
- chlazení: single-slot
- DX10.1
- UVD, HDCP, HDMI...
- vylepšená podpora pro CrossFire
- target: 825MHz core / 1,2 (2,4) GHz GDDR4 512MB -> Gladiator
- target: 750MHz core / 0,9 (1,8 ) GHz GDDR3 256-512MB -> Revival
vylepšená podpora pro Crossfire .. aneb sprasili jsme to s 1900 řadou a 2900, tak snad do třetice to vyjde, ale se mnou ať nepočítají :D
ATI Catalyst 7.9 beta for ET:Quake Wars demo - The "inf" file reveals much more
FudzillaCitace:
The new driver has new id strings for ATI Radeon HD 2900 PRO and the new ATI Radeon HD 2350 series. The new ATI Radeon HD 2350 should be the crippled HD 2400, since it is based on RV610 chip. We wrote about the HD 2900 PRO before, it should end up with 160 Stream processors, 8 ROPs, 16 TMUs and a 256 bit memory interface.
"ATI Radeon HD 2900 PRO" = ati2mtag_R600,PCI\VEN_1002&DEV_9400&SUBSYS_3000100 2
"ATI Radeon HD 2900 PRO " = ati2mtag_R600, PCI\VEN_1002&DEV_9403
R600PRO is Radeon 2900PRO
FudzillaCitace:
ATI will quietly introduce the R600PRO and name it rather logically the Radeon 2900 PRO. The card will be priced $249 at launch and the card will be faster than the Geforce 8600GTS cards, even the overclocked ones.
It won’t be enough to beat the Geforce 8800 GTS 320MB and you will still need a Radeon 2900XT to go against this card. The cards will silently show up in the channel some time in the middle of the month and some partners might do some PR thing about it, but AMD won't make a big deal out of it.
Nejake dalsi novinky ohledne 2900Pro.
Par se objevilo v obchodech s dodaci lhutou kolem konce zari.
Sapphire Radeon HD 2900 Pro, 1024MB GDDR3, 2x DVI, ViVo, PCIe
dalsi kousky jsou k videni i na strankach Overclockers.co.uk s tim rozdilem, ze u 1GB verze uvadeji GDDR4. Je dost nepravdepodobne, ze by se vyrabely obe verze, takze jedno bude nejspis chyba.
Karta by mela mit 8-pinovy konektor podle tehle fotky
http://img250.imageshack.us/img250/9...raightwei4.gif
Na strankach HIS uz se 2900Pro take objevila.
taka blba otazka > co je ine od XT okrem kapacity pamete (aj to len mozno) ?
no u 2900Pro je minimálně změna v tom že GPU jede defaultně na 600Mhz, oproti 740Mhz u XT verze a paměti na 1600 vs 1650Mhz u XT.
A jeste 256bit sbernice oproti 512.
EDIT : Pravda, moje chyba. Vubec jsem si toho nevsiml. Mel jsem celou dobu za to, ze bude 256bit.
HIS uvadi na svych strankach 512-bit bus.
To bych viděl spíš na copy/paste error. ATi by si tím odbourala prodeje HD2900XT. Pokud by nebyl rozdíl jiný, než ve frekvenci jádra, stačilo by OC jádra a zákazník by měl identický produkt za menší peníze. Osobně bych to viděl spíš na tu 256bit sběrnici.
a ta zbernica sposobi? ocakaval by som pokles hlavne v highres/highquality ze? Cena bude musiet ist dole asponm o 1/4
Ta sběrnice sama o sobě nicmoc neudělá. V některých hrách (tipuju to na hlavně na opengl) bude pokles výkonu výraznější, ale jinak nic tragickýho. 512bit sběrnice byla pro R600 overkill, ale to je dáno jednak tím, že R600 běží na >100MHz nižších taktech, než se původně plánovalo, a pak několika dalšími důvody (architektura paměťového řadiče, jakou ATi používá, se pro mezikrok a la 384bit atp. moc nehodí a navíc redukuje počet padů na die oproti klasickým řadičům, takže ačkoli R600 512bit sběrnici moc nevytíží, byla pro ATi její implementace realtivně jednoduchá - viz např. PCB menší než má 384bit GF8800GTX).
Pokud bude HD2900PRO 256bitová, bude na tom podobně jako X1800XT nebo X1900XT - ty měly nepatrně rychleji taktované jádro (625MHz oproti 600MHz u HD2900PRO) a nepatrně pomaleji taktované paměti (cca 1500MHz oproti 1600MHz u PRO) a že by je 256bit sběrnice nějak extra brzdila, se říct nedá :-)
Navíc R6x0 při MSAA nebrzdí propustnost pamětí, jako tomu je u ostatních čipů, ale brzdí ji pomalejší reslove, takže je to architektura relativně málo závislá na propustnosti paměťové sběrnice (stačí se podívat na nízké rozdíly ve výkonu mezi HD2600XT s 1400MHz pamětmi a 2100MHz pamětmi).
//edit: mohlo by se to tedy projevit u zmíněného OpenGL, nebo při použití FP16 HDR + MSAA - ale to by spíš pramenilo z deativace poloviny interního ring-busu)
hmm uvidime ;) zozenem ju jakmile to len bude mozne
Taky jsem zvědavej. Myslím, že to podtaktované jádro srazí výkon víc, než sběrnice. Jinak to s ní nevidím růžově, první ceny na českých shopech jsou kolem 7k a to při výkonu nižším, než nabízí GTS320, není nijak výhodný. Dokud cena o 10% nespadne, je to zbytečnej produkt :(