tak to by naznacovalo ze skutecne bude mit +-100% narust vykonu oproti 8800GTS 512. to by stalo uz za hrich.
Printable View
GreenOrchid: Vantage ale nehodnotí jen výkon v akceleraci 3D ;)
Par dohadu z ruznych zdroju.
Citace:
Původně odeslal razor1 @ Rage3D
Kdyz k tomu jeste pridame tech P13k bodu, tak to myslim do sebe zapada.Citace:
Původně odeslal CJ @ B3D about rv770
ou meeen. Ze by upgrade GPU v cervnu ? Takovy delo. :)
18.6.
http://www.fudzilla.com/index.php?op...=7364&Itemid=1
Jedno takove male zamysleni... :-)
Tento beh HW, ktery je velmi rychly na kratke trati jde uz mimo me, proste to chrli jako idioti a nema to hlavu ani patu ... ale budiz, ono si to nejakyho chudaka kupce najde ...
Vsiml jsem si neceho jineho, vsiml jsem si, ze pravdepodobne poprve je tu HW GPU na ktery NENI software ... ;-) Respektive grafika zvlada vse, co je naprogramovane ... Uz dnesni 9800 je hodne vykonna karta a zatim je tu pouze Crysis a pak HLUBOKO nic, k cemu takto vykonne karty jsou ? Poprve se ptam ... :-) ... zajimave, na takovou podobnou dobu si proste nevzpominam ...
Ale stale to taky hodne zere a reailta a a graficka podoba reality se sice stale priblizuji, ale za jakou cenu .. Dneska je to spise o setreni zdroji a ne, aby si domu nekdo kupoval 1000W zdroje ...
A co je lepsi? :)
1. mas grafiku, ktera zvlada vsechno bez problemu s 4-8xAA 16xAF pri 1920x1200
2. mas hry, ktere vypadaji nadherne, ale zadny bezny smrtelnik si je nemuze poradne uzit
Jinak se to tu uz ale vzpominalo. Je sice skoda, ze hned neuvidime co noveho karty vsechno dokazou, ale neni nic lepsiho nez koupit kartu a pak si dlouhou dobu uzivat hry na maximum.
Na to je vcelku jednoducha odpoved. Crysis je totiz jedina hra, zamerena ciste na PC za delsi dobu. Ostatni hry jsou zamerene primarne na konzole, kde dnesni multiplatformni enginy umoznuji pouhou zmenou profilu a prekompilovanim projektu presunuti na jinou platformu. V kombinaci s "pomalyma" grafikama v X360/PS3 je odpoved snad jasna. Pripoctete k tomu poptavku po HD hrach, ktere musi na konzolich bezet v 720p a nekdy dokonce 1080p v 30/60FPS a je to jeste jasnejsi.
Pro srovnani... Xenos v X360 je jen o neco rychlejsi nez X1900XT s podporou USA a EDRAM. A PS3 je na tom se svoji "moded GF7900" jeste hur a navic bez USA(horsi optimalizace).
Kdyz to shrnu, tak je snad jasne, ze pri dobre optimalizaci/multiplatformnim enginu(jako UE3) postacuje na hry v rozumnem rozliseni i X1900XT, pripadne pak samozrejme G80/G92/RV670 atd... A toto se hned tak nezmeni, protoze konzole s HW nikam neutecou :) Maximalne zlenivi programatori portovanych verzi a vyuzijou rychly HW na PC pro svoje NEoptimalizovanosti :D
Haste: ano, ale take se podivej na grafiku Crysis na PC, zadna hra takovou nema. (mluvime o Pc hrach a max detailech Crysis.)
Dnes se hry ale vice zacinaji orientovat asi vseobecne na konzole, je z toho vice penez, nez z Pc her (kopirovani atd, a take hodne decek si radeji koupi konzoli za 8k, nez Pc za 45k.), konzole take vic drzi v case nez HW PC....
takze bohuzel kousku jako Crysis asi tolik nebude....
Nechtel jsem do toho tahat konzole. Ale nesouhlasim. Konzole ma dobry hw a na ten HW je primo psana ta hra .. CASTO NEJSOU dulezite tech. parametry te konzole, nebo PC, ale to jak se na to programuje a JAK se to da vyzdimat ...
A v tomto naplno vedou konzole, protoze jsou konzistentni ...
Crisis je dobry graficky, ale hratelne uz tak ne a stale NENI dobry graficky tak, jak bylo slibovano ... zato spousta her na konzoli vypada proste nadherne (kdyz ale nehledas tech. specifika).
Proste, kdyz tu buje JEDINY OS a JEDINA firma co bude delat 1 grafiku za rok dva a bude to cele perfektne optimalizovane, tak by PC bylo taky homogenni, toto, ale bohuzel/bohudik je utopie a zaroven by to zabilo ten ultra rychly vyvoj ...
Nicmene fakt je takovy, ze cim vice budou starnou Xbox/PS3 tim lepsi a hezci hry na nej budou vznikat ... toto se PC netyka ... , protoze nebezi-li Crysis na X1900, bezi na 8800, ale Crysis 2 jeste nema ani HW, na kterem by mohlo bezet ... :-)
No a ted zrovna tu mame novy 3dmark a ejhle, hromada PC uzivatelu z toho nema diky 9800 a dalsich novych karet slide show, jako to byvalo u starsich verzi, kdyz vznikly ... Ale taky tu nemam Crisis 2 ...... Zase me napadlo, ze PC na hrani umira ... Nevim, jestli si dovoli nekdo vyvyjet engine za 40 mil. dolaru na PC platformu pro kartu A, kdyz za rok bude ULNE jina karta B ....
ja nerikam ze ma konzole spatny HW. Jen zkratka PC ma vyvoj rychlejsi, a byla by skoda (stejne to tak smeruje) kdyby to bylo brzdeno jen diky konzoloidnimu HW, ktere "drzi".
Jinak o crysis tu hovorim jen ciste o graficke strance hry (zbytek sem nepatri, ale mas v tom pravdu).
Jinak nesouhlasim s tim ze hrani na PC umira. staci se podivat na tituly, ktere maji vyjit nasl. 3 roky. (nemluvime o smerech kam jednotlive hry jdou, to uz radu let je temer pevne dano, FPS, auta, RPG, MMORPG, RTS... atd. , jen malo kousku prijde s originalnim napadem, uz se to dlouho nestalo.)
Technologie/engine neni vubec o rozsahlosti shaderu. Prave naopak. Podle meho je fakt, ze nepouzili nic, co by se uz vymykalo SM3.0 dobre. Shadery jsou jenom ten malinky posledni krucek. Dat k SM3 shaderu hlavicku SM4 shaderu a nechat kartu, at si HLSL kod prechrousta ke sve spokojenosti, je otazka par sekund. Jinymi slovy, pouzite API nebo SM pro me neni dukaz technologicke pokrocilosti.
Tak takhle nejak mozna budou ty nove karty vypadat.
Citace:
GTX 280 - 240SP, 80TMU, 32ROP, 512-bit
GTX 260 - 192SP, 64TMU, 28ROP, 448-bit
65nm
co znamena PhysX ready ?
jako ze to umi funkce jako PhysX karta ?
"We also heard that GeForce GTX 280 graphics card would be the last single chip design from NVIDIA. After GeForce GTX 280, NVIDIA will only bring graphics cards with double and multiple cores design."
zajimave.
ze by 2 jadra na 1 PCB ? a nebo by se to ubiralo cestou CPU, tj. vice jader v jednom chipu ?
Zrovna tuhle cast bych s klidem ignoroval.
http://pctuning.tyden.cz/index.php?o...0926&Itemid=67
odhad 50% narust vykonu oproti 9800GX2.
tak uvidime kdy bude realne dostupna, uz jsem rozhodil site :-) Po dlouhe dobe neco co snad bude mit slusny vykon :-)
neviem skade si to mr obr vycucal ale to je nejaka haluz nie?
http://pctuning.tyden.cz/index.php?o...0956&Itemid=67
90w v idle? :D
"pouhých 90W" ?? wtf ?? Vždyť to nemá ani HD3870 v plný zátěži :D
Na cem nam asi bezi Nurien? :)
Predpokladam, ze tohle je to demo o kterem se tolik suskalo.
http://www.youtube.com/watch?v=MoQh4R1-Vjs&fmt=18
http://www.youtube.com/watch?v=X9BGiMvrUrk&fmt=18
http://www.youtube.com/watch?v=x3eenx3E0X4&fmt=18
Tak jestli DukeNuken NEBUDE ***** takovyhle holky, tak proste hrani ztraci dalsi rozmer ... :-) No jo, pornohercum se blizi odpocinek ... :-D
jsem nejak mimo, co/kdo/demo je NURIEN ?
GTX 280 1024MB
602/1296/2214
512 bit
600$
GTX 260 896MB
576/999/1792
448bit
450$
fakt divny clocky....a cena uz leze nahoru.. myslim ze unas 280 asi nebude pod 12k :(
http://www.fudzilla.com/index.php?op...7523&Itemid=34
EDIT: aha ted jsem si precetl ze 280 ma stat u nas 16k, tak to ne, to fakt ne. na dolary by to bylo prepoctem 9600, kolik tak stoji posta ? mozna by se vyplatilo to nechat si poslat. co myslite ? pokud by se tu nekdo nasel.... dalo by se usetrit i na poste a poslat to dohromady.
Zrovna tem udajum z Fudzilly bych neveril a jak prisel OBR na tu cenu by me taky zajimalo :)
Ja moc dobre vim, proc beru informace ze zahranici...
Citace:
Původně odeslal OBR
tak to je hnus velebnosti.
Obrovi newsky me nechavaji naprosto v klidu a zminka o tom, ze oc legend Kingpin rika, ze vykon je obrovsky, tak na to mam tuto odpoved:
http://www.youtube.com/watch?v=e7nYn7L0ZSc
Problem je, ze Kingpin byl na Editors day, takze je videl min. v akci nebo uz ty karty ma doma. Jestli to tedy vazne rekl, tak nevidim duvod mu neverit.
Tak OBR bude mit sample 280 do konce tydne doma, tak uvidime co prozradi :cool:
Tak je na svete dalsi slide :cool:
http://img67.imageshack.us/img67/950...oducingeo6.jpg
Nerikala nahodou NV, ze GT200 bude mit vic jak 1TF raw vykonu? Asi jim nesedly frekvence/vyteznost, jinak si nedokazu vysvetlit, proc by zustali tak blizko pod onim psychologickym bodem... Mam takovy pocit, ze 4870X2 ji v teoretickem vykonu slusne predstihne.
Ano, frekvence shader core je o několik set MHz nižší, než se plánovalo a výtěžnost není optimální, ale GT200 bude venku dřív, než R700, takže ať bude jakákoli, má úspěch zaručen.
R600 byla ukázkou toho, jak může dopadnout shoda mnoha blbých okolností. Důkazem, že šlo o neúspěšný čip a nikoli o nepovedenou architekturu, jsou všechny ostatní produkty téhle generace, které (ačkoli byly uvedeny ve stínu neúspěšné R600), žádnými propadáky nebyly.
Vydáním R600 došlo na kompletní změny roadmapy, R650 byla zrušena (nebo přepracována? uvidíme s příchodem RV770), RV670 vylepšena, původní R700 odložena (redesign nebo zrušení?), místo něj vyjde konzervativnější RV770 a dvoučivpová verze nahrazující původní R700.
nVidii to ale od G80 taky nevychází podle plánů. Loni na podzim měla vyjít GT200, G92 a G94, jenže GT200 potřebovala ještě hodně času, takže byla odložena (nebyl to problém, ATi proti ní stejně nic neměla), G94 nedosahovala při rozumné výtěžnosti takových frekvencí, aby mohla konkurovat RV670 (která měla mít podle původních plánů o 1 quad méně a tudíž být pomalejší), takže nVidii nezbylo, než vydat G92, která měla původně konkurovat R600PRO (než se ukázalo, že R600 bude pomalejší, než G80), část čipu deaktivovat pro zvýšení výtěžnosti a nároků na chlazení a použít ji jako konkurenta pro RV670. Na tom nVidia ztratila dost peněz, protože G92 je čip o polovinu větší, než RV670. To se zlepšilo vydáním menší G94. Duální G92 pak konkuruje duální RV670, ale brzdí ji nedostatek paměti - pouze 512MB na čip, což s efektivitou komprese dat při FSAA, kterou G92 disponuje, ve vysokých rozlišeních nestačí, takže v nejnáročnějších situacích dopadá hůř, než G80 se 768MB. To se ale marketingově hodí na vyzdvihnutí rozdílu mezi G92GX2 a GT200 s 1024MB právě v těchto náročných situacích. GT200 vychází s 8 měsíčním zpožděním a na nižších frekvencích, než se plánovalo, ale stále je nejvýkonnějších čipem, protože ATi, po změně tržní politiky (a souvisejícímu odložení původní R700), nemá přímého konkurenta. S nízkou výtěžností a vysokými výrobními náklady ale nVidia na GT200 nemůže příliš vydělat, jen si udržet postavení na trhu v enthusiast segmentu. To má vyřešit 55nm verze čipu. Teď je otázka, jaký časový rozestup bude mezi GT200, R700 a 55nm GT200 a jak daleko je další generace/půlgenerace. Zajímavé ještě bude soupeření mezi RV770 a 55nm G92b.
No teoreticky možná jo, ale v praxi GT200 je jednoičip, kdežto 4870X2 je crossfire řešení, co to v praxi znamená můžeme dnes vidět na 9800GX2 nebo HD3870X2, kdybych měl starou 8800 ultru, tak za tyhle karty bych to fakt nikdy neměnil, modlit se pak ať mi funguje SLI zrovna v tý a tý hře, tý a tý situaci, atd. ATI v tom musí udělat ještě velkej krok vpřed aby ta karta s dvěma čipy předvedla konstantně větší výkon a perfekktní spolehlivost nezávisle na hře, jak karta s jednim čipem. Jeden krok už dělá - sdílená paměť pro obě GPU, to tu dloho chybělo, ale zatim bych furt sázel na GT200 (mluvim o výkonu, ne výtežnosti a jaká karta bude mít lepší poměr cena výkon, tam bude Atina podle mě lepší). A co se týče teoretickýho výkonu GT200 tak 1TF nebude problém- Je to k němu hodně blízko a prakticky každá GTX280 se pravděpodobně nechá taktnout aby tu hranici překonala. Nvidia ty takty snížila - ad kvůli výtewžnosti, ale hlavně GT200 bude určitě nehoráznej výtop. Podle mě překoná i R600 v tomhle. A uchladit to už nebude sranda. A taky je dost možný, že si Nvidia udělá zadní vrátka pro další kartu kde budou akorát větší takty, něco jako vypustění 8800ultra před vydáním R600 jako pojistku high endu.
Vzhledem k tomu, ze nvidia sama takty GT200 snizila (urcite ne jen tak z legrace a asi vi proc) a bude to obrovska, rozzhavena a asi totalne zrava krava, tak bych si rozhodne nesazel na to, ze se "necha taktnout"...
Přecijen myslím, že rezerva bude. Stejně jako u HD2900XT, která byla také žravá a u u které byly frekvence omezeny čistě kvůli spotřebě a i s def. voltáží jelo mnoho kusů na 850MHz (tzn. 15%/110MHz přes default).
Jo, přesně. Výrobce počítá s tím, že karta bude ve skříni jak v pekle. Počítaj s tim, že to někdo narve do nevhodnejch nevětranech skříní bez airflow a tak ta karta musí mít rezervy. R600 je výtop, ale neviděl jsem, že by některá vytuhávala nebo artefaktila kvůli teplotě a to i když se to přehouplo přes 100. R600 jde taktovat líp jak RV670, (kor když tam člověk dá lepší chlazení) ačkoliv dle teploty, spotřeby atd by leckdo očekával opak.
Nvidia tohle udělala už mnohokrát. U Geforce 6 chtěla vydat 6800Ultra extreme, kterou nakonec stáhla, vyrobilo se jich jen pár na světě. U Geforce 7 vydala 7800GTX 512, kde bylo jádro na taktech který by od něj nikdo nečekal, taky to mělo odpovídající teplo a spotřebu, ale cíl předehnat tim dočasně R520 se povedl. (dočasně , než ATI ještě víc odladila drivery a příšly modernější enginy kde architektura G70 propadla), pak to samé udělala u Geforce 8 vydáním ultry, i když se předtím už od dob Geforce 7 dušovala že s ultrou skončila, že to nikdo nekupoval. Já bych tam takovou rezervu 15 - 20% viděl.
Porovnání výkonu GTX280/GTX260/3870X2:
http://www.vr-zone.com/articles/GeFo...ance/5817.html
Je to pěkné, ale nedozvíme se z toho vůbec nic. Rozlišení, nastavení, sestavu... k tomu poměrně staré drivery, takže víme jedině, že takhle to ve skutečnosti vypadat nebude :)
rozdíl v crysis mezi ATI a NVIDIA je slabota :)
Verze grafu od nuly (super) s dopočtenými výsledky HD4870X2 (to bych vážně nebral):
http://i114.photobucket.com/albums/n...GTX200GPUs.png
Špekulatívne preview G200: high-end ako sa patrí? ... od crux2005
http://www.pretaktovanie.sk/modules....d&v=1212338916
Zajímavá informace od OBRa co se týče spotřeby 280GTX v idle v novinkách na pctuning.cz
"Spotřeba ve Windows při brouzdání internetem (při psaní této zprávy) je 30W. Ano čtete správně, karta má v idle takto extrémně nízkou spotřebu."
http://pctuning.tyden.cz/index.php?o...0990&Itemid=67
Kdyz pominu gramaticke chyby, tak po tom, co predvedl minulou zpravou o GT200, uz se k tomu snad ani nema smysl vyjadrovat. Jen pripomenu, ze posledne psal v idle o 90W, takze asi tak :)
jojo a pak ti do diskuse zase napise, ze tomu taky neveri, ale hlavne ze ctenari klikaj na web. at si trhne.
EDIT: to jak tam pise ze ceska cena bude nizsi nez se ocekava, tak to je uz do nebe volajici. Vyvolavacka ve statech bude 650$ , v eu, tedy v nemecku, tedy i u nas to bude +- 1:1 na eura, tedy 650 juros, coz je na nase pres 16k s DPH(jen prepocet)+cesky "obchodnici" ala CZC k tomu prihodi +- 2k, takze jestli za to nekdo chce dat 18k..... ja tedy ne.. tak jestli tohle je ta nizsi cena......
Tohle me tedy vazne pobavilo. Vzdyt on byl snad jediny, ktery delal povyk kolem toho, jak bude ta karta draha :lol:Citace:
Původně odeslal OBR
Problém je, že OBR uvěří prakticky všemu, co se k němu donese...
Yuri: Těch 90W psal o samotné grafice. Navíc spotřeba high-end sestavy. která by se hodila pro GT200, je v klidu bez grafické karty cca 120W a s kartou jako 8800GTX nebo 9800GTX kolem 180W, tedy dvojnásobkem těchto 90W. Pokud 90W s GT200, tak leda na nějakém Celeronu s 1GB paměti ;)
no ja len ze v tejto tabulke ked si pozres tak ultra aj gtx je urcite spotreba celej zostavy
http://pctuning.tyden.cz/index.php?o...0956&Itemid=67
Jen pro informaci zde pridam pekny graf hadejte od koho.
http://pctuning.cz/ilustrace3/oberma...0/Spotreba.png
GTX280 ma tedy nizsi spotrebu nez HD3850? Neco tu minimalne nesedi.
Ona je ta tabulka prvořadě celá blbě, protože G80 (stejně jako GT200) nemá 64 TMUs a stejně tak je u GT200 imho chybně uveden i počet TAUs, takže ty údaje o spotřebě bych bral jako výsledek generátoru náhodných čísel :)
S tou spotrebou se ale tentokrat zrejme trefil.
http://img177.imageshack.us/img177/2...80powersj4.jpg
25W idle a 147W(:rolleyes:) burn u 1.4mld. tr. chipu na 65nm s 1GB GDDR3 pameti? Tak tomu opravdu neuverim do te doby, nez si to sam promerim :D
MAster: na ty prvni fotce je napsano geforce GTX 200 series,a na ty posledni neni vubec nic.(predni pohled) To jsou dve karty vyfoceny ? nebo photoshop ?
a vidim dobre ze to ma diry i smerem do bedny, takze to bude foukat ten vzduch nejen ven ze skrine, ale take do skrine, ze ? Chapu ze je asi problem to uchladit, ale takhle se hodne lidem zvedne teplota o dost v casu... no nevim.....
Jestli se dá soudit podle toho obrázku (což je samo o sobě otázka), tak ty "boční" průduchy do skříně mi přijdou aspoň částečně zaplastované (jde vidět, že pod průchudy je plast), takže IMHO valná většina horkého vzduchu půjde ven z bedny a tyhle průchudy budou jen takový "pomocníček". Ale kdoví :p
nene, mam na mysli toto, uplne na pravo , 2 pruduchy.
http://resources.vr-zone.com/compute...0/IMG_0436.jpg
http://resources.vr-zone.com/compute...0/IMG_0433.jpg
http://pctuning.tyden.cz/index.php?o...mid=67#newska0
http://forum.beyond3d.com/showthread...=41377&page=99Citace:
Původně odeslal CJ
X4800 3DMarkov vo Vantage na jedej GTX 280 s najnovšími ovládačmi
Podle mě je tudy vyfukován vzduch, který chladil napájecí obvody.
stejna "holka" jako 280ka, jen napajeni je 6+6. Jinak ta holka mela docela kliku ze ten manik drzel ten gem tak nesikovne ze mu ho mohla vytahnout. Kdyby ho drzel kolem dokola, tak mu musi zlomit prsty :D
Dalsi slide je venku.
http://img219.imageshack.us/img219/5...ries260lf5.jpg
GT200 to be in short supply
http://www.fudzilla.com/index.php?op...=7743&Itemid=1Citace:
If the information we were told is correct, then Nvidia is having some problems ramping up the production of the GT200 series and this sounds all too familiar when it comes to new Nvidia products.
We’ve heard that even large distributors have a hard time getting more than a handful of cards and that is only if they place large orders of products that Nvidia’s partners have overstock of.
hehe, to mi připomíná situaci s GT8800GT, kdy nám výrobcem byla dodávka slíbena pouze pod podmínkou, že zároveň nakoupíme hromadu GF8600GT/GTS, které tomuto výrobci ležely na skladě, protože je nikdo nechtěl, a kterých jsme se zbavovali ještě v dubnu ;D
To možno vysvetľuje zvýšenú cenu za 8800GT. Cenu oproti doporučenej predajcovia zdvihli, aby pokryli predpokladanú stratu pri výpredaji 8600GT/GTS.
Zvýšenou oproti čemu? Oproti MSRP nVidie? To bylo vždy jen prázdným marketingovým číslem. nVidia sama nikdy karty koncákům neprodávala, aby mohla dokázat, že jde o cenu, za kterou lze hardware bez provaru dodávat (minimálně oproti ATi, která až do sloučení s AMD hardware za MSRP skutečně prodávala).
Je sice pravda, že si velkoobchody na GT dávaly o něco větší marže, než na mainstreamu, ale to v době vydání platilo i pro HD3870 a byla to čistě záležitost nabídky a poptávky - zájemců bylo víc, než karet...
ASUS ENGTX280 za 12.5k?
http://shop.gaw.cz/zbozi/asus-engtx2...spx?p=z:121972
to neni vubec spatna cena. pak by GTX 260 skutecne mohla stat 9500,-
Ja bych se nebal jit i o neco niz.
Ak ich bude málo, cena bude vyššia.
Zajímavé. Výprodejové ceny ještě před vydáním. Je-li tomu tak, musí (při ceně 1GB GDDR3) nVidia čipy prodávat za pakatel.
Sláva, nějaký rozumný údaj. Tak 236W už věřím, ale do kompu bych si to nedal :) Na druhou stranu jsou aspoň spotřeby ve 2D slušné...