Výsledky 1 až 25 z 1291

Téma: NVIDIA novinky

Hybrid View

Předcházející příspěvek Předcházející příspěvek   Další příspěvek Další příspěvek
  1. #1

    Standardní Re: G70 - G80 - Dual GPU

    Citace Původně odeslal Masster Zobrazit příspěvek
    To je nesmysl....jaka by musela byt spotreba takove bestie? Vubec nemluve o chlazeni...
    No presne tohle me desi
    Black holes are where God divided by zero. - Steven Wright
    2600K s AC HF14 | P8P67Deluxe s 16GB DDR3 | GTX1080 s LP2480zx | EVO850 s ICH10R | X-Fi s HD555 | TripleXtreme 360 s HPPS+ | Windows 10 + 7

  2. #2

    Standardní Re: G70 - G80 - Dual GPU

    To skóre z 3DMarku považuju za nesmysl. 7900GTX dává 6k, 7950GX2 8k. G80 by měla dávat 16k? Tedy 2,7x víc než high-end čip předchozí generace? To se už někdy stalo, aby nový čip nové generace byl v jakémkoli 3DMarku >2,5x rychlejší, než starý? Ani GeForce 256 DDR (a i kdybych bral v úvahu luxusní Elsa Gloria II PRO 64MB) neměla oproti TNT2U >2,5x vyšší skóre (1,9x) - a to porovnávám výsledky 3DMarku 2001, který navíc dokázal ve výsledku zvýhodnit TnL jednotku GF256... A stejně tak 6800U (která byla taktéž považovaná za obrovský skok) byla ve 3DMarku03 "jen" 1,9x rychlejší, než FX5950U.

    2,7x vyšší výsledek prostě nemůže být reálný.
    senzory pro DF - DSLR | senzory pro DF - kompakty a EVF | senzory pro DF - mosaic masky | senzory pro DF - full-color masky | filtry pro DF #1 / #2 | tisk DF na inkoustech od Canonu | M42 skla pro DSLR | Thoriové sklo a M42 objektivy

    Neděkujte, nenadávejte, pokud se vám něco líbí nebo nelíbí, používejte prosím reputaci
    (tj. ikonka s vahami pod avatarem)

  3. #3

    Standardní Re: G70 - G80 - Dual GPU

    Citace Původně odeslal no-X Zobrazit příspěvek
    2,7x vyšší výsledek prostě nemůže být reálný.
    Tjn, ale v jednom z rozhovoru sem cetl, ze to ma byt nejvetsi remake technologie co sme od NV zatim videli, takze kdo vi.
    Osobne to taky pokladam spis za prani "kez by mela" nez za realnou hodnotu...
    Black holes are where God divided by zero. - Steven Wright
    2600K s AC HF14 | P8P67Deluxe s 16GB DDR3 | GTX1080 s LP2480zx | EVO850 s ICH10R | X-Fi s HD555 | TripleXtreme 360 s HPPS+ | Windows 10 + 7

  4. #4

    Standardní Re: G70 - G80 - Dual GPU

    Zkusím to vzít ještě jinak... pro výsledek 2,7x vyšší by byla třeba karta po teoretické stránce minimálně 3x výkonnější. Pokud bychom zůstali u architektury G7x, muselo by mít jádro trojnásobek pixel pipelines. Nevím, jaký procento plochy jádra G70/G71 pixel pipelines zabírají, ale bude to hodně, protože paměťový řadič nijak komplexní není a žádné velké dispatchery a la R520 v G70 taky nejsou. Takže když tipnu 75% (klidně mě opravte, možná to je víc), myslím, že nebudu moc daleko od pravdy. G70 má 287M tranzistorů, dalších 48pp by znamenalo +430M, tzn. celkem 717M. Jasně, může dojít k dalšímu sdílení jedné výpočetní jednotky pro více účelů, jako v případě primární ALU G70, ale i kdybychom se dostali na únosných 500-550M, tak nám stále chybí podpora pro SM4.0, což v případě G70->G80 znamená hlavně micro-threading (tedy nějaké dispatchery, zřejmě na úrovni pipeline), geometry shadery, jednotky pro celočíselné operace... Ještě mě napadá možnost vynechání některých TMUs - 72 by bylo nanic, 32 by mohlo bohatě stačit, takže by se ještě něco uspořit dalo (byly i nějaké zvěsti o tom, že by TMUs a některé ALUs mohly část logiky sdílet). Budu optimista - řekněme, že do 550M tranzistorů by bylo možné nacpat vše potřebné pro čip 3x rychlejší, než je G70, který by zároveň plně podporoval SM4.0.

    Jenže, pak tu máme sběrnici - G71 je už tak dost limitovaná a i kdybychom vzali info o 384bit rozhraní za reálné, tak by to znamenalo mnohem větší paměťový řadič a tím i více tranzistorů v jádře (vejdeme se takhle do 550M?). Pokud by byly použity 800(1600)MHz GDDR3 moduly, byla by propustnost o 50% vyšší, než u 7900GTX, a to je pro dosažení 2,7x vyššího skóre příliš málo. Pokud by byly použity 1200(2400)MHz GDDR4, byla by propustnost o 125% vyšší, což by už mohlo stačit (zbylých 75% může řešit lepší paměťový řadič, lepší technologie pro úsporu šířky pásma atp.).

    Jenže - bude chtít nVidia dělat takovéhle mosntrum? Neslučuje se to s jejich politikou - GF6800U i 7800GTX byly karty s levnými pamětmi, 7800GTX a 7900GTX s nízkou spotřebou a 7900GTX s levným jádrem. G80 by z toho nemohla nabídnout nic... nVidia jde v posledních letech na jistotu. Tohle by pro ně (podle mě) bylo moc riskantní.
    senzory pro DF - DSLR | senzory pro DF - kompakty a EVF | senzory pro DF - mosaic masky | senzory pro DF - full-color masky | filtry pro DF #1 / #2 | tisk DF na inkoustech od Canonu | M42 skla pro DSLR | Thoriové sklo a M42 objektivy

    Neděkujte, nenadávejte, pokud se vám něco líbí nebo nelíbí, používejte prosím reputaci
    (tj. ikonka s vahami pod avatarem)

  5. #5
    Moderátor Avatar uživatele Masster
    Založen
    21.03.2003
    Bydliště
    Světlá n. S.
    Věk
    43
    Příspěvky
    7 010
    Vliv
    359

    Standardní Re: G70 - G80 - Dual GPU

    Citace Původně odeslal no-X Zobrazit příspěvek
    To skóre z 3DMarku považuju za nesmysl. 7900GTX dává 6k, 7950GX2 8k. G80 by měla dávat 16k? Tedy 2,7x víc než high-end čip předchozí generace? To se už někdy stalo, aby nový čip nové generace byl v jakémkoli 3DMarku >2,5x rychlejší, než starý? Ani GeForce 256 DDR (a i kdybych bral v úvahu luxusní Elsa Gloria II PRO 64MB) neměla oproti TNT2U >2,5x vyšší skóre (1,9x) - a to porovnávám výsledky 3DMarku 2001, který navíc dokázal ve výsledku zvýhodnit TnL jednotku GF256... A stejně tak 6800U (která byla taktéž považovaná za obrovský skok) byla ve 3DMarku03 "jen" 1,9x rychlejší, než FX5950U.

    2,7x vyšší výsledek prostě nemůže být reálný.
    Tohle nejak nechapu...proc do toho tahas 7900GTX jako nejvyssi high-end chip, kdyz se jasne mluvilo o nejvyssi high-end karte? To, ze jsem videl v recenzich , ze se 7950GX2 ignoruje se zduvodnenim, ze se jedna o dual GPU reseni, je neco jineho. Kdyz se nekomu takhle karta nehodi do kramu, tak si vzdycky nejake zduvodneni najde.

    Vzdyt X1950XTX se v par mistech 7950GX2 blizi, takze ATI by mohla podle tve teorie vyrobit 2x rychlejsi kartu oproti predchozi generaci a nV ne?
    Sam si napsal, ze 1.9x vykon oproti starsi generaci tu byl, tak proc by se to nemohlo opakovat? Nehlede na to, ze se spekuluje o tom, ze G80 bude nejsilnejsi grafikou v DX9 a R600 ji bude porazet jen v DX10.

    Jeste ke vsemu bylo receno, ze karta ma mit 2x vykon v 3DMarku06 bez jakehokoliv dalsiho infa, nevime v jakem rozliseni, pri jakem AA a AF atd.

    Citace Původně odeslal Haste Zobrazit příspěvek
    No presne tohle me desi
    To nemusi, kdyz uz se od zacatku mluvi o tom, ze R600 bude daleko vetsi monstrum co se tyce spotreby a vyzarovaneho tepla.
    Naposledy upravil Masster; 18.09.2006 v 18:45.
    But of course, the unlimited evilness of the ultimate tool of mischief, the universal explanation for sucky performance from anything other than nVidia, TWIMTBP, strikes again. The shenanigans know no bounds....luckily, in this sea of pain and anguish,the shining beacon of light and righteousness, ATi, stand, with their Get in the Game program that they managed so badly(because they`re not evil like nV, see, so they couldn`t actually have a program where they worked really close with devs, pushing their tech into their stuff) that no game is part of it. - Morgoth the Dark Enemy

  6. #6

    Standardní Re: G70 - G80 - Dual GPU

    Citace Původně odeslal Masster Zobrazit příspěvek
    Tohle nejak nechapu...proc do toho tahas 7900GTX jako nejvyssi high-end chip, kdyz se jasne mluvilo o nejvyssi high-end karte? To, ze jsem videl v recenzich , ze se 7950GX2 ignoruje se zduvodnenim, ze se jedna o dual GPU reseni, je neco jineho. Kdyz se nekomu takhle karta nehodi do kramu, tak si vzdycky nejake zduvodneni najde.
    Skutečně jsi mě nepochopil. GX2 nediskriminuju, ale pokud chci extrapolovat výkon budoucího čipu z výkonu a parametrů současných čipů, tak je mi duální GX2 k ničemu. G80 je čip stejně jako G71 je čip. Používat duální řešení a la GX2 pro odhad výkonu G80 prostě nelze. GX2 se chová úplně jinak, liší se parametrově, její výkon není přímo závislý na architektuře čipu a počtu tranzistorů... prostě tohle není o diskriminaci GX2, tohle je o tom, že z výkonu GX2 nelze vyvozovat výkon G80. Klasické jednočipové řešení má určité limity, kterých se prostě musíme držet.

    Citace Původně odeslal Masster Zobrazit příspěvek
    Sam si napsal, ze 1.9x vykon oproti starsi generaci tu byl, tak proc by se to nemohlo opakovat?
    Právě proto, že se bavíme o jednom čipu. G80 nebude duální, bude to jeden čip (samozřejmě nějaká duální verze bude, ale to není problém, o kterém se tu bavíme). 1.9x vyšší výkon oproti G71 možný je, oproti GX2 nikoli. GX2 má 560 milionů tranzistorů, které jsou někdy využity kompletně, jindy částečně a 512bit sběrnici (pro frame buffer, ale zas jen 256bit pro textury)... z toho se jednak nedá nic rozumně vyvozovat a druhak čistě po číselné stránce budou počet tranzistorů i paměťová propustnost G80 obdobné, jako u GX2, takže když najdeme situaci, kde GX2 běží naplno a není limitována negativními stránkami multi-GPU řešení - tedy jinak řečeno je využit plný potenciál 512bit sběrnice s půl miliardou tranzistorů, tak jak by oproti tomu mohla G80 (taktéž půl miliarda tranzistorů) dát dvojnásobný výkon? V nVidii pracuje hodně chytrých lidí, ale že by dokázali zdvojnásobit výkon na jeden tranzistor a k tomu ještě implementovat SM4.0 bez potřeby dalších tranzistorů, to ani nehraničí s realitou, to je úplná pohádka.

    Citace Původně odeslal Masster Zobrazit příspěvek
    Jeste ke vsemu bylo receno, ze karta ma mit 2x vykon v 3DMarku06 bez jakehokoliv dalsiho infa, nevime v jakem rozliseni, pri jakem AA a AF atd.
    Pokud nejsou další podrobnsosti udány, mluví se vždy o def. skóre.
    senzory pro DF - DSLR | senzory pro DF - kompakty a EVF | senzory pro DF - mosaic masky | senzory pro DF - full-color masky | filtry pro DF #1 / #2 | tisk DF na inkoustech od Canonu | M42 skla pro DSLR | Thoriové sklo a M42 objektivy

    Neděkujte, nenadávejte, pokud se vám něco líbí nebo nelíbí, používejte prosím reputaci
    (tj. ikonka s vahami pod avatarem)

  7. #7
    Moderátor Avatar uživatele Masster
    Založen
    21.03.2003
    Bydliště
    Světlá n. S.
    Věk
    43
    Příspěvky
    7 010
    Vliv
    359

    Standardní Re: G70 - G80 - Dual GPU

    NVIDIA to introduce GeForce 7650 GS at end of September?

    The Nvidia GeForce Go 7700 (G73M-B1 core) features 12 pixel shader units, five vertex shaders and GDDR3 memory. Following the chip, Nvidia will introduce a new desktop GPU—the GeForce 7650 GS (G73-B1 core)—manufactured on a 80nm process at the end of September, the makers said. Currently, all of Nvidia's 80nm process production takes place at TSMC, the makers added.
    http://www.digitimes.com/mobos/a20060918A5027.html
    But of course, the unlimited evilness of the ultimate tool of mischief, the universal explanation for sucky performance from anything other than nVidia, TWIMTBP, strikes again. The shenanigans know no bounds....luckily, in this sea of pain and anguish,the shining beacon of light and righteousness, ATi, stand, with their Get in the Game program that they managed so badly(because they`re not evil like nV, see, so they couldn`t actually have a program where they worked really close with devs, pushing their tech into their stuff) that no game is part of it. - Morgoth the Dark Enemy

  8. #8
    Moderátor Avatar uživatele Masster
    Založen
    21.03.2003
    Bydliště
    Světlá n. S.
    Věk
    43
    Příspěvky
    7 010
    Vliv
    359

    Standardní Re: G70 - G80 - Dual GPU

    NVIDIA grabs Stexar folk

    WE TOLD YOU about Stexar shutting its doors a while back, or at least, letting the vast numbers of its people go.

    The question is where these engineers with x86, graphics and set-top box experience ended up. Welcome to the first announcement of the Nvidia Portland Design Center.
    http://www.theinquirer.net/default.aspx?article=34461

    Pokud by nekoho zajimalo, co je nebo spis byl Stexar, tak pro vasi informaci se jednalo o firmu, kterou tvorilo vetsi mnozstvi ex-inzenyru Intelu.
    But of course, the unlimited evilness of the ultimate tool of mischief, the universal explanation for sucky performance from anything other than nVidia, TWIMTBP, strikes again. The shenanigans know no bounds....luckily, in this sea of pain and anguish,the shining beacon of light and righteousness, ATi, stand, with their Get in the Game program that they managed so badly(because they`re not evil like nV, see, so they couldn`t actually have a program where they worked really close with devs, pushing their tech into their stuff) that no game is part of it. - Morgoth the Dark Enemy

Informace o tématu

Users Browsing this Thread

Toto téma si právě prohlíží 1 uživatelů. (0 registrovaných a 1 anonymních)

Podobná témata

  1. nVidia ForceWare 160.02 WHQL
    Založil Masster v sekci fóra Grafické karty
    Odpovědí: 0
    Poslední příspěvek: 26.05.2007, 12:44
  2. nVidia ForceWare 160.03 XP
    Založil Masster v sekci fóra Grafické karty
    Odpovědí: 9
    Poslední příspěvek: 12.05.2007, 00:38
  3. nVidia ForceWare 84.15 WHQL
    Založil .:::iGor:::. v sekci fóra Grafické karty
    Odpovědí: 3
    Poslední příspěvek: 17.03.2006, 19:16
  4. GeForce řady 6xxx verzus Windows 9x a ME
    Založil DlouhyJony v sekci fóra NVIDIA grafické karty
    Odpovědí: 7
    Poslední příspěvek: 15.01.2005, 18:40
  5. Kde mam stiahnut drivery na Rivu TNT?
    Založil Rainbow v sekci fóra NVIDIA grafické karty
    Odpovědí: 23
    Poslední příspěvek: 11.04.2004, 19:06

Klíčová slova k tématu

Pravidla přispívání

  • Nemůžete zakládat nová témata
  • Nemůžete zasílat odpovědi
  • Nemůžete přikládat přílohy
  • Nemůžete upravovat své příspěvky
  •