Hele mozna se pletu, ale 6-bit LCD to delaji tak, ze karta jim pres DVI posila normalne 8-bit obraz a monitor si jej pomoci ditheringu prevadi na jeho nativni 6-bit, magie ani telepatie netreba. Toto musi umet kazdy 6-bit LCD panel, jinak by nebyl DVI-compliant. Pro 10-bit to IMHO funguje tak, ze karta prevede obrazova data (interne pocitana v libovolne hloubce) na 16bit a monitor si to prevede zpet na 10-bit. Jestli se vyrobci dohodli a posilaji si data rovnou v 10-bit formatu nevim, ale ve specifikaci DVI to to zhodne neni.
UPDATE: napadlo me kouknout se jak to je u HDMI. Od verze 1.3 podporuje barevne hloubky 30,36 a 48bits, tedy 10,12 a 16 bitu na kanal.
http://en.wikipedia.org/wiki/HDMI
Je tedy mozne, ze novejsi DVI to dokazi take, nikde jsem to nenasel.




Odpověď s citací