No tak, i jiné čipy od nVidie podporovaly kvalitní filtraci textur:

- GeForce 256/2 taktéž podporovala trilineárně-anizotropní filtr bez úhlových optimalicazí ("HQ-AF"), ale jen 2x

- GeForce 3/4 taktéž uměla HQ-AF (tyto karty zatím uměly to nejlepší AF, jaké dosud nVidia předvedla), dokonce až 8x, ale propady výkonu byly kolem 50%.

- GeForce FX taktéž uměla HQ-AF 8x, ale kvůli slabému výkonu ho nVidia očesala (úhlová filtrace i počet vzorků sice byly v plné kvalitě, ale LOD šel do plusu, takže byla nižší ostrost a navíc nebyl používán trilineární, ale jen bi/bri-lineární základ).

- GeForce 6 a GeForce 7 potom snížily kvalitu - filtr je úhlově optimalizovaný, většina driverů nefiltruje s plným množstvím vzorků (=undersampling), a aby byly textury ostré, tak drivery posouvají LOD do záporu, což v kombinaci s nedostatečnou filtrací způsobuje moire/shimmering v úhlech o násobcích 45° a naopak neostré textury vlivem úhlové optimalizace v úhlech, které nejsou násobkem 45°.

V podstatě se dá říct, že žádný čip, který neměl oddělenou texturovací jednotku od pixel-pipeline, zatím nedokázal předvést HQ-AF při rozumném propadu výkonu a plné kvalitě. možná si to nVidia při vývoji NV40/G70 uvědomila, a proto ho neimplementovala. Že ho G80 podporovat bude, by mohlo leccos naznačovat o tom, do jaké míry byla architektura oproti předchozím čipům překopaná.