NVIDIA GeForce

Опубликовано в Видеокарты, Компоненты ПК

И так, NVIDIA GeForce! Несмотря на достаточно большое количество компаний, присутствующих на рын­ке дискретных видеоускорителей, их продукция совершенно незначительно отличается друг от друга по своей производительности и функциональности.

Это объясняется тем, что видеокарты построены на одних и тех же графических процессорах. Более того, если речь заходит о старших (наиболее производительных) моделях, то зачастую они как две капли воды похожи друг на друга и в точности повторяют так называемый референсный (предложенный разработчиком графи­ческого процессора) дизайн.

Поэтому для того, чтобы получить представление о присутствующей на рынке продукции, нет смысла описывать видеокарты различных производителей. Впол­не достаточно рассмотреть особенности графических процессоров и референсных видеокарт, построенных на них. Чтобы избежать путаницы в названии референсных видеокарт, в дальнейшем мы будем именовать их по названию используемого гра­фического процессора.

NVIDIA GeForce

Видеокарты на графических процессорах NVIDIA GeForce

В обзоре будут рассмотрены все актуальные на сегодня видеокарты, выходящие под брендом NVIDIA GeForce (серии 8,9 и 200). Напомним, что в каждом из этих семейств выпускаются платы совершенно различного класса, производительность которых порой отличается в разы. Ориентироваться в этом изобилии можно как по номерам моделей (очевидно, что плата GeForce 9300 уступает по производительности GeForce 9800), так и по дополнительным буквенным индексам:

1. G — экономичная серия;

2. GT — средняя производительность, мейнстрим;

3. GTS — геймерские видеоплаты с высокой производительностью;

4. GTX — решения экстрим-класса для энтузиастов.

К сожалению, цифровой индекс модели порой обманчив. Так, топовая видеокарта предыдущего семейства (например, NVIDIA GeForce 8800 GTX), как правило, значитель­но превосходит в производительности «новичка» начального уровня (к приме­ру, 9300 GT).

NVIDIA GeForce

Структура шейдерного процессора G80 / G84 / G86

 

Видеокарта NVIDIA GeForce 8

Революционные изменения в восьмом поколении видеокарт NVIDIA GeForce по сравнению с пре­дыдущим, седьмым, обусловлены выходом операционной системы Windows Vista от Microsoft с принципиально новым интерфейсом WGF 2.0 (Windows Graphics Foundation), известным также как DirectX 10 API.

NVIDIA GeForce

В связи с этим архитектура нового графического процессора претерпела сущест­венные изменения. Чтобы понять, насколько мощной спроектировали новую систему, достаточно взглянуть на одну цифру — количество транзисторов. В G80 их 681 млн. Это больше, чем в самых современных процессорах Intel. К примеру, Intel Core 2 Е6850 состоит всего из 291 млн полупроводниковых элементов, а самый производительный Intel Core 2 Extreme QX6850 — из 582 млн.

Такая сложная структура G80 в совокупности с 90-нанометровым техпроцессом ведет к увеличению энергопотребления. В зависимости от модификации, топовые видеокарты NVIDIA GeForce восьмого поколения потребляют от 108 до 175 Вт энергии, что катаст­рофически много в свете борьбы AMD и Intel за повышение энергоэффективности центральных процессоров.

Производимые по 65-нанометровому техпроцессу процессоры архитектуры G92 (также относятся к восьмой серии) выигрывают у G80 по энергоэффективности, однако в абсолютных цифрах TDP по-прежнему остается довольно высоким — око­ло 130 Вт.

Новое поколение имеет принципиально новую архитектуру, основанную на унифицированных потоковых процессорах. Если в графических процессорах предыдущего поколения отдельно выделяли пиксельные и вершинные, которые называли также конвей­ерами, то в новой архитектуре речь идет именно об унифицированных шейдерных. Такие способны выполнять не только вершинные и пик­сельные шейдеры, но также геометрические и физические, что не было реализова­но в графических чипах предыдущих поколений. Архитектура унифицированных блоков позволяет достичь сбалансированной нагрузки при выполнении различных шейдеров, чего в принципе нельзя было достичь при использовании классической архитектуры графического процессора.

Унифицированные потоковые процессоры (Unified Streaming Processors, USP) представляют собой скалярные процессоры общего назначения для обработки данных с плавающей запятой. При этом необходимо акцентировать внимание на том, что ранее как NVIDIA, так и ATI применяли в своих изделиях векторную архитектуру исполнительных блоков. Переход к скалярным вызван тем, что традиционная векторная архитектура менее эффективно использует вычислительные ресурсы, чем скалярный дизайн мо­дулей, особенно в случае обработки сложных смешанных шейдеров, сочетающих векторные и скалярные инструкции. Кроме того, довольно сложно добиться эф­фективной обработки скалярных вычислений с помощью векторных исполни­тельных модулей.

Потоковые процессоры обрабатывают сырые данные и передают их блокам тексту — рирования. На каждые четыре потоковых приходится один модуль адресации текстур и два модуля фильтрации текстур. То есть на каждый функцио­нальный блок в ядре, приходится 16 потоковых, четыре модуля адресации текстур и восемь модулей фильтрации текстур. Приме­чательно, что каждому такому блоку выделен кэш первого уровня.

При выполнении скалярным унифицированным потоковым процессором вектор­ного программного кода преобразование в скалярные операции производится графическим процессором GeForce 8800.

Видеокарта NVIDIA GeForce 8: новые режимы сглаживания и анизотропной фильтрации

Новая технология сглаживания основана на так называемых coverage samples и по­лучила название Coverage Sampling Anti-Aliasing (CSAA). При этом поддержива­ются четыре режима CSAA: 8х, 8xQ, 16х и 16xQ.

Технология CSAA обеспечивает более высокое качество сглаживания, чем техно­логии, реализованные в предыдущих версиях NVIDIA. Этот метод во многом похож на подход ATI и также имеет дело с псевдостохасти­ческими паттернами и распространением отсчетов на соседние геометрические зоны (происходит размазывание пиксела, пикселы не имеют резкой границы, а как бы переходят один в другой с точки зрения АА, покрывая некую зону). Цвета отсче­тов и глубина хранятся отдельно от информации об их местоположении, и, таким образом, на один пиксел может приходиться 16 отсчетов, но, например, всего восемь вычисленных значений глубины — что дополнительно экономит ПСП и такты.

Что касается анизотропной фильтрации, то в NVIDIA GeForce 8800 реализован алгоритм, в котором качество фильтрации не зависит от угла наклона плоскости текстуры. Это позволяет добиться большей четкости и рез­кости различных объектов, расположенных под острым углом или уходящих в пер­спективу.

Видеокарта NVIDIA GeForce 8: геометрические шейдеры 4.0

Как уже упоминалось, одними из главных особенностей нового графического про­цессора являются унифицированные процессоры и поддержка API DirectX 10. Эти унифицированные поддерживают не только вершинные и пиксельные шейдеры, но и геометрические шейдеры (Geometry Shaders), что является неотъ­емлемой частью DirectX 10.

Геометрические шейдеры — это программы, позволяющие обрабатывать данные на уровне не отдельных вершин, как в вершинных шейдерах, а примитивов, то есть набора вершин (линий, полосок, треугольников и т. д.). Они дают возможность существенно повысить эффективность преобразования сложных трехмерных объ­ектов. Работа с геометрическими шейдерами позволит сократить количество тактов графического процессора для просчета сложных геометрических преобразований, таких как реалистичные волосы и струящиеся сложные ткани. Также геометриче­ские шейдеры помогут увеличить реалистичность изображения воды за счет воз­можностей тесселяции (разбиения полигонов на более мелкие).

Видеокарта NVIDIA GeForce 8: физические эффекты

Технология расчета физических эффектов (NVIDIA Quantum Effects) позволяет имитировать и рендерить множество новых физических эффектов, таких как огонь, дым, взрывы, движущиеся волосы, вода и т. д. Разумеется, самые интересные иг­ровые эффекты с эмуляцией физических явлений можно будет наблюдать после выхода игр для DirectX 10.

Видеокарта NVIDIA GeForce 8800 GTX

Логически графический процессор содержит несколько вычислительных блоков: восемь блоков GeForce 8800 GTX. В каждом таком блоке сгруппированы четыре блока TMU (блок наложения текстур) и 16 блоков ALU. Таким образом, мы получаем 128 блоков ALU и 32 блока TMU.

Сама NVIDIA предпочитает говорить, что GeForce 8800 GTX имеет 128 унифици­рованных потоковых процессоров. По сути, это утверждение не совсем верно и носит в большей степени маркетинговый характер. Более правильно говорить о восьми унифицированных шейдерных (вычислительных блоках), поскольку именно вычислительный блок, а не отдельный блок ALU может обра­батывать часть пиксельного, вершинного или геометрического шейдера, а все ветвления, переходы, условия и т. д. обрабатываются именно на уровне всего вы­числительного блока. Впрочем, не будем вдаваться в полемику о терминах.

NVIDIA GeForce

Унифицированная структура процессоров G80

NVIDIA GeForce

Технические характеристики графических ускорителей семейства G80

NVIDIA GeForce

Технические характеристики графических ускорителей семейства G80 (продолжение)

Референсная видеокарта NVIDIA GeForce на базе GeForce 8800 GTX имеет 768 Мбайт видеопамяти GDDR3. При этом ширина шины памяти составляет 384 бит, а час­тота работы памяти — 1800 МГц. Соответственно пиковая пропускная способность шины памяти равна 86,4 Гбайт/с.

Каждый вычислительный логический блок имеет собственный кэш первого уров­ня (L1) для хранения текстур и других данных. Отметим, что частота унифициро­ванных (блоков ALU) отличается от частоты работы текстурных блоков, частоты работы кэша и всех остальных блоков. Например, для NVIDIA GeForce 8800 GTX частота унифицированных составляет 1,35 ГГц, в то время как частота всех остальных блоков равна 575 МГц.

Каждый вычислительный логический блок связан также с кэшем второго уровня (L2). Всего в NVIDIA GeForce 8800 GTX имеется шесть Г2-кэшей, при этом каждый вычислительный блок имеет доступ к любому из них и к любому из шести массивов регистров общего назначения. Таким образом, обработанные одним шейдерным данные могут быть использованы другим шейдерным.

Графический процессор GeForce 8800 GTX обладает шестью разделами растровых операций (ROP). Каждый раздел ROP способен обрабатывать четыре пиксела за такт с общей производительностью 24 пиксела за такт с обработкой цвета и Z-об- работкой.

Блоки растровых операций поддерживает мультисемплированное, суперсемплированное и прозрачное адаптивное сглаживание. Отметим, что добавлены новые режимы сглаживания: 8х, 8xQ, 16х и 16xQ. Новый графический процессор поддер­живает сглаживание в формате FP16 и FP32, так что свойственная архитектурам NVIDIA GeForce 6х и GeForce 7х проблема, заключающаяся в невозможности од­новременного использования полноэкранного сглаживания и режима HDR, в GeForce 8800 полностью решена.

При проектировании ALU были соблюдены спецификации стандарта IEEE 754, важного для научных, статистических, экономических и других вычислений.

Еще одной важной особенностью архитектуры графического процессора GeForce 8800 является потоковая циклическая обработка данных, позволяющая устранить не­достаток классической конвейерной схемы графического процессора — неопти­мального использования ресурсов в случае повторной обработки данных.

В архитектуре NVIDIA GeForce 8800 входящие данные (input stream) поступают на вход одного унифицированного , обрабатываются им, по выходе (output stream) записываются в регистры, а затем вновь подаются на вход другого, для исполнения следующей операции обработки.

Применение циклической потоковой обработки данных одновременно с унифи­цированными процессорами позволяет решить проблему их повторной обработки, довольно часто встречающуюся в современных играх.

Потоковая обработка данных, реализованная в GPU NVIDIA GeForce 8800, явля­ется составной частью API DirectX 10. Такая архитектура позволяет отправлять данные, обработанные вершинным или геометрическим шейдером, в буфер памя­ти, а затем вновь использовать их либо для последующей, либо для повторной обработки.

Как уже отмечалось, он поддерживает множество новых функций и технологий, в том числе следующие.

1. Новые режимы сглаживания и анизотропной фильтрации.

2. Геометрические шейдеры, реализованные в DirectX 10.

3. Режим HDR. Сериия GeForce 8800 поддерживает процесс HDR-рендеринга (High Dynamic Range) с 128-битной точностью не только в режиме FP16 (64-битный цвет), но и FP32 (128-битный цвет), которые могут обрабатываться одновременно с процессом сглаживания. Это позволяет добиться реалистичных эффектов освещения и наложения теней, а также обес­печивает высокую динамику и детализацию самых затемненных и самых свет­лых объектов. Правда, нужно отметить, что существующие сегодня мониторы не способны выводить изображение в широком динамическом диапазоне. Поэтому даже в случае применения режима HDR при рендеринге для вывода изображения на экран монитора все равно будет использоваться стандартная модель RGB. По данной причине сегодня режим HDR можно рассматривать только как эффективное средство для создания различных визуальных эф­фектов.

4. Технологию расчета физических эффектов NVIDIA Quantum Effects.

5. Режим Extreme High Definition Gaming. Новые GeForce 8800 и соответственно все видеокарты geforce на их базе поддерживают игровые установки Extreme High Definition (XHD), при которых игры могут запускаться в широкоформатном режиме вплоть до 2560 х 1600, что в семь раз превышает качество картинки HD-телевизора формата 1080i и в два раза — фор­мата 1080р.

6. 2 х DVI Dual Link.

7. Технологии Pure Video и Pure Video HD.

Видеокарта, NVIDIA GeForce 8800 GTS

Разница между видеокартами NVIDIA GeForce 8800 GTX и GeForce 8800 GTS заключается в количестве унифицированных (SP), так­товой частоте работы SP и графического ядра, а также в разрядности шины памя­ти, частоте работы и объеме поддерживаемой памяти. GeForce 8800 GTS имеет 96 унифицированных потоковых процессоров, работа­ющих на частоте 1200 МГц. Тактовая частота остальных блоков (кэш, модули текстурирования и т. д.) составляет 500 МГц (513 МГц для 320-мегабайтной версии).

Референсная видеокарта geforce на базе GeForce 8800 GTS имеет, в зависимо­сти от версии, 320 либо 640 Мбайт видеопамяти GDDR3. При этом ширина шины памяти составляет 320 бит, а частота работы памяти — 1600 МГц. Соответственно пиковая пропускная способность шины памяти равна 64 Гбайт/с.

Все остальные технические характеристики и функциональные возможности у видеокарта geforce на GeForce 8800 GTX и GeForce 8800 GTS одинаковые.

Видеокарта, NVIDIA GeForce 8800 Ultra

Разработчик позиционирует эту карту как решение для премиум-сегмента. Она является не чем иным, как разогнанной версией NVIDIA GeForce 8800 GTX. Расчетная скорость текстурирования составляет 39,2 Гтексел/с, а закраски — 14,7 Гпиксел/с. Это более чем в 1,6 раза превосходит по скорости текстурирования самую производительную двухпроцессорную модель предыдущего поколения NVIDIA GeForce 7950 GX2.

NVIDIA уже неоднократно практиковала такую политику, когда производитель­ность наращивалась не за счет переработки архитектуры ядра (G80 и так отлича­ется сложностью), а за счет увеличения частоты работы. С точки зрения маркетин­га это оправданно.

NVIDIA GeForce 8800 Ultra, как и предшественница (GeForce 8800 GTX), исполь­зует память GDDR3 общим объемом 768 Мбайт, тактовая частота составляет всего 612 МГц для основной подсистемы и 1,5 ГГц для подсистемы шейдерных процессоров, что соответственно на 6 и 11 % больше по сравнению с неразогнанной картой. Частота памяти возросла с номинальных 1800 до 2160 МГц. По этому параметру прирост быстродействия составил целых 20 %.

В любом случае эта видеокарта geforce является одним из самых мощных 3D-ускорителей. Хотя некоторые партнеры NVIDIA в своих продуктах самостоятельно разгоняли GeForce 8800 GTX, приблизив их тем самым к возможностям GeForce 8800 Ultra, однако той же производительности им достигнуть не удалось.

Видеокарта, NVIDIA GeForce 8600 GTS

Ввиду того что архитектура G80 довольно гибкая, она позволяет малыми силами урезать производительность видеоадаптеров. Поэтому в данном случае без особых мудрствований NVIDIA и пошла по этому пути. Количество ALU в шейдерном блоке осталось прежним, однако они работают на более чем удвоенной частоте 1450 МГц, а их точность составляет FP32, с поддержкой целочисленных фор­матов.

Учитывая то, что универсальных шейдерных блоков всего два, легко подсчитать количество универсальных потоковых: 2 х 16 = 32. Странно, что в решениях среднего уровня всего два универсальных шейдера. Разрыв с топо­выми продуктами довольно существенный. По аналогии с G80 можно было бы предположить, что количество TMU при этом должно быть равно восьми, однако это не так. Несмотря на общую схожесть, в новые все-таки были вне­сены некоторые изменения. В частности, количество модулей адресации текстур увеличилось в два раза по сравнению с G80. Поэтому получается, что в NVIDIA GeForce 8600 GTS на каждый блок адресации приходится один блок билинейной фильтрации, что теоретически должно обеспечить прирост скорости при данной операции. Однако в то же время это означает падение производительности при трилинейной и анизотропной фильтрации, которые в топовых продуктах будут выполняться быстрее за счет двукратного превосходства модулей фильтрации над модулями адресации.

Количество блоков растеризации (ROP) уменьшилось относительно G80 в три раза и равно восьми.

Тактовая частота процессоров, построенных на ядре G84, превосходит показатели старших моделей. Это стало возможным благодаря переходу на более тонкий техпроцесс (80 нм).

NVIDIA GeForce

Технические характеристики графических ускорителей семейства G84

Карта поддерживает видеопамять стандарта GDDR3 объемом до 512 Мбайт, эф­фективная частота работы которой составляет 2 ГГц. По этому параметру NVIDIA GeForce 8600 GTS уступает только GeForce 8800 Ultra с ее 2,16 ГГц. Однако скорость обмена данными у последней выше за счет более широкой шины. В G84 она урезана относительно топовых моделей в три раза — до 128 бит.

Видеокарта, NVIDIA GeForce 8600 GT

Построенная на том же ядре, что и NVIDIA GeForce 8600 GTS, данная видео­карта отличается уменьшенной до 540 МГц тактовой частотой , при том, что частота блока потоковых превосходит ее более чем в два раза — 1190 МГц. Остальные режимы и технологии в обеих видеокартах иден­тичны.

Видеокарта, NVIDIA GeForce 8500 GT/GeForce 8400 GS

Обе видеокарты построены на G86. По своей логической структуре они являются вдвое урезанной версией G84: пото­ковых процессоров 16 вместо 32, текстурных модулей 8 вместо 16 и 4 блока расте­ризации вместо 8. Их домен работает на частоте 900 МГц, в то время как тактовая частота основного вдвое меньше — 450 МГц.

NVIDIA GeForce

Технические характеристики графических ускорителей семейства G86

Структура шейдерного блока идентична той, которая применяется в G84. Другим важным различием архитектур G86 и G84 является тип поддерживаемой памяти. Младший вариант умеет работать только с GDDR2. Причем если в GeForce 8500 GT поддерживается 128-битная шина, то в GeForce 8400 GS — только 64-битная. Кро­ме того, NVIDIA GeForce 8400 GS не поддерживает технологию SLI.

Видеокарта NVIDIA GeForce и графические ускорители архитектуры G92

Архитектура G92 — не что иное, как развитие предыдущей G80. Новые стали более сложными, количество транзисторов увеличилось почти на 150 тыс. Это обусловлено переработкой блоков TMU, а также переносом функциональности (NVIO), за которую раньше отвечал отдельный чип, на кристалл. В таблице ниже пред­ставлены основные характеристики референсных карт, базирующихся на данных чипах.

NVIDIA GeForce

Технические характеристики графических ускорителей семейства G92

NVIDIA GeForce

Технические характеристики графических ускорителей семейства G92 (продолжение)

В первую очередь необходимо отметить поддержку шины PCI Express 2.0, а также повышенные частоты работы ядра и чуть улучшенные показатели энергоэффек­тивности.

На приведенной ниже схеме видно, что процессор имеет семь конвейеров для параллельной обработки данных. Схема работы TMU изменилась относитель­но G80: она совпадает с той, которая была реализована в G84 и G86.

NVIDIA GeForce

Архитектура G92

По сравнению с G80 уменьшилось количество блоков ROP с шести до четырех. Каждый из блоков обрабатывает по четыре пиксела (или 16 субпикселов), и всего получается 16 пикселов за такт для цвета и Z. В режиме только Z обрабатывается в два раза большее количество семплов за один такт. При MSAA (Multi Sample Anti-Aliasing) 16x чип может выдавать два пиксела за такт, при 4х — восемь и т. д. Как и в G80, полноценно поддерживаются форматы буфера кадров FP32 и FP16 совместно со сглаживанием.

Любители высококачественного видео оценят интегрированные в GPU функции декодирования медиаданных. У NVIDIA GeForce для этого есть специальный термин Pure Video HD. В этой реализации поддерживаются кодеки MPEG-2, WMV, Н.264 и VC-1. Все это позволяет выводить картинку с разрешением 1920 х 1080 (Full HD) и битрейтом до 30-40 Мбит/с.

Тем, кто собирает компьютер с нуля, необходимо обратить внимание на поддержи­ваемые видеовыходы. Новомодного DisplayPort в этом поколении видеокарт нет. Будьте внимательны, выбирая монитор.

Видеокарта NVIDIA GeForce 9

Видеокарты девятой серии стали для NVIDIA промежуточным вариантом на пути к следующему поколению. Старшие модели являются ближайшими род­ственниками рассмотренного выше ядра G92, а младшие по своей архитектуре ближе к G8x.

Если же абстрагироваться от деталей, то, по сути, видеокарты и восьмой, и девятой серии — одного поля ягоды. Младшие G9x отличаются более тонким 65-наномет- ровым техпроцессом и наличием новых модулей вроде интегрированного NVIO.

Ввиду того что базовые свойства архитектуры этого поколения детально рассмот­рены в предыдущих разделах, ограничимся краткими сведениями о картах девятой серии.

NVIDIA GeForce

Технические характеристики графических ускорителей серии 98хх

NVIDIA GeForce

Технические характеристики графических ускорителей серии 98хх (продолжение)

По сравнению с предыдущим поколением флагманы девятой серии обзавелись поддержкой интерфейса Display Port, а также повышенными рабочими частотами памяти и логических блоков.

Сложно ожидать каких бы то ни было кардинальных отличий, в свете того что эти продукты базируются на ядре G92.

NVIDIA GeForce

Технические характеристики графических ускорителей серий 94хх, 95хх, 96хх

NVIDIA GeForce

Технические характеристики графических ускорителей серий 94хх, 95хх, 96хх (продолжение)

Младшая серия отличается уменьшенным количеством рабочих модулей, пони­женными частотами функционирования памяти и графического ядра. Несмотря на это, все видеокарты поддерживают аппаратное декодирование потокового видео и позволяют подключать два монитора, что будет востребовано теми, кто не игра­ет в ресурсоемкие игры, но увлекается видео.

Интерфейс Display Port реализован только в модели 9600 GT, остальные его не имеют.

Выбирая между видеокартами девятой и восьмой серии, предпочтение стоит отда­вать более новым моделям. В числе их преимуществ — повышенное быстродей­ствие и расширенная функциональность.

Запаса мощности топовых моделей хватает, чтобы играть в требовательные к гра­фике игры или производить сложные вычисления с использованием продвигаемых NVIDIA технологий универсальных вычислений CUDA/PhysX.

Видеокарта NVIDIA GeForce 200

На эту серию NVIDIA возлагала большие надежды. При ее разработке за основу были взяты принципы, положенные в основу зарекомендовавших себя архитектур G8x и G9x. Необходимо было улучшить производительность при выполнении длинных шейдеров, а также увеличить количество параллельно выполняемых операций, с чем инженеры довольно успешно справились.

Кроме того, была изменена маркировка изделий. Компания отказалась от четырех­значных цифровых индексов в пользу трехзначных. Первоначально были пред­ставлены два адаптера — GTX 260 и GTX 280, после линейка расширилась за счет GTX 260 (216) и GTX 285. Последней на сегодняшний день моделью линейки стала двухчиповая плата GTX 295, представляющая собой фактически сдвоенную GTX 285 с меньшей рабочей частотой процессора и памяти.

NVIDIA GeForce

Технические характеристики графических ускорителей семейства GeForce 200

NVIDIA GeForce

Технические характеристики графических ускорителей семейства GeForce 200 (продолжение)

В конце 2009 года компания NVIDIA выпустила первый бюджетный чип для данного семейства — GeForce GT 240, на основе которого будут выпускаться видеоплаты «стодолларового» класса. Чтобы оценить производительность платы в сравнении с другими представителями данной серии, достаточно упомянуть о том, что GT 240 оснащен лишь 96 потоковыми процессорами, против 192 у GTX 260.

Каждый чипсет выпускается в нескольких модификациях: они могут отличаться как по номеру, так и по буквенному индексу. Самые бюджетные модели снабжены индек­сом G, модели массового класса — индексом GT, а наиболее производительные реше­ния (они обычно появляются на рынке первыми) выпускаются с индексом GTX.

NVIDIA GeForce

Технические характеристики процессоров мейнстримной серии GeForce 200

Технические характеристики процессоров мейнстримной серии GeForce 200 (продолжение)

Технические характеристики процессоров мейнстримной серии GeForce 200 (продолжение)

NVIDIA GeForce 200: особенности GTX 280

Рассмотрим особенности серии GeForce 200 на примере топового чипа. При его разработке инженеры существенно переработали (по сравнению с G9x и G8x) струк­туру большинства исполнительных блоков, в частности ТРС (Texture Processing Clusters).

По сравнению с кластерами ТРС предыдущего поколения, здесь количество пото­ковых мультипроцессоров увеличено с двух до трех. Несмотря на то что в каждом из мультипроцессоров (SM) количество структурных блоков (SP) осталось преж­ним (восемь модулей), увеличилась их разрядность до FP64 в рамках стандарта IEEE 754®. Не изменилось и количество сегментов текстурной фильтрации — их также осталось восемь.

В целом структура нового чипа стала более сложной. Даже количество самих универсальных кластеров увеличилось до 10, хотя для G92 максимальной была цифра 8. К тому же был существенно переработан блок управления параллель­ными операциями. Если предыдущее поколение чипов позволяло одновременно работать 12 288 потокам, то здесь их количество возросло до впечатляющих 30 000. Это сделано не только в угоду любителям ЗО-развлечений, но и в рамках направле­ния CUDA/PhysX, где NVIDIA выступает в качестве поставщика высокопроизво­дительной платформы для сложных научных вычислений.

NVIDIA GeForce

Структурная схема процессоров архитектуры GT200

Вслед за улучшенной производительностью ТРС возросла и мощность ROP до 32 пикселов за такт. И если графические процессоры предыдущего поколения умели выводить 24 пиксела за такт и блендить 12 пикселов, то NVIDIA GeForce 200 выдает свои 32 пиксела уже с блендингом.

Следует обратить внимание на технологию Dual Issue, которая позволяет выполнять две инструкции за такт в одном шейдере (MAD+MUL). В каждом блоке SM содер­жатся специальные исполнительные блоки (Special Function Unit, SFU), которые вычисляют сложные функции, интерполируют атрибуты, а также выполняют опе­рации умножения (MUL). С их помощью каждый потоковый процессор чипа GT200 способен исполнять не только одну операцию умножения со сложением (Multiply- Add, MAD), но одновременно еще и MUL.

Впечатляет и 512-битная шина памяти. Ее дополняют переработанные блоки пред­выборки и кэширования данных.

В совокупности с рядом других улучшений выход видеокарт этой серии был мно­гообещающим. Компания предложила реальное улучшение по сравнению с пред­шественниками.

Следует отметить, что чип, содержащий рекордное количество транзисторов (1400 млн), получился у NVIDIA очень сложным и, соответственно, дорогим в про­изводстве.

NVIDIA GeForce 200: особенности GTX 260/GTX 260 (216)

Первоначально младшая модель топового сегмента GTX 260 имела восемь универ­сальных исполнительных блоков, но после того,.как была разгромлена вышедшими позже видеокартами AMD серии 4000, NVIDIA задействовала резервный испол­нительный блок. Так появилась модификация с девятью потоковыми процессора­ми, которая имеет метку 216, что указывает на количество универсальных блоков (ALU). В целом же частоты работы памяти и ядер у этих двух карт совпадают. По сравнению с GTX 280, модели с индексом 260 имеют следующие отличия: до 448 бит уменьшена разрядность шины, частота ядра уменьшена до 576 МГц, уре­зано количество вычислительных блоков.

Несмотря на отставание от флагманских видеокарт серии 4000, решения NVIDIA остаются интересными для тех, кто желает собрать высокопроизводительную ра­бочую станцию с мощной графической подсистемой либо использовать компьютер для научных или физических расчетов.

NVIDIA GeForce 100М/200М/300М

В это семейство входят графические процессоры NVIDIA GeForce последнего поколения, предназначенные для ноутбуков. Архитектурные особенности процессоров се­рии 200 мы уже рассмотрели выше, так что останавливаться на их аналогах более подробно, на наш взгляд, не имеет особого смысла.

Буквенные индексы видеочипов остались прежними и полностью совпадают с ин­дексами семейства десктопных плат.

По сравнению с предыдущим семейством GeForce 100М, производительность чипов нового поколения выросла практически вдвое и ровно во столько же сократилось энергопотребление. Стоит отметить поддержку памяти GDDR5, DirectX 10.1 и шейдеров 4.1, а также в топовых видеочипах семейства GTS 250-280М — еще и PhysX. Как правило, эти чипы устанавливаются в игровые ноутбуки высшей ценовой категории.

NVIDIA GeForce

Технические характеристики графических ускорителей семейства GeForce 100М/200М/300М

NVIDIA GeForce

Технические характеристики графических ускорителей семейства GeForce 100М/200М/300М (продолжение)

В начале 2010 года на смену серии 200М придет новое семейство под условным названием 300М. Ожидается, что в его модельный ряд войдут следующие чипы (в порядке снижения производительности):

1. GeForce GTS 360М;

2. GeForce GT 335М;

3. GeForce GT 330M;

4. GeForce 31 ОМ;

5. GeForce 305M.

Стоит ожидать, что уже в I квартале 2010 года игровые ноутбуки перейдут на дан­ные чипы. В этом случае серия 200М автоматически перемещается в среднебюджетный сегмент, а 100М становится мейнстримом. Чипы же серии 9хххМ и вовсе потеряют актуальность, оставшись разве что в сегменте бюджетных ноутбуков начального уровня (школьных и офисных).