- Elves Protectors -

- QUENDI -

 

на главную

- РЕГИСТРАЦИЯ -

- ВХОД -

- ВЫХОД -

5:53 AM

2025-06-17

Приветствую Гость !   [ПЕРСОНАЛЬНЫЙ РАЗДЕЛ]  * Новые сообщения *  Участники *  Правила форума  *  Поиск*

 

  • Страница 1 из 1
  • 1
Модератор форума: Akello, Alfar, Kami  
NVIDIA
Akello На главную  Дата: Понедельник, 2007-06-04, 3:51 PM | Сообщение # 1

 

ElvesProtectors
Группа: Администраторы
Сообщений: 1659
Статус: Offline
История этой калифорнийской корпорации берёт начало в 1995 году, когда она была основана предприимчивыми Дженсеном Хуангом – будущим президентом и генеральным директором , и Крисом Малаховски –вице-президентом по разработке аппаратного обеспечения…

Первым их продуктом является чип NV1,выпущенный в 1995 году, NV1 и его модификация STG2000 были первыми "полными" мультимедиа-ускорителями. Оба чипа были идентичны за исключением того, что NV1 использовал высокопроизводительную VRAM, а STG2000 - более дешевую DRAM. Несмотря на то, что NV1 был первым продуктом NVIDIA, для свого времени он был весьма продвинутым решением: 2D- и 3D-графика, встроенный аудиопроцессор мощностью 350 MIPS и процессор ввода-вывода. Самой известным ускорителем на основе NV1 был Diamond EDGE 3D.
Когда чип NV1 был только представлен, многие из 3D-стандартов, которые сейчас кажутся непререкаемыми, еще принимались. Пока полигоны не были окончательно утверждены в качестве стандарта для 3D-игр, NVIDIA решила использовать другой способ формирования примитивов объемного изображения - Quadratic Texture Maps (кривые поверхности третьего порядка). Тогда как современным 3D-ускорителям требуется большое количество маленьких полигонов для воспроизведения гладкой поверхности, в NV1 использовались искривленные стороны полигонов. Это позволяло чипу отображать гладкие поверхности без особой нагрузки. Текстуры хранились в системной памяти и подавались через шину PCI или VESA Local Bus по мере необходимости - по тому же принципу через несколько лет будет работать AGP.
Однако первый продукт NVIDIA не состоял целиком из графического ядра. В NV1 была интегрирована микросхема для воспроизведения звука. С 32 каналами, 16-битным CD-качеством и аппаратным ускорением примитивного объемного звука, NV1 производила более сильное впечатление, чем многие PCI звуковые карты первого поколения. В качестве банка для MIDI (таблица MIDI была сертифицирована Fat Labs) использовалось 6 МБ системной памяти.
Вместо традиционного игрового порта на NV1 был размещен разъем, поддерживающий геймпады и джойстики от Sega Saturn, которые можно было использовать в любой совместимой с DirectInput игре, включая Virtua Fighter, Virtua Cop и Panzer Dragoon.
Хотя чип NV1 намного превосходил возможности конкурентов и был значительно перспективней, именно технология кривых поверхностей третьего порядка привела к его рыночной смерти. Когда Microsoft утвердила спецификации Direct3D, незадолго после того, как NV1 появился на полках магазинов, именно полигоны были выбраны в качестве стандартных примитивов. И, несмотря на все усилия NVIDIA и Diamond, разработчики больше не хотели ориентироваться на NV1. Компания Diamond даже пыталась увеличить число покупателей огромными скидками и включением в комплект поставки геймпада от Sega, но и это не принесло успеха.
С помощью Direct3D Microsoft практически уничтожила NVIDIA. Производители ПК отказывались ставить в машины видеокарты на чипе, несовместимом с Direct3D, и инженеры NVIDIA понимали, что не смогут вывести на рынок новый полигональный 3D-ускоритель. Компания ушла от общественного интереса и была вынуждена уволить несколько сотрудников.


 
Akello На главную  Дата: Понедельник, 2007-06-04, 3:52 PM | Сообщение # 2

 

ElvesProtectors
Группа: Администраторы
Сообщений: 1659
Статус: Offline
Если бы тогда NVIDIA смогла обойти необходимость вводить поддержку Direct3D и продолжила использовать кривые поверхности третьего порядка...
Из интервью с Джоном Кармаком :
Технология кривых поверхностей третьего порядка могла бы стать на самом деле мощным свойством NV1, и Microsoft загубила хорошее начинание, утверждая в качестве примитивов треугольники.
Гм, не совсем так.
Уже несколько лет NVIDIA развивается не в пример остальным графическим компаниям, но давайте не будем романтизировать былые дни. NV1 был полным отстоем, и он значительно повредил бы развитию 3D-ускорителей в будущем. Microsoft провела хорошую работу, вытесняя стандарт NVIDIA.

Существует негласное мнение, что кривые поверхности лучше, чем треугольники, потому что для формирования кривой поверхности нужно много треугольников. Конечно, кривые можно упростить до того, чтобы они выполняли роль треугольников, но это - значительная потеря пропускной способности.
К сожалению, тогда существовал целый ряд продуктов, у которых отсутствовала поддержка важнейших функций [рендеринга], однако было встроено подобие патчевых поверхностей, что требовало выравнивания текстур в соответствии с направляющей сеткой патча. Это похоже на производную от 2D-графики, где нормальное движение спрайтов дополняется их масштабированием, поворотом, проектированием и искривлением. По такой схеме работали продукты 3DO, Saturn и... NV1. Возможно некоторые люди сейчас работают над заменой стандартных методов формирования текстур, но они, скорее всего, делают ту же ошибку.
Без возможности разделять процессы текстурирования и геометрического преобразования, нельзя получить отсечение в самом общем смысле слова (не говоря даже о том, что отсечение кривой вне направляющей сетки приведет к нарушению ее структуры), и либо приходиться смиряться с тем, что плотность текселя широко варьируется, уменьшаясь иногда до точки, либо стыки текстур проявляются при каждой смене ее плотности. Никакой возможности повернуть текстуру на поверхности, или спроектировать ее на множество поверхностей. Нельзя заменить общие принципы, не говоря уже о треугольниках, такими примитивами.
Даже если отвлечься от теоретической стороны вопроса, у NV1 не было HSR (hidden surface removal - устранения скрытых поверхностей), края кривых не смыкались, не отсекались плоскости и не поддерживалась коррекция перспективы. Это было приспособление, а не инструмент.
1996 год для nVidia можно считать “безрыбной” порой, в тот год корпорация работала на новым чипом, понимая, что NV1 сильно ударил по их репутации.

И наконец в 1997 году nVidia представляет свой новый чип : NVIDIA RIVA 128 –первый высокопроизводительный 128- битный Direct3D процессор.
С выходом этого чипа nVidia стала стремительно продвигаться на рынке. Riva 128 действительно оказалась очень сильным продуктом.
Газеты в то время говорили :
"Наши исследования показывают, что разработанная NVIDIA 128-битовая архитектура доминирует в категории высокопроизводительных графических акселераторов для РС, сегодня ей принадлежат 44 процента рынка, — заявил д-р Джон Педди, президент Jon Peddie Associates, ведущей маркетинговой компании, занимающейся исследованием рынка цифровых технологий. — По нашим данным, компания NVIDIA принадлежит к числу самых быстроразвивающихся, темп ее роста составил 65 процентов за год. Сегодня она поставила больше 128-битовых 3D-процессоров, чем вся остальная индустрия, вместе взятая".

1998 год стал годом выпуска Riva TNT , ставшая логичным продолжением Riva 128 . На тот момент лишь производительность voodoo 2 не давала взойти ей на трон.

И лишь выпуск Riva TNT 2 помог nVidia полностью укрепиться на рынке ,как лидер, в то время как 3dfx потерпел неудачу со своим voodoo3.

1999год –год выпуска первой 256-разрядной видеокарты, что стало на тот момент самым большим прорывом за всю историю существования корпорации.
Итак. В то знаменитое время, когда была война между производителями чипов, всё становилось на ноги. 3Dfx её проигрывала и на nVidia смотрели как на королеву, которая никого не щадит. Возведение её на трон способствовала линейка чипов TNT и TNT 2.

Нужен был продукт который бы навечно её оставил там. И он вышел, появившись в холодном 3 квартале 1999 года. Это стало действительно достижением. Все карты перед ним меркли и не годились в сравнение. Он открыл людям наслождение играть в разрешении 1024 х 768. Люди это оценили.
Сам чип работал на частоте 120 МГц., память работала на частоте 166 МГц (дальше частоты карт буду писать как 120/166). Появился он в массовой продаже по цене около 350 баксов. Производительность была выше всяких похвал. Quake 2 летал на всех разрешениях, а в Quake 3 можно было играть на 1024 х 768 в 32 битном цвете.
Кадров давал в нем около 60. Скажете мало? С выпуском этой видеокарты выявилось такое явление как “процессорозависимость”, чем сильнее процессор, тем больше производительность. В то время Pentium II 450 был не у каждого. Разгон видеокарт приводил к радостным дивидендам. Гнались хорошо, до 150/210.


 
Akello На главную  Дата: Понедельник, 2007-06-04, 3:52 PM | Сообщение # 3

 

ElvesProtectors
Группа: Администраторы
Сообщений: 1659
Статус: Offline
“Стандарт”. Для нормальной игры в большинство 3D шутеров, к которым относится и Quake 3, для разрешения 1024 на 768 и цвете 32 бита (дальше будет как "стандарт"), нужно в среднем 60 кадров в секунду. Это и является пределом играбельности. Этот стандарт и станет основополагающимся пределом. Мерь сюда. Средняя скорость 60 кадров это с запасом при том что нижний предел не будет опускаьться меньше 25-30 кадров в сложных сценах. Для увожающего себя игрока это мало, нужен предел играбельности в 100 кадров на этом разрешении, минимум будет падать до 40.

На этом чипе впервые была опробована DDR память. Одинаковая по частоте с SDR памятью она могла пропускать в два раза больше данных через себя чем предшественница, т.е. Работающая на частоте 150 МГц. DDR память имела такую же пропускную способность, как SDR при частоте 300 МГц. Но такой сверх скоростной SDR не было, поэтому постановка DDR, вместо обычной памяти, была оправдана. Обозначается же DDR память несколькими способами. Есть такое обозначение 333 МГц. DDR, по идее это должно обозначать, что стоит 333 МегаГерцовая DDR память которая соответствует 666 МегаГерцовой памяти SDR, но иногда я и сам путаюсь. Потому-что 166 МГц DDR память уже увеличили и поставили число 333, но оставили DDR имея ввиду, что это уже увеличенная до значений SDR памяти DDR память. Вот так. Имейте это ввиду. Дальше я буду применять для DDR памяти второе обозначение.

И начинаем мы вот с чего. К концу 1999 года на рынок вышла видеокарта на чипе GeForce 256 с поддержкой DDR памяти. Её частоты 120/300. Производительность по отношению к SDR версии плат выросла примерно на 15-20% в особенности в больших разрешениях, в особенности при применении 32 битного цвета. В Quake 3 при 1024х768 давал 70-75 кадров в секунду. В разгон карты шли плохо. До 150/320.

Ровно через пол года после первого GF, в начале 2000, вышел GF 2, а точнее GF 2 GTS (GigaTixelShader – первый кто мог перемалывать более 1 миллиарда текселей в секунду). Эта видеокарта задумываласть для будущего дня. Который должен был наступить через 2 года, и вот он наступил. Обозначение GTS это архитектура которая упрощает построение фигур. Ничем особенным правда он от предшественника не отличался. Но была повышена его частота до 200/333, да производиться он от предшественника стал по 0.18 мкм., а не 0.22 мкм тех.процессу, из-за этого тепловыделение уменьшилось. Применялась только DDR память.

Производительность увеличилась на 25-30%. Но если посчитать по частотам то мы придем к выводу, что что-то здесь не так. GF 2 мы будем сравнивать с DDR версией GF I. Даю их частоты 120/300 и 200/333. Сразу видно, что видеокарты на его основе не сбалансированы. При увеличении частоты работы чипа на 66% память работает только на 11% быстрее. А ведь всем известно, что всё в видеокартах зависит от самого медленного элемента коим память и являлась здесь. Но как ни крути производительность всё равно выросла, 25-30% это тоже не мало.
А на счет трех букв. Так вот. Эта архитектура на нем работала очень криво, или вообще отказывалась работать. В будующем мы увидим, что её работа осуществлялась програмно, но не самим чипом. Самое же главное состоит здесь в том, что игры с её поддержкой появятся массово только в 2003 году!!! На данный момент, конец 2001 года, есть одна игра и один тест с поддержкой этой функции. А какого тогда черта покупать суппер дорогой ускоритель (500$ в момент его появления) главная фишка которого не поддерживается?!
Для игроманов он всё-таки остается чем-то символическим вплоть до наших дней. В Quake 3 при разрешении 1024 на 768 и 32 битном цвете он давал 90-95 кадров. В разгон шел плохо. 230/366 было. Разгон чипа, в большинстве своем ничего не давал, а память гналась плохо.

Всё-таки екнуло что-то у nVidia и посмотрев на свою ошибочку ( может и не на ошибку, а на целенаправленную стратегию) она в 3 квартале 2000 года выпустила на рынок два новых чипа: GF 2 MX и GF 2 PRO. Видеокарты на основе первой: нацелены на народ. Второй чип – это тот же GTS, но перемаркированный как GF 2 GTS PRO. nVidia решилась на перемаркировку из-за того, что в продажу начали поступать карты якобы с GF 2 PRO, но под намертво приклееным радиатором стояла маркировка GF 2 GTS.
По частотным же показателям GF 2 GTS PRO опережал GF 2 GTS. Они у карт на нем составляли 200/400. Как видно частота памяти была увеличена, что заменто высвободило мощь чипа. По отношению к предшественнику производительность сразу-же выросла на 25%. В Quake 3 при «стандрте» давал 110-120 кадров в секунду. Сейчас у карт на этом чипе есть все шансы стать “народными”.

Ну а теперь наш рассказ будет посвящен самой удачной “народной видеокарте” на чипе GF 2 MX. Что-же за зверь такой этот МХ? В общем-то ничего такого особенного. nVidia проделывала это много раз во времена карт на TNT и TNT 2, то шину доступа к памяти урежет, то частоты занизит, то количество памяти уменьшит раза в 4. Ну и что же мы видим. Рассуждаем и ворочаем мозгами. Даю рецепт приготовления. Уменьшим частоту с номинальных 200 до 175. Вместо 4 конвееров рендеринга оставим только два, а точнее “кастрируем”. Снабдим не хваленой DDR памятью, а SDR памятью. Нет а почему только SDR, давайте добавим всё-таки DDR, но не 128 битную, а 64 битную. Ну а для того чтобы брали вставим чего-нибудь такого, чего нет в обычном GF 2 GTS, а точнее поддержку двух мониторного режима. Вот вам без лишних хлопот и новая карта вырисовывается.

Всё. Чип приготовили. И так. Вот перед нами чип GF 2MX. Но самое удивительное он оказался удачным. Он был ориентирован на средний, а потом и на нижний диапазон пользователей. Стандартные частоты nVidia дала для производителей карт как 175/166. Карта давала в Quake 3 на «стандарте» - 60 кадров в секунду. Что для пользователя, у которого был 17 дюймовый монитор который работал в самом распостраненном для них разрешении 1024 на 768, было самым наилучшим выбором. Да и цена в момент появления была 140-150 долларов. Это был действительно наилучший выбор для среднего пользователя.
В начале 2001 года ряд карт на GF 2 MX был расширен. Появились карты на МХ 100, МХ 200 и МХ 400.
Первая – это самый зарезаный МХ, у него занижены частоты до 143/166, но самое главное , шина памяти уменьшена до 32 бит (жуть). Производительность неизвестна, из-за того, что была на нем выпущена только одна карта, которая является сейчас раритетом.
Вторая - это кастрированный GeForce 2 MX, но не такой зарезанный, шина памяти уменшена до 64 бит, производительность на 50 % ниже, частоты 175/166.
Третья - обычный чип, но чуть разогнанный до 200/183, производительность на 10 % лучше.
Но самое главное все чипы на GF 2 MX созданы для разгона. С обычных частот видеокарты с GF 2 MX 175/166, ты можешь получить от неё 210/210 и получить прибавку ещё до 25 %. Максимумальный разгон добытый мной в сети был равен частотам работы карты - 250/260 и был достигнут на карте CardeXPERT MX 400.
А на смом деле, чтобы дать изюминку в своей продукции, фирмы делавшие на этом чипе карты завышали их частоты (или занижали их). Можно заметить карты на МХ 400 с частотами 200/166, а можно и на 200/200, и даже 240/240.

Эволюция продолжилась. GTS и PRO были по частоте 200 Мгц. И тут nVidia решила выпустить самую лучшую и производительная карту из семейства Двоек - GF 2 Ultra. По производительности эта карта оставила всех предшественниц за бортом. 60 кадров в секунду давала в 1600 на 1200, а в «стандарте» 150 кадров (Проха давала 110 -120 кадров). Но она стала самой большой неудачей. Она работала на частотах 250/460, выпуск годных чипов, работающих на такой частоте, или чуть больше, был 5-8%. Но самое главное, что появившись на прилавках за 600 баксов их никто не брал. Только самые искушенные и тестеры. Цена её и осталась такой-же высокой, упав до 350 долларов, но и тогда её тоже никто не брал. Потому-что скоро должен был выйти новый Суппер чип GF 3, который появился только за 380 чубаксов и превосходивший Ультру на 10-50%!

Значит так. Вышел этот мастодонт и все замерли. По производительности в 32 битном цвете он не имел себе равных на протяжении 6 месяцев. Он оказался такой мощный, что для его силы не было игр готовых её применить. Только осенью у него появился противник от ATI, а также начали выходить игры специально для него.
А теперь о производительности. У всех предыдущих чипов от nVidia есть одна очень большая проблема. Их скорость сильно зависила от пропускной возможности памяти. Во время начала властвования GF 2 (нет всё-таки чуть раньше, во время появления первых GeForce-ов за год до этого) все играли при 16-битном цвете. И вот случилось, они вышли и их начали покупать. Но сущъность человека состоит в том, что ему всего мало. Мало 16-битного цвета, надо 32. Так вот. На этих картах можно было играть в разрешении 1280 на 1024 при 16 битном цвете, но никто этого не хотел, а играли в 800 на 600, но в 32 битном. А почему не в 1024 на 768 ? Да потому-что при переходе в 32-битный цвет производительность падала на 45-50 процентов. И это никого не радовало.


 
Akello На главную  Дата: Понедельник, 2007-06-04, 3:53 PM | Сообщение # 4

 

ElvesProtectors
Группа: Администраторы
Сообщений: 1659
Статус: Offline
А вот сейчас небольшое отступление. У ATI представившей тогда свою карту на своем чипсете RadeOn, этой проблемы не было. В 16 б. цвете видеокарты от неё проигрывали GF процентов 30-40 во всех разрешениях везде, а вот в 32 б. цвете они сравнивались с ним и вигрывали начиная с 1024 на 768 уже 5 -10%. Всё из-за памяти. АТI-вские чипы не так были привязаны к пропускной способности памяти Да еще и разгружали её систему при задействовании специальной системы HyperZ. В отличии от карт nVidia.

Это продолжалось до появления этого самого аборигена. ВПЕРВЫЕ за всю историю nVidia смогла сделать чип который не делал такого большого падения производительности при переходе от 16 к 32 битному цвету. Это был первый акселератор 32 битного цвета. 95 кадров можно было получить в 1600 на 1200 при 32 б. цвете. При разгоне со штатных 200/460 до 240/540 тянул на 110 кадров. В 16 б. при стандартной частоте было 105 кадров. Производительность падает незначительно, на 5-10% при переходе от 16 к 32 битам. Сейчас такой комбайн стоит 300-350 в России и 400 в Эстонии. Производительности хватило бы на всех, даже самых требовательных игроков.
Но в начале все испугались из-за того, что Третий проигрывал Второй Ультре в 16 б. цвете 10-15%. Из-за этого все начали орать что nVidiа сделала Трехе "Мать Убийцу" своего нового чада. Но вышли новые драйвера которые занизили производительность! плат на Ультре (примерно во всех разрешениях на 10-15 % в 16 битном цвете, по отношению к прежним показателям), но этого никто в слух не говорил. Дорога к успеху была проложена.

Вот уже три года nVidia выпускает новые карты ровно в срок. Новая карта в 1 квартале, улучшенная в 3 квартале и так пока продолжается. Всем был хорош GeForce 3, но вдруг очнулась после долгой спячки Канадская компания ATI и выпустила линейку карт на своём Radeon-е. 7000-ки для безденежных и 8000-ка для продвинутых. В первой группе 6 карт, во второй 1. Две из них 7500 и 8500 могли составить серьезную конкуренцию: первая – GF 2, вторая – GF 3.

И тут наш герой встрепенулся. И дал залпом сразу три карты - линейку под названием Titanium-ы. В составе GF 2 Ti, GF 3 TI200 и GF 3 TI500. Что
они из себя представляют:
Первая - чип от GF 2 Ultra, а память от GF 2 GTS PRO - 250/400.
Вторая - заниженный по частотам GF 3 - 175/400.
Третий - разогнанный GF 3 - 240/500.

Конец 2001 года, начало 2002, стало рассветом новой линейки видеокарт от nVidia.
GeForce Ti 4 показывал небывалую по меркам того времени производительность
Была представлено несколько модификаций, различия основывались на частотах и кол-ве памяти. Младшая моделька – Ti4200 ,представляла собой решение для среднего сегмента рынка, Ti 4400- высшая ступень этого же сегмента, Ti 4600 же представлял высокопроизводительные решение бизнес- класса.
Далее последовала линейка FX –которая стала одной из самых неудачных вех в истории nVidia . Первым был выпущен чип NV30:
Компания сделала около семи pевизий чипа NV30 (возможно, их было "всего"
четыpе, а еще тpи так и не были выпущены), каждый pаз выплачивая своему
чипмейкеpу (TSMC) поpядка $1 млн. за сам пpоцесс, а также около $20 млн. - за
увеличение темпа pабот. Лишь на четвеpтый или пятый pаз из пластин были
получены пеpвые годные чипы. Состояние пеpсонала самой компании, как Вы
понимаете, было близко к паническому. Пеpвые видеокаpты GeForce FX 5800
создавались на основе тех немногих годных чипов, котоpые все-таки удавалось
получить из обpаботанных пластин. Для пpимеpа, на пеpвых поpах из 126-127
чипов, умещающихся на пластине, pабочими оказывались всего 7-10 штук, что
поднимало цену каждого пpоцессоpа NV30 с $10-20 до $60. В свете чpезмеpного и
ничем не подкpепленного оптимизма маpкетингового и PR-отдела (именно под
давлением котоpых, отчасти, и были подняты pабочие частоты, ставшие пpичиной
использования печально знаменитой системы Flow FX), выставлявших новинку как
"убийцу" для пpодукции конкуpентов, последовавший за этим пpовал GeForce FX
5800 нанес NVIDIA очевидные имиджевые потеpи.
Hе менее удивительно выглядит ситуация и с последними новинками компании в лице
NV36 и NV38. Дело в том, что выпуск пеpвого из этих двух чипов был намечен на
втоpую половину сентябpя, тогда как NV38 должен был выйти еще в конце августа.
Однако, несмотpя на pазницу в pеальных сpоках появления чипов, их анонс был
пpоведен не только одновpеменно, но еще и с наpушением всех pанее
пpогнозиpовавшихся сpоков .Для того, чтобы понять, почему это пpоизошло, необходимо
сделать небольшое отступление. Как мы знаем, согласно новому пpавилу ATI, анонс
любого пpодукта должен быть пpоведен не pаньше 30 дней до момента его появления
на pынке. Hегласный же закон NVIDIA тpебует, чтобы было выпущено как минимум 10
тыс. единиц пpодукции, пpежде чем она будет объявлена официально.


 
Akello На главную  Дата: Понедельник, 2007-06-04, 3:53 PM | Сообщение # 5

 

ElvesProtectors
Группа: Администраторы
Сообщений: 1659
Статус: Offline
Весь 2003 год ушел на доработку драйверов под серию FX ,но кроме этого nVidia всё это время усиленно работала над новым чипом …
Что собственно сама nVidia говорила тогда о нём :
2004 год, NV40 . Интервью в Даном Виволи :
Дан Виволи (Dan Vivoli) является исполнительным вице-президентом nVidia по маркетингу. С октября 1988 до декабря 1997 он работал в должности вице-президента по маркетингу в компании Silicon Graphics, Inc., а затем в 1997 вступил в нынешнюю должность у nVidia. С 1983 до 1988 года Виволи занимался маркетингом в компании Hewlett-Packard.
Недавно nVidia анонсировала чип следующего поколения - GeForce 6800. И вновь компании пришлось конкурировать с ATi, которая через неделю анонсировала линейку X800. У нас появилась возможность взять интервью у Дана Виволи по поводу новой линейки продуктов, конкуренции, будущих тенденций и технологий.
Tom's Hardware Guide (THG). Люди, которые покупают графические карты, часто сомневаются, приобретать продукцию nVidia или вашего конкурента. Приходится ли вам работать над тем, чтобы сильнее дифференцировать nVidia от ATi, и как вы планируете вообще к этому подходить?
Дан Виволи (DV). Создать продукт, превосходящий конкурентов! ;-)
Если же говорить серьёзно, то мы тратим немало усилий на создание новой архитектуры, что отразилось на NV40 (уже шестое семейство карт). Это очень тонкий процесс, охватывающий всю компанию: архитекторов, инженеров, специалистов по маркетингу и, что более важно, группу поддержки разработчиков. С выходом шестой серии видны плоды нашего труда. Никогда до этого у нас не было архитектуры, столь сильно засветившейся в сообществе разработчиков. Каждая функция Shader Model 3.0 создавалась именно по их просьбам. Кроме того, мы добавили фильтрацию с плавающей запятой и смешение (blending) в кадровом буфере только из-за просьб разработчиков. А потребители просто получают максимально возможное качество на самом производительном GPU.
К тому же, один из самых важных наших секретов - это процессор видео. Он использует впечатляющую и удивительную технологию, которая даёт потребителем средство работы с видео непревзойдённого качества. Так что вскоре вы можете ожидать от нас появления новых продуктов в области видео.
THG. Представители nVidia упоминали, что ваша компания работает над увеличением своей рыночной доли настольных графических чипов. Есть ли у вас шансы на успех?
DV. Конечно. Мы уверенно занимаем 60% рынка настольных GPU. Но есть ещё 40%, которые нам тоже не помешают!
Как мы считаем, нам нужно проводить образовательную работу с остальной частью рынка. Сегодня 50% продаваемой графики - это интегрированные решения. Однако большинство потребителей не понимают, что интегрированное решение является компромиссом, и на самом деле, это не настоящий GPU. Пользователи не только получают медленные игры, часто с визуальными дефектами и нестабильной работой, но и испытывают определённые неудобства при работе с 2D-приложениями типа графических редакторов. Как я считаю, каждому пользователю необходим второй процессор в ПК - графический. Возьмите более медленный CPU, докупите карту с нормальным GPU - и вы получите лучшую машину.
THG. Чип nVidia 6800 впечатлил индустрию и прессу. Были ли вы сами удивлены столь большим ростом производительности?
DV. Нет! Мы с самого начала планировали осуществить самый большой прорыв за всю историю nVidia. Да и поддержка SM 3.0 действительно многое значит. Но ещё не всё! Мы готовим широкую линейку карт на основе 6800. Так что потребитель с любым достатком сможет насладиться шестой линейкой наших карт и SM 3.0.
Если вам понравилась 6800, вам понравится и SLI. Технология Voodoo SLI была впечатляющей. SLI у шестой линейки GeForce представляет собой полностью новый подход, обладающий лучшим качеством и эффективностью.

THG. Чипы nVidia 6800 и ATi X800 демонстрируют значимые продвижения по производительности. Если посмотреть в обозримое будущее, ждёт ли нас ещё одна подобная революция?
DV. Мы не планируем замедляться. Впереди нас ждёт много работы. Я помню времена, когда мы выпускали GeForce2. Это была настолько быстрая и функциональная карта, что трудно было представить что-то лучшее. Затем появилась GeForce3 - и процесс пошёл... Сегодня GeForce3 уже мало кого интересует. А через 2-3 года в небытие уйдёт и 6800!
THG. Где nVidia видит возможности для инноваций?
DV. Мы только начали затрагивать программируемость. На то, чтобы достичь кинематографического качества в реальном времени, уйдёт ещё несколько поколений. Да и мы всё больше вкладываемся в наш процессор видео - и вы это ощутите.
THG. Какие продукты в вашей линейке имеют лучшие шансы на успех?
DV. Мне очень нравятся наши планы развития мобильных решений. Мы планируем немало достижений по соотношению производительность/энергопотребление. Шестая линейка обладает десятикратным преимуществом по этому параметру в сравнении с предыдущим поколением! К тому же, не забывайте о процессоре видео, который уже заинтересовал производителей ноутбуков. Я жду очень многого от шестой линейки чипов для ноутбуков.
К тому же, мы только начали проникать в область карманных ПК. Развитие линейки GoForce просто впечатляет. Следите за новостями...


 
Akello На главную  Дата: Понедельник, 2007-06-04, 3:54 PM | Сообщение # 6

 

ElvesProtectors
Группа: Администраторы
Сообщений: 1659
Статус: Offline
nVidia вышла на рынок карманных ПК с GeForce.
THG. Рынок интегрированной графики теперь всё больше и больше завоёвывает Intel - сегодня доля этой компании, по данным Mercury Research, уже достигла 60 процентов. Как вы планируете зарабатывать деньги на этом рынке, ведь здесь очень низкая прибыль, и, в принципе, конкуренция привела даже к демпингу?
DV. На самом деле, чтобы получить реальное представление о рыночной доле, необходимо учесть и "двойное наличие". В зависимости от квартала, до 1/5 части продаваемой интегрированной графики просто не используется (то есть в системе присутствует нормальный GPU). Поэтому интегрированная графика, на самом деле, занимает, примерно, половину рынка. Как мы полагаем, этот процент не изменится в обозримом будущем.
И хотя этот процент сегодня намного выше, чем 4 или 5 лет тому назад, конкурентов на рынке интегрированной графики стало намного меньше. Сегодня рынок выглядит уже не так пёстро, как раньше. Вспомните: VIA, SiS, 3dfx, Matrox, Intel, Rendition, S3, Chromatic... все эти компании предлагали свои GPU.
THG. Что вы думаете о HDTV?
DV. HDTV для нас является значимой вехой. Да и для потребителей эта технология немаловажна. И, конечно, HDTV требует больше графической мощности - а мы это любим.

Флагманской моделью линейки NV4x является чип NV40, увидевший свет в апреле 2004 года. Он производится по хорошо отработанному, но стремительно устаревающему 130-нм техпроцессу на заводах IBM, его 222 миллиона транзисторов потребляют до 120 Ватт энергии, поэтому "силовых" возможностей штатного интерфейса AGP 8x уже катастрофически не хватает и на видеокартах, изготовленных на базе NV40, обычно устанавливают по два (!) дополнительных разъема питания. Да и система охлаждения всей этой "печки" должна быть не самой слабой. Наряду с NV40, выпускается и его PCI Express-модификация NV45, все отличие которой от базовой модели, заключается в интегрированном в корпус чипа AGP-PCI-E мосте HSI. В производственной линейке NVIDIA встречается еще и чип NV48, который отличается от базового NV40 только тем, что выпускается на фабриках TSMC. Таким образом, NVIDIA целиком и полностью отказалась от услуг IBM в области изготовления чипов, и вернулась к своему старому и, видимо, более приемлемому, чем IBM, технологическому партнеру.

256 битный четырехканальный (организация 64х4) интерфейс памяти NV40 обеспечивает подключение до 1 Гбайта памяти любого типа - как обычной DDR1/DDR2, так и специально разработанной для использования в видеоустройствах GDDR3. Что касается архитектурных особенностей NV40, то стоит отметить, что он стал первым графическим процессором, возможности которого полностью соответствуют требованиям DirectX 9.0с, иными словами, его вычислительные возможности позволяют выполнять шейдеры версии SM (Shader Model) 3.0. Высокую производительность обеспечивают 6 вершинных и 16 пиксельных конвейеров (каждый из которых, в свою очередь, оборудован двумя шейдерными блоками и одним блоком текстурирования). Одновременно могут работать либо два шейдерных блока, либо текстурный и один из шейдерных блоков. Таким образом, NV40 позволяет выполнить за такт до 16 текстурных операций или 32 операций с глубиной и буфером шаблонов, обеспечивая анизотропную фильтрацию с соотношением сторон до 16:1 включительно.

На базе ядра NV40/NV45/NV48 выпускаются видеокарты: GeForce 6800 Ultra, GeForce 6800 GT, GeForce 6800 и GeForce 6800 LE. Типовые значения частоты ядра/шины памяти GeForce 6800 Ultra составляют 400 МГц/1,1 ГГц, у модификации GeForce 6800 GT они снижены до 350 МГц/1 ГГц, у GeForce 6800 - до 325 МГц/700 МГц, а у GeForce 6800 LE частотные параметры не оговорены вообще - все отдано на усмотрение производителей видеокарт. При этом у последних двух еще и уменьшено до 12 количество пиксельных конвейеров. Причем, в отличие от общепринятой практики, когда "урезание" осуществляется путем программного отключения некоторого числа процессоров (что дает возможность народным "умельцам" путем нехитрой операции подключить неиспользуемые блоки, получив, таким образом, полнофункциональную GeForce 6800 за небольшие деньги), в данном случае компания NVIDIA выпустила специальное "усеченное" ядро NV41. В нем имеется всего лишь 12 "физических" пиксельных процессоров, тогда как все остальное полностью соответствует базовому NV45. Ядро NV42 является 110-нм версией NV41. Кстати, именно оно лежит в основе самой последней новинки NVIDIA - GeForce 6800 GS (частота чипа - 425 МГц, памяти - 1000 МГц), призванной составить конкуренцию ATI Radeon X1600 XT.

Для видеокарт среднего уровня, компания NVIDIA в августе 2004 года выпустила графическое ядро NV43, являющееся, впрочем, несколько упрощенным (путем уменьшения числа вершинных и пиксельных процессоров и каналов контроллера памяти) решением, основанным на архитектуре NV40. Однако NV43 выполнен по 0,11-мкм технологии TSMC (количество транзисторов в ядре составляет 146 млн.), и, кроме того, он стал первым графическим ядром NVIDIA с встроенным контроллером PCI Express (возможна трансляция интерфейса PCI-E в APG 8х с помощью двустороннего PCI-E-AGP моста HSI). Благодаря более "тонкому" технологическому процессу и меньшему количеству исполнительных устройств в ядре, тепловыделение NV43 не превышает 70 Вт, то есть на PCI-Express карте разъем для дополнительного питания не нужен.

Набор вычислительных ресурсов NV43 ровно вдвое меньше, чем у старшей модели NV40 - он оснащен восемью пиксельными конвейерами и тремя вершинными, а ширина шины памяти уменьшена с 256 до 128 бит.

В настоящее время представлено две Mainstream-модификации видеокарт, базирующихся на графическом процессоре NV43 - GeForce 6600 и GeForce 6600 GT, а также одна класса Low-End - GeForce 6200 (впрочем, с недавних пор она переименована в GeForce 6600 LE). Частоты ядра и шины памяти GeForce 6600 составляют 300 и 550 (иногда - 500) МГц, а у модификации GT - 500 и 1000 МГц соответственно. В GeForce 6200/6600 LE используется "усеченное" ядро NV43V с четырьмя (вместо пиксельными конвейерами, а его частотный диапазон соответствует GeForce 6600.


 
Akello На главную  Дата: Понедельник, 2007-06-04, 3:55 PM | Сообщение # 7

 

ElvesProtectors
Группа: Администраторы
Сообщений: 1659
Статус: Offline
Благодаря достаточно высокой тактовой частоты чипа, несмотря на всего лишь 8 пиксельных конвейеров рендеринга, NV43 обеспечивает филлрейт даже больший, нежели 12 конвейерный GeForce 6800. Однако реально достичь уровня производительности своего "старшего товарища" GeForce 6600 GT не дано - сказывается и использование 128-битной шины памяти и уменьшение до 3 числа вершинных процессоров, хотя все это и позволило заметно удешевить 6600-ю серию. Поэтому совсем неудивительно, что видеокарты на чипах GeForce 6600 GT и, особенно, GeForce 6600, сегодня демонстрируют наилучшее соотношение "цена/производительность".

В младшей модели семейства графических процессоров NVIDIA GeForce 6x00 - GeForce 6200ТС используется преимущественно ядро NV44, изготовленное по 0,11-мкм проектным нормам. Как и в случае NV43, PCI Express у него нативный (то есть реализованный на чипе), а AGP 8х вариант чипа обозначается как NV44А. NV44 имеет 3 вершинных процессора, как у NV43, и 4 пиксельных, какие-либо глобальные архитектурные отличия от NV40 и NV43 отсутствуют.

Главным ограничителем производительности у NV44, является подсистема памяти - ширина шины ограничена 64-битами. Индекс TC обозначает поддержку технологии TurboCache, призванная задействовать часть системной памяти при рендеринге буфера кадра, благо, пропускной способности шины PCI-E x16 для этого хватает. Конечно, такие видеокарты заметно проигрывают по уровню производительности своим полноценным собратьям, зато немного выигрывает у них по стоимости. А для бюджетных решений, каждый сэкономленный доллар может оказаться решающим в деле продвижения на рынок решений той или иной конкурирующих фирм. Тем не менее, для того, кто захочет немного сэкономить, приобретя такую видеокарту, такой выигрыш окажется иллюзорным. Ведь системная память, в особенности DDR2, от которой "оттяпывает" свою часть видеосистема, отнюдь не безразмерна и далеко не бесплатна.

Середина лета 2005 года стала новой вехой в истории компании NVIDIA - был выпущен графический процессор нового поколения G70. Но, несмотря новое кодовое название чипа, его архитектуру нельзя считать принципиально новой - он является очередным этапом эволюции хорошо знакомой всем нам архитектуры семейства NV4x (о чем свидетельствует первоначальное кодовое обозначение чипа - NV47).

Плюс к этому, NVIDIA не стала рисковать и выпустила его по хорошо отработанному 110-нм техпроцессу TSMC, поэтому нет ничего удивительного в том, что видеокарты семейства GF7800GTX стали доступны в массовых количествах сразу после анонса.

Основным новшеством G70, базирующемся на все том же наборе шейдеров Shader Model 3.0 (SM 3.0), стало увеличение до 24 (или, по терминологии NVIDIA, до 6 процессоров квадов) числа слегка улучшенных, по сравнению с NV4x, пиксельных процессоров, а вершинных - до 8, объем адресуемой памяти типа GDDR3 может достигать 1 Гбайт. Кроме того, была осуществлена оптимизация питания и энергопотребления, благодаря чему типовое потребление видеокарты GeForce 7800 GTX не превышает 110 Ватт, то есть осталось на уровне GeForce 6800 Ultra, несмотря на 30% увеличение числа транзисторов. В G70 появилась аппаратная поддержка ряда потенциальных "хитов" ближайшего будущего: воспроизведение видео в формате HDTV, а также поддержка важных специальных возможностей графической драйверной модели Windows Vista. Кроме High-End видеокарты GeForce 7800 GTX (430/1200 МГц), процессор G70 устанавливается и в его чуть более скромном собрате - GeForce 7800 GT, отличающимся от GTX не только пониженными (до 400/1000 МГц) частотами, но и урезанным числом конвейеров (20 пиксельных и 7 вершинных) рендеринга, что обеспечивает ему место (по показателям производительности) где-то посередине между GeForce 7800 GTX и GeForce 6800 Ultra.

Очередными новыми чипами NVIDIA должны стать G72 и G74 (официальные названия GeForce 7600 и GeForce 7200), которые следует ожидать в феврале-марте 2006 года. Они, скорее всего, будут урезанными версиями базового G70, и станут первыми графическими чипами NVIDIA, выпускаемыми по 0,09 мкм технологии. Они должны заменить NV43 и NV44 в Mainstream- и Low-End секторах соответственно. Таким образом, в ближайшие полгода NVIDIA собирается полностью заменить все чипы NV4x на новинки из линейки G7x. Кроме того, NVIDIA в начале 2006 года планирует представить чип G71, являющийся 0,09 мкм версией G70 с меньшей площадью кристалла и пониженным энергопотреблением.


 
Soundmurderer На главную  Дата: Среда, 2007-06-06, 2:44 PM | Сообщение # 8

 

ElvesProtectors
Группа: Житель
Сообщений: 69
Статус: Offline
Хмм, Молоток братец. Хочу просвещать ветку по железу и комп. событиям!

Что не ломает тебя, делает лишь сильнее....
 
  • Страница 1 из 1
  • 1
Поиск:

New CellСчетчик посещений Counter.CO.KZ - бесплатный счетчик на любой вкус!


RSS