Показать сообщение отдельно
Старый 09.11.2006, 12:14     # 1268
grogi
Moderator
 
Аватар для grogi
 
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485

grogi - Гад и сволочь
Официальный анонс G80: первые итоги
Lexagon / 09.11.2006 08:13 / ссылка на материал / версия для печати
Итак, вчера состоялось событие, которого многие любители компьютерных игр ждали с замиранием сердца: компания NVIDIA анонсировала первый графический ускоритель с поддержкой DirectX 10. Точнее говоря, были анонсированы две видеокарты на базе чипа G80: GeForce 8800 GTX и GeForce 8800 GTS. О них мы непрерывно говорили на протяжении последних двух месяцев, осталось лишь дополнить уже известные технические характеристики.

Начнём с GeForce 8800 GTX:
Частота чипа 575 МГц.
128 потоковых процессоров, работающих на частоте 1350 МГц.
32 текстурных блока.
24 блока растеризации.
Частота памяти 1800 МГц DDR.
768 Мб памяти типа GDDR-3.
384-битная шина памяти.
Пропускная способность памяти 86 Гбит/с.
Рекомендованная розничная цена $599.


Напомним, что печатная плата имеет длину порядка 270 мм, что накладывает ограничения на совместимость с некоторыми корпусами системных блоков. Этой видеокарте также необходимы два шестиштырьковых разъёма питания. Если блок питания не обладает достаточным количеством таких разъёмов, выручит прилагающийся в комплекте переходник с Molex. Непосредственно блок питания должен иметь мощность не менее 450 Вт и поддерживать силу тока не менее 20 А по линии +12 В. Для работы в режиме SLI желателен блок питания мощностью не менее 700 Вт. Впрочем, эксперименты показали, что можно обойтись и хорошим блоком питания меньшей мощности.

Характеристики GeForce 8800 GTS:
Частота чипа 500 МГц.
96 потоковых процессоров, работающих на частоте 1200 МГц.
24 текстурных блока.
20 блоков растеризации.
Частота памяти 1600 МГц DDR.
640 Мб памяти типа GDDR-3.
320-битная шина памяти.
Пропускная способность памяти 64 Гбит/с.
Рекомендованная розничная цена $449.


Эта видеокарта довольствуется одним разъёмом питания и помещается в большинство корпусов формата ATX. Для работы с ней достаточно иметь блок питания мощностью не менее 400 Вт. Если же захочется объединить в режиме SLI пару таких видеокарт, нужно обзавестись блоком питания мощность не менее 600 Вт.

Мы не будем углубляться в архитектуру чипа G80, для этого существуют "специально обученные люди", которые вчера поздним вечером завалили весь интернет соответствующими обзорами. Отметим лишь, что гибкость и масштабируемость архитектуры G80 позволит создавать достаточно сбалансированные с точки зрения производительности графические решения более доступного ценового класса. По предварительным данным, первые такие продукты появятся в феврале-марте 2007 года. Они тоже должны обеспечивать поддержку DirectX 10.

Архитектура CUDA (Compute Unified Device Architecture) позволит видеокартам на базе чипа G80 выполнять задачи общего назначения, и расчёт "физики" в играх является только частным случаем. Этот видеочип G80 демонстрирует тенденцию к сближению функций графических ядер и центральных процессоров, о которой в последнее время так много говорит AMD.

Видеокарта GeForce 8800 GTX способна демонстрировать кратное преимущество над конкурентами и предшественниками, но весь свой потенциал она раскрывает в тяжёлых графических режимах, подразумевающих высокие разрешения. Режим 1600 x 1200 для таких видеокарт является базовым уровнем, отрыв от конкурентов увеличивается в более высоких разрешениях. Опять же, для работы с такими разрешениями нужен большой монитор, о чём мы уже говорили. Что касается "процессорозависимости", то она, безусловно, присутствует, но не больше, чем в других видеокартах последних поколений. То есть, объединять GeForce 8800 GTX всё-таки следует с достаточно производительным центральным процессором, и представители семейства Core 2 Duo и Core 2 Extreme чувствуют себя в этой роли вполне комфортно. Подойдут и старшие двухъядерные процессоры AMD.

Разгону видеокарт на базе чипа G80 обозреватели пока уделили не так много внимания, но этот недочёт наверняка будет скоро исправлен. Пока имеет смысл изучить результаты наблюдений наших коллег с сайта iXBT.com. Так называемая "геометрическая дельта", осложнявшая разгон видеокарт на базе чипов G7x, теперь выродилась в разницу между частотой ядра и частотой шейдерных блоков, которая теперь превышает 100%. Например, GeForce 8800 GTX имеет частоту блоков растеризации 575 МГц, шейдерные блоки работают на частоте 1350 МГц. Разгон первых пропорционально поднимает частоту вторых. Коллеги предположили, что такая синхронность обеспечит лучший эффект от разгона.

Приведём небольшую статистику разгона:

Guru of 3D (GeForce 8800 GTX): 575/1800 МГц -> 610/2040 МГц;
iXBT.com (GeForce 8800 GTX): 575/1800 МГц -> 621/1890 МГц;
Legit Reviews (GeForce 8800 GTS): 500/1600 МГц -> 630/1960 МГц;
Hot Hardware (GeForce 8800 GTX): 575/1800 МГц -> 626/1900 МГц;
Hot Hardware (GeForce 8800 GTS): 500/1600 МГц -> 563/1684 МГц;
FiringSquad (GeForce 8800 GTX): 575/1800 МГц -> 622/1840 МГц;
FiringSquad (GeForce 8800 GTS): 500/1600 МГц -> 620/1814 МГц;
Hard OCP (GeForce 8800 GTX): 575/1800 МГц -> 650/2000 МГц;
Hard OCP (GeForce 8800 GTS): 500/1600 МГц -> 625/2000 МГц.


Можно не сомневаться, что с появлением полноценных специализированных утилит для разгона видеокарт на базе чипа G80 результаты будут улучшаться. Кстати, некоторые партнёры NVIDIA готовы представить версии GeForce 8800 GTX с альтернативными системами охлаждения, но это уже тема отдельной новости.

В феврале семейство GeForce 8xxx ждёт пополнение
Lexagon / 09.11.2006 09:55 / ссылка на материал / версия для печати
Мы уже знаем, что более доступные графические решения с поддержкой DirectX 10 от NVIDIA появятся весной 2007 года. Ожидается, что они будут основаны на чипах G86 и G84, и смогут уложиться в ценовой диапазон от $100 до $300. В перспективе ассортимент предложений с напоминающей G80 архитектурой будет существенно расширен, вплоть до интегрированных графических ядер.

Коллеги с сайта DailyTech опубликовали интригующую новость: согласно выдержкам из свежего роадмапа NVIDIA, в семействе G8x ожидается пополнение. Новый продукт выйдет примерно в феврале. Судя по заявлениям коллег, это будет либо более доступная видеокарта серии GeForce 8800, что вполне предсказуемо, либо двухчиповый "тандем" на базе пары ядер G80, призванный бороться с выходящим в первом квартале 2007 года видеочипом R600 от AMD.

Увы, никаких дополнительных данных об этом графическом решении не сообщается. И всё же, если NVIDIA решит урезать G80 до экономически разумных параметров, вскоре после Нового Года энтузиасты смогут получить графическое решение с поддержкой DirectX 10, обладающее хорошим соотношением цены и производительности.

Альтернативные кулеры для GeForce 8800 GTX: от водоблоков до Пельтье
Lexagon / 09.11.2006 08:56 / ссылка на материал / версия для печати
Одно из первых предложений для водяного охлаждения видеокарт GeForce 8800 GTX знатоков разгона не впечатлило. Солидно выглядящий водоблок, по мнению некоторых оверклокеров, не обладал эффективными конструктивными решениями. Было очевидно, что при всём однообразии эталонных видеокарт партнёры NVIDIA не удержатся от соблазна выпустить продукты с альтернативными системами охлаждения.

На просторах интернета появилась фотография видеокарты GeForce 8800 GTX производства BFG, оснащённой штатным водоблоком. О частотах, цене и сроках выхода этого продукта ничего не сообщается.
http://www.overclockers.ru/images/ne...1/09/wc_01.jpg
Кстати, обычные видеокарты GeForce 8800 GTX и GeForce 8800 GTS эталонного дизайна BFG собирается продавать по цене $699 и $499 соответственно. Является ли это декларацией "честных цен", либо на $100 тянет фирменная футболка, мы не знаем.

Коллеги с сайта VR-Zone опубликовали отличную галерею видеокарт GeForce 8800 GTX и GeForce 8800 GTS различных производителей, затесалась в это пёстрое эталонное однообразие и видеокарта в исполнении Sparkle серии Calibre:
http://www.overclockers.ru/images/ne...1/09/wc_02.jpg
Где вы могли это видеть? Напоминаю: видеокарту Radeon X1950 Pro с модулем Пельтье уже анонсировала компания GeCube. Поразительное сходство, не правда ли? Объясняется оно достаточно просто: систему охлаждения для обеих видеокарт разработала компания MACS Technology.

Модулем Пельтье Sparkle будет оснащать как GeForce 8800 GTX, так и GeForce 8800 GTS. О повышении номинальных частот ничего не говорится, а вот температуру ядра под нагрузкой обещают снизить с 80 до 60 градусов Цельсия. Соответственно, и без того невысокий уровень шума снизится с 42 до 29 дБ. Впрочем, Sparkle намекает, что видеокарты серии Calibre P880 можно и нужно разгонять, а придать уверенности потребителям поможет фирменная трёхлетняя гарантия.

Кстати, компания Galaxy планирует выпустить видеокарты серии Premium, оснащённые водоблоком производства Zalman. Это значит, что совместимый с GeForce 8800 GTX и GeForce 8800 GTS водоблок производства Zalman появится в продаже в качестве самостоятельного товара. Словом, необходимая для разгона видеокарт на базе чипа G80 инфраструктура уже созревает, осталось лишь воспользоваться ею.

(С)_www.overclockers.ru

NVIDIA GeForce 8800 GTX: новый 3D лидер с поддержкой DirectX 10 09.11.2006
Эпохальная 3D серия NVIDIA GeForce 8800: новый дизайн, поддержка DX10, новые рекорды производительности и в связке с nForce 680i - новая игровая платформа. Сегодня - подробно об архитектуре и первые результаты тестирования


GeForce 8800 GTX: сильная штука
"GeForce 8800 GTX это безумно быстрая видеокарта. Он обходит в тестах и SLI GeForce 7900 GTX, и Crossfire Radeon X1950 XTX. Об одиночных платах даже и речи не идёт. GeForce 8800 поддерживает Direct X 10, Shader Model 4.0, оснащён 768 мегабайтами видеопамяти и тихой системой охлаждения. Из нашего обзора вы узнаете все детали о GeForce 8800 GTX."

NVIDIA GeForce 8800 GTX (G80)
новый монстр в 3D-графике и первый DX10-ускоритель

"Итак, новый продукт NVIDIA внес реально революционность в уже несколько застоявщийся порядок в 3D несколькими моментами: новая шина обмена с памятью в 384 бита (промежуточный вариант между 256 и 512 бит); поэтому и новый объем локальной памяти - 768 мегабайт; поддержка универсальной шейдерной архитектуры (больше нет разделений на вершинные и пиксельные шейдерные блоки), что наиболее ярко покажет себя в DX10-приложениях, которых, понятно, еше нет (сама MS Windows Vista еще не вышла официально). Ну а остальные нюансы мы изучим по мере ознакомления с новинкой."
grogi вне форума