IMHO.WS

IMHO.WS (http://www.imho.ws/index.php)
-   HiTech - новости и новинки компьютерного мира (http://www.imho.ws/forumdisplay.php?f=58)
-   -   nVidia: от GeForce 7800 до GTX 580 (и далее) (http://www.imho.ws/showthread.php?t=56977)

ForestStream 12.08.2004 02:52

y3k
Ага, для нас созданы S3 :biggrin:

Кстати, почём нынче GeForce 6800 ? А то может прикуплю...

fear factor 12.08.2004 04:38

Leadtek WinFast A400 TDH (GeForce 6800) и Leadtek WinFast A400 GT (GeForce 6800GT)

Сравнительное тестирование GeForce 6800 и GeForce 6800GT с их единственным непосредственныи конкурентом - Radeon X800Pro. К нашему стандартному набору добавлены тесты в DOOM 3


_http://3dnews.ru/video/leadtek-a400/

fear factor 12.08.2004 06:48

Версия GeForce 6800 Ultra для Mac: длинномерная видеокарта

Недавно на знаменитом аукционе eBay был замечен любопытный лот – видеокарта GeForce 6800 Ultra в исполнении для компьютеров Apple PowerMac. Дело в том, что подобные продукты компания распространяет самостоятельно, и хотя на сайте Apple уже присутствует описание этого решения, поставки должны начаться только в конце августа.

Сообщается, что функция Dual Link DVI, встречающаяся также на профессиональных видеокартах серии Quadro FX 4400, позволит пользователям PowerMac G5 одновременно подключать два 30" дисплея Apple Cinema HD. Удовольствие не из дешевых, но приверженные бренду Apple профессионалы привыкли платить много за эксклюзивные возможности. К слову, сама видеокарта стоит $599 – практически столько же, сколько и PC-версия.

http://www.overclockers.ru/images/ne...1/apple_01.jpg

При взгляде на фотографию видеокарты удивляет наличие обширной задней части, напоминающей палубу авианосца. В действительности Mac-версия GeForce 6800 Ultra использует разъем AGP Pro, просто из-за отличий в схеме питания модификаций видеокарт пришлось сделать силовую разводку более сложной. Именно она размещается на этой "палубе".

http://www.overclockers.ru/images/ne...1/apple_02.jpg

Кстати, версия GeForce 6800 Ultra для Mac не использует вспомогательного разъема питания, и обходится штатными разъемами питания на материнской плате и видеокарте. Судя по всему, это также дополнительно усложняет силовую разводку графической платы.

Между прочим, отличий в характеристиках версий GeForce 6800 Ultra для Mac и для PC практически нет: частоты 400/1100 МГц, 256-битная шина, 256 Мб памяти типа GDDR-3, шестнадцать пиксельных конвейеров и фирменная система охлаждения. Именно габариты последней не позволяют использовать соседний с AGP слот PCI или PCI-X, и об этом потенциальные покупатели видеокарты тоже не должны забывать.

Компания ATI еще не анонсировала официально модификации Radeon X800 Pro и Radeon X800 XT PE для PowerMac, так что Nvidia в этом смысле удерживает лидерство. Если будущие владельцы PowerMac G5 будут помышлять об играх нового поколения, то наиболее производительным решением для них будет оставаться GeForce 6800 Ultra DDL.

Характерно, что размещенный на eBay лот был продан за $560, что несколько ниже официально рекомендованной цены. Что ж, с появлением подобных продуктов можно будет считать, что эра освоения DirectX 9.0c началась и для владельцев систем класса Apple PowerMac G5

grogi 12.08.2004 07:31

S@uron
6800 - от 270у.е. в американской рознице, до 400 в российской (рекомендованная цена 299)
fear factor
будь внимательнее, не забывай смотреть и на предидущие страницы(т.е. не дублируй посты).

fear factor 12.08.2004 08:11

grogi
ой сори, не заметил....
S@uron
ждем надеемся пока упадет до $ 200-250 потом посмотрим шо в таком ценовом диапазоне лучше будет nv40 или r420
тохя я со временим все больше в сторону r420 тяготею, хотя у самого щас в системнике nv31 трудится (fx5600-256Mb:) )

fear factor 12.08.2004 09:22

12 видеокарт в 33 игровых тестах или "Весна-лето 2004: выбор покупателя".

_http://www.fcenter.ru/articles.shtml?videos/9689

fear factor 13.08.2004 05:45

Семейство GeForce 6600 анонсировано официально
 
Хотя основные характеристики решений на базе 0.11 мкм чипа NV43 мы знали еще за два дня до официального анонса, вчера обозначенное событие состоялось, неизбежно внеся некоторые дополнения и коррективы в имеющуюся у нас информацию.

Итак, "для разминки" предлагаем вам фотографию видеокарты GeForce 6600 GT с интерфейсом PCI Express x16 и небольшой группой контактов для подключения второй видеокарты в режиме SLI на другой стороне печатной платы:



Заметим, что никаких разъемов питания на эталонной видеокарте GeForce 6600 GT не замечено - вся необходимая мощность поступает через слот PCI Express x16. Работающая на частоте 1000 МГц DDR память типа GDDR-3 со временем выборки 2.0 нс дополнительным охлаждением не оснащается. Это вполне предсказуемо, ведь на плате стоимостью порядка $200 мощные системы охлаждения с охватом памяти не предусмотрены.

Решения конкретных производителей видеокарт вполне могут иметь дополнительные средства охлаждения чипов памяти. Тем более, что все четыре чипа (для видеокарты с 128 Мб памяти) располагаются на лицевой стороне платы, и предусмотреть для них общий радиатор достаточно просто. Останется чуть поиграть таймингами и напряжением памяти, и рецепт оверклокерской версии GeForce 6600 GT практически готов. Память типа GDDR-3 должна неплохо разгоняться, так что подобные решения будут пользоваться определенным спросом.

Надо отметить, что частота памяти версии GeForce 6600 официально не декларируется Nvidia, и конечные производители смогут сами выбирать, какую память использовать. Эталонная видеокарта содержит восемь чипов DDR-I в упаковке TSOP производства Hynix со временем выборки 3.6 нс, что дает номинальную частоту не выше 550 МГц DDR.

Таким образом, в эталонном исполнении GeForce 6600 работает на частотах 300/550 МГц. Однако, производители видеокарт не ограничены в выборе чипов памяти для видеокарт этого класса. Они вполне могут использовать память в упаковке BGA со временем выборки от 3.3 до 2.8 нс. Все определяется лишь стоимостью видеокарты, и память в упаковке TSOP задает лишь нижнюю планку в $150.

Кстати, цена старшей версии GeForce 6600 GT будет в реальности выше психологической отметки $199. Многие источники сообщают, что видеокарты будут стоить не менее $229. Для решения с памятью GDDR-3 это вполне предсказуемо.

Между прочим, ширина шины памяти была урезана до 128 бит именно из соображений экономии - видеокарты с 256-битной шиной требуют более сложного дизайна печатной платы, а в сегменте middle-end "каждая копейка на счету".

Если говорить об уровне производительности старшей версии по имени GeForce 6600 GT, то помимо пресловутых 8000 "попугаев" 3DMark 2003, можно упомянуть и следующие показатели... Nvidia явно говорит о том, что GeForce 6600 GT - это лучший выбор для игры Doom III за такие деньги, а потому приводит разнообразные бенчмарки собственного производства. Например, в режиме 1024 х 768, High Quality, 4xAA/8xAF или в режиме 1600 х 1200, High Quality, без AA/AF видеокарта этого класса показывает результат на уровне 42-45 кадров в секунду. Характерно, что ранние цифры называют все 56 кадров в секунду, но тут многое зависит от состава тестовой конфигурации и амбиции PR-щиков Nvidia :).

Оценить, что такое 45-56 кадров в секунду для приведенных режимов, можно по результатам сравнительно тестирования видеокарт в игре Doom III, проведенного сотрудниками нашей лаборатории.

О сравнении GeForce 6600 GT с видеокартой ATI Radeon X600 XT, работающей на частотах 500/740 МГц и обладающей 4 пиксельными конвейерами, мы бы предпочли не говорить. Да, новинка Nvidia обходит это решение в 2.5-3 раза, но подобное сравнение нельзя назвать честным.

Бороться с NV43 предстоит чипу по имени RV410, который должен быть анонсирован в четвертом квартале этого года.

О прочих прелестях GeForce 6600 типа поддержки разного рода технологий или встроенного видеопроцессора, вы можете прочесть в соответствующих обзорах на сайтах Guru of 3D или NV News. Но обольщаться не стоит - полноценные обзоры с независимым тестированием появятся лишь ближе к сентябрю, а точнее - в начале месяца.

Непосредственно поставки видеокарт GeForce 6600 и GeForce 6600 GT с интерфейсом PCI Express x16 начнутся в конце сентября. Версии с интерфейсом AGP 8x тоже будут выпущены, но в продаже появятся не ранее октября или даже ноября. Напомним, что они будут использовать переходный мост HSI, вносящий некоторые неудобства в дизайн печатной платы и выделяющий много тепла.

В списке партнеров Nvidia по выпуску GeForce 6600 числятся следующие компании: Albatron; Anextek; AOpen; ASUS; BFG Technologies; Biostar; Chaintech; ELSA Japan; eVGA; Gainward; Gigabyte; InsideTNC; Leadtek; MSI; Palit Microsystems; XFX; PNY Technologies; Prolink; Sigmacomm; Sparkle. В этом списке как минимум половина производителей обычно радует оверклокеров специальными разогнанными версиями видеокарт, так что очень обещает быть очень веселой :).

grogi 13.08.2004 07:32

GeForce 6600 и GeForce 6600GT — официально
http://www.ixbt.com/news/hard/index.shtml?hard107595id

GeForce 6600 GT и GeForce 6600 официально анонсированы
http://www.nvworld.ru/news/12_08_200...#12_08_2004-02

Семейство GeForce 6600 анонсировано официально
http://www.overclockers.ru/news/news...&id=1092358800

grogi 14.08.2004 07:02

Продолжение исследования регулировки конвейеров у GeForce 6800
http://www.ixbt.com/news/hard/index.shtml?hard107623id

XFX: выпуск видеокарт на GF 6600/GF 6600GT запланирован на осень
13/08/2004 15:30, Антон Кононенко
XFX Graphics, подразделение PINE Group, специализирующееся на выпуске видеокарт, объявило о планах по выпуску осенью этого года линейки адаптеров на процессорах GeForce 6600 и GeForce 6600GT, которые nVidia вчера официально проанонсировала. Информации о ценах на будущие новинки XFX Graphics нет, подробностей о самих картах - тоже пока нет. Впрочем, основное мы уже знаем, теперь остается наблюдать лишь за тем, что придумают производители с точки зрения дизайна, системы охлаждения и т.п.
http://www.3dnews.ru/documents/news5/20040813_xfx_4.jpg
Как известно, GF 6600 и GF 6600GT - это рыночные названия модификаций свежепредставленного GPU от nVidia - NV43, которые различаются по следующим основным параметрам:
- частота ядра (6600 - 300МГц; 6600GT - 500МГц),
- поддержка разных типов памяти: у 6600GT — GDDR3 с результирующей частотой в 1ГГц (упаковка mBGA), а у 6600 - поддержка нескольких видов памяти, начиная с DDR (TSOP)
- наличие у 6600GT поддержки интерфейса SLI, с помощью которого можно аппаратно объединить мощности двух видеокарт
Что же касается общих характеристик, то это 0.11-мкм техпроцесс; 146 млн. транзисторов на кристалле; 128-битная шина памяти; поддержка PCI Express x16 и AGP (опосредованно, через мост), 8 пиксельных конвейеров, RAMDAC 400МГц, поддержка DirectX 9.0c, Shader Model 3.0 и пр.
рубрики: видеокарты, графические процессоры |

(C)_www.3dnews.ru

fear factor 15.08.2004 03:37

VIA готовит к анонсу чипсеты с поддержкой SLI

Недавний анонс видеокарт GeForce 6600 GT с поддержкой режима SLI сразу "поставил ребром" вопрос о возможности установки подобных сочетаний в современные материнские платы. Если учесть, что продажи GeForce 6600 GT могут начаться уже в октябре, то на рынке не будет иных альтернатив для построения системы с использованием SLI, кроме как решений на базе чипсета E7525 (Tumwater). Если учесть, что стоимость подобной платы составит не одну сотню долларов, то целесообразность установки в нее пары видеокарт ценой по $230 выглядит сомнительной. Чего уж там, гулять - так гулять, сразу две GeForce 6800 Ultra! :)

Другими словами, рынок решений для энтузиастов и крутых геймеров страдает от недостатка чипсетов с поддержкой двух слотов PCI Express x16. Чипсеты nForce 4 и nForce 5 появятся только в четвертом квартале, и не факт, что именно в октябре.

Как сообщили вчера многие информационные ресурсы, выход из положения готова предоставить компания VIA. Учитывая перспективы появления в четвертом квартале таких решений, как процессоры Intel с 1066 МГц шиной и видеокарты Nvidia с поддержкой SLI, компания решила модернизировать семейство чипсетов.

Прежде всего, для платформы Intel будут выпущены два чипсета: VIA PT894 и VIA PT894 Pro. Первый из них будет являться аналогом VIA PT890, поддерживающим процессоры Intel с 1066 МГц шиной, 1 слот PCI Express x16, 1 слот PCI Express x4 и два слота PCI Express x1 (судя по всему, последняя возможность реализуется средствами южного моста VT8251). Характерно, что контроллер памяти PT894 по своим возможностям тоже обставит конкурентов - он будет поддерживать двухканальную память типа DDR 400 и DDR2-667. Впрочем, многие материнские платы на базе чипсетов Intel i9xx тоже могут поддерживать DDR2-667 посредством разгона, так что подобное преимущество можно считать спорным.

Версия чипсета VIA PT894 Pro будет обладать главным преимуществом - поддержкой двух слотов PCI Express x16 в "северной части". Точнее говоря, VIA деликатно умалчивает о том, в каком режиме будут работать эти разъемы. Если обратиться к реализации SLI в чипсете Intel E7525, то можно обнаружить некоторую диспропорцию - используется один канал PCI Express x16 и один канал PCI Express x4. Последний разъем имеет право называться PCI Express for Graphics только с конструктивной точки зрения.

Предположим, что VIA PT894 Pro тоже мало чем отличается от PT894, и свои два графических слота получает из равного количества подканалов PCI Express, то есть двадцати (PCI Express x16 + PCI Express x4). Скорее всего, эти ресурсы просто перераспределяются другим образом: PCI Express x10 + PCI Express x10, либо PCI Express x8 + PCI Express x8.

Нельзя исключать, что о возможности выпуска материнских плат с двумя разъемами PCI Express x16 компания Gigabyte говорила, имея в виду чипсеты VIA. Однако, упоминание о поддержке двух полноценных каналов PCI Express x16 в этом контексте несколько смущают.

Платформа AMD64 тоже не остается без внимания. Более того, чипсет VIA K8T890 Pro начнет поставляться уже в конце сентября, предоставляя владельцам процессоров в исполнении Socket 939, Socket 940 или Socket 754 возможность использования режима SLI скорее, чем это могут сделать владельцы процессоров Intel. Более простой вариант чипсета под названием VIA K8T890 будет лишен поддержки двух слотов PCI Express x16, зато обеспечит классическую формулу "PCI Express x16 + PCI Express x4".

В четвертом квартале этого года VIA разродится интегрированным чипсетом VIA K8M890, поддерживающим 1 слот PCI Express x16 и два слота PCI Express x1. Интегрированное графическое ядро Delta Chrome IGP будет поддерживать DirectX 9.0 и двухмониторные конфигурации, а также телевыход и цифровой интерфейс DVI.

Скорость появления новых северных мостов для платформы AMD64 не должна внушать поклонникам VIA ложных иллюзий. Дело в том, что южный мост VT8251, который должен был выйти еще в июле, в очередной раз получил обновление функций, а его поставки начнутся в четвертом квартале. Желая "догнать и перегнать" Intel, компания VIA добавила поддержку 8-канального звука Azalia и технологии NCQ в список возможностей VT8251. По сути, появляющиеся к концу сентября материнские платы на базе VIA K8T890 Pro могут быть основаны только на устаревающем VIA VT8237 :(.

Интересно, что при этом VIA не отказывается от планов выпуска чипсета VIA PT890, обеспечивающего одновременную поддержку PCI Express x16 и AGP 8x. Компания стремится удовлетворить запросы максимально широкого круга пользователей, и предложить продукты, наделенные уникальными качествами. Будем надеяться, что этой ей удастся, и доступные по цене материнские платы с поддержкой SLI появятся в продаже уже к концу года.

fear factor 16.08.2004 09:17

Видеокарты семейства GeForce PCX тоже могут работать в режиме SLI?

Данная новость могла бы стать скупым дополнением к материалу об анонсе профессиональных видеокарт серии Quadro FX 4400, позволяющих объединять две платы с интерфейсом PCI Express x16 в конфигурации SLI. Тем не менее, детальное знакомство с техническими аспектами появившихся на японском рынке графических адаптеров Quadro FX 3400 заставило нас иначе взглянуть на проблему.

Прежде всего, поговорим о самой видеокарте Quadro FX 3400 производства японского отделения ELSA.



Несмотря на наличие интерфейса PCI Express x16, эта графическая плата на самом деле является обновленной версией Quadro FX 3000, поддерживающей прогрессивный графический интерфейс. По крайней мере, технические характеристики этих решений очень близки: частоты 450/850 МГц, 256 Мб памяти GDDR-3, 256-битная шина. Использование скоростного интерфейса позволило "разогнать" чип NV38 с 400 до 450 МГц, а в остальном Quadro FX 3400 мало чем отличается от Quadro FX 3000. Очевидно, здесь тоже используется переходный мост HSI.

Цена видеокарты тоже "недетская" – почти $1785 на японском рынке.

На этом наши изыскания могли бы завершиться, если бы не одна маленькая любопытная деталь – видеокарта Quadro FX 3400 может работать в режиме SLI, подобно своим недавно анонсированным собратьям с врожденной поддержкой PCI Express x16. Точнее говоря, врожденной поддержкой этого интерфейса пока обладают только решения семейства NV43, а NV45 использует интегрированный в упаковку чипа переходный мост HSI.



Другими словами, можно с уверенностью утверждать, что игровые видеокарты серии GeForce PCX, оснащенные видеочипами прежнего поколения и переходным мостом HSI, при некоторых условиях тоже могут работать в режиме SLI.

Тем не менее, излишнего оптимизма по этому поводу питать не стоит. Пока официальную поддержку SLI компания Nvidia заявила только для видеокарт семейства GeForce 6600 GT. Дело в том, что технически поддержку SLI может реализовать специальный разъем с внешней стороны видеоплаты, и недорогие решения класса GeForce PCX вряд ли им обзаведутся. И все же, теоретически такая возможность существует, и она может "греть душу" избранным романтикам :).

grogi 16.08.2004 20:54

Первые партии GeForce 6600 появятся в Азии уже в конце августа
Lexagon | 18:57 | ссылка на материал
Хотя официальный анонс видеокарт семейства GeForce 6600 состоялся 12 августа, соответствующие презентации и пресс-конференции Nvidia начала проводить только на этой неделе. Например, в Азиатском регионе данные мероприятия пройдут в следующей последовательности: Китай -> Южная Корея -> Тайвань -> Япония.

Естественно, что наши китайские коллеги просто не могли пропустить презентацию решений класса GeForce 6600, прошедшую сегодня в Пекине. Собственно говоря, ничего нового они не узнали, просто просмотрели набор стандартных слайдов и послушали выступления представителей Nvidia, державших в руках реальные образцы GeForce 6600 GT.

Кстати, часть эталонных плат все же просочилась в руки китайских обозревателей с сайта PC Online. Не знаю, смогут ли они порадовать нас независимыми тестами, ибо Nvidia наложила эмбарго на подобного рода информацию до 1 сентября. Судя по тому, что все идентификационные данные на эталонной видеокарте "замазаны" через графический редактор, некоторые результаты бенчмарков мы все же увидим :).
http://www.overclockers.ru/images/ne...16/nv43_01.jpg
Обратите внимание на фотографию кулера видеокарты GeForce 6600 GT - воздух выходит из радиатора и обдувает чипы памяти. Поскольку на плате установлены чипы памяти GDDR-3 со временем выборки 2.0 нс, номинальная частота которых составляет 1000 МГц DDR, подобные меры отнюдь не являются лишними. Другое дело, что производители видеокарт могут использовать кулеры собственной конструкции, не всегда предусматривающие добротное охлаждение чипов памяти.
http://www.overclockers.ru/images/ne...16/nv43_02.jpg
На этой фотографии вы можете видеть тот самый разъем для соединения двух видеокарт в режиме SLI, наличие которого определяет аппаратную возможность его использования.

Между прочим, некоторые производители уже начали анонсировать свои решения на базе чипа NV43. Например, компания Prolink, владеющая брендом PixelView, готовит к выпуску целых пять модификаций видеокарт!
http://www.overclockers.ru/images/ne...16/nv43_03.jpg
Судя по всему, модели будут отличаться частотами и комплектацией, а также объемом установленной памяти. Например, модификация с 256 Мб памяти будет представлена в данном ассортименте. Скорее всего, чипы памяти придется расположить с обеих сторон печатной платы, что несколько ухудшит условия охлаждения и усложнит дизайн. Тем не менее, для требовательных современных игр типа того же Doom III объем памяти в 256 Мб уже не кажется избыточным.

Интереснее всего было узнать, что поставки видеокарт класса GeForce 6600 на азиатский рынок начнутся уже в конце августа, но в очень ограниченных количествах. Массовые поставки будут развернуты в сентябре, а модификации с интерфейсом AGP 8x действительно увидят свет только в октябре. Как и предполагалось, они будут использовать переходный мост HSI.

(C)_www.overclockers.ru

fear factor 17.08.2004 03:27

Энергопотребление современных видеокарт. Часть 2: NVIDIA против ATI

Энергопотребление и тепловыделение современных графических плат – вопрос, который интересует почти каждого, кто собирается покупать новую видеокарту или производить более широкую модернизацию своей системы. В первой части статьи я поднял вопрос энергопотребления видеокарт, постаравшись максимально корректно измерить эту характеристику у плат, основанных на графических процессорах от ATI. Сегодня, во второй части, будут испытаны графические платы, основанные на чипах от NVIDIA.

Подробней_http://www.overclockers.ru/news/newsitem.shtml?category=2&id=1092690267

grogi 17.08.2004 22:24

ATI vs. NVIDIA: все только начинается…
— Archont @ 13:20
Несмотря на недавнее заявление ATI о поставках одного миллиона графических процессоров с (интегрированной) поддержкой PCI-Express с момента их анонса в июне, радоваться компании пока рановато: за рынок PCI-E решений в четвертом квартале текущего года ожидается настоящая битва.

К тому же, реселлеры сообщают, что продажи графических чипов идут пока не слишком активно, что отчасти происходит из-за предпочтения, отданного OEM-производителям и системным интеграторам.

Тем временем NVIDIA, выпустившая недавно на рынок GeForce 6600 (NV43), сможет предоставить реселлерам достаточное количество графических чипов, обладающих встроенной в чип поддержкой PCI-E.

Кроме того, в четвертом квартале NVIDIA представить еще один графический чип, NV44, в который, как подчеркивается, также будет интегрирована поддержка PCI-E. Напомним, что в первых версиях графических процессоров NVIDIA использовался мост HSI (High-Speed Interconnect) для связи интерфейсов AGP и PCI-E, что вызывало нарекания и вопросы, касающиеся эффективности работы с новой шиной. Что также немаловажно, NV44 будут ориентированы на сегмент карт начального уровня – ценой в районе 100 долларов.

Источник: The DigiTimes

(C)_www.ixbt.com

NForce 4 обещает быть лучшим решением для SLI
Lexagon | 08:35 | ссылка на материал
Анонс графических решений Nvidia с поддержкой режима SLI всколыхнул интерес общественности к чипсетам, поддерживающим два разъема PCI Express x16. Быстрее всех на подобные запросы среагировали производители серверных материнских плат на базе чипсета E7525 (Tumwater), представившие соответствующие продукты стоимостью под $800. Кроме того, в реализации Intel пропускная способность графического интерфейса задавалась формулой "PCI Express x16 + PCI Express x4", и самые привередливые потребители могли пожелать "нечто побыстрее".

Компания VIA чутко отреагировала на спрос, и уже в конце сентября надеется начать поставки чипсета VIA K8T894 Pro, чья "скоростная формула" в режиме SLI не разглашается. Впрочем, представители VIA уверяют, что их решение будет обладать большей пропускной способностью, чем пресловутый Intel E7525. Как минимум, нас ожидает комбинация "PCI Express x16 + PCI Express x8".

Третьим поставщиком чипсета для SLI обещает стать сама Nvidia, к осени компания готовит чипсет nForce 4. Из косвенных сведений известно, что чипсет будет поддерживать формулу "PCI Express x16 + PCI Express x8". Тем не менее, представители Nvidia уже сейчас не упускают возможности намекнуть, что nForce 4 будет одним из самых производительных решений для SLI. По крайней мере, в этом они признались сотрудникам сайта Tech-Report.

Является ли высокий уровень производительности nForce 4 сугубо заслугой пропускной способности шины PCI Express? Отнюдь. Скорее всего, дело в оптимизации чипсета под работу с графическими платами на чипах Nvidia. Не секрет, что компания занималась подобной "доводкой" в случае с чипсетами nForce 3, и сейчас нет поводов утверждать, что чипсеты nForce 4 не будут оптимизироваться под SLI. Кроме того, чипсет nForce 4 является высоко интегрированным решением, и приличная производительность достигается за счет размещения функциональных блоков на одном чипе.

Кстати, все эти гадания на тему "PCI Express x16 + ?" вообще не имеют существенной практической ценности. Дело в том, что современные видеокарты и графические приложения еще не могут востребовать все 100% пропускной способности шины PCI Express x16. Поэтому даже при четырехкратном запасе пропускной способности по сравнению с AGP 8x, на практике решения с интерфейсом PCI Express x16 демонстрируют сопоставимый уровень производительности.

Более того, в режиме SLI комбинация "PCI Express x16 + PCI Express x4" чипсета Tumwater обеспечивает прирост производительности до 77-90% по сравнению с решением на одной графической плате. Другими словами, дальнейшие пути оптимизации производительности режима SLI лежат не в сфере наращивания пропускной способности графического интерфейса.

Интересно, что представители Nvidia достаточно четко дают понять, что сочетание из двух видеокарт GeForce 6600 GT в режиме SLI будет обеспечивать сопоставимый уровень производительности с одной видеокартой GeForce 6800 GT. Поскольку номинально GeForce 6600 GT является половиной GeForce 6800 GT, мы можем говорить о близком к 100% увеличении производительности при переходе на SLI. Надеемся, что Nvidia удастся достичь заявленных показателей.

NV44 выйдет в четвертом квартале, а RV410 – кварталом позже?
Lexagon | 11:52 | ссылка на материал
Пока страсти вокруг анонса GeForce 6600 продолжают накаляться, тайваньские производители графических плат устами сайта DigiTimes рассказывают о перспективных планах ATI и Nvidia на четвертый квартал этого года.

Прежде всего, они сообщают о наличии некоторых трудностей в стане ATI, связанных с продвижением поддерживающих PCI Express x16 решений. Хотя канадская компания на днях заявила о поставке миллионного графического чипа с врожденной поддержкой PCI Express x16, и для срока в два с половиной месяца это значимое число, основная часть этих запасов оседает на складах OEM-производителей. Судя по всему, эти алчные производители в этом сезоне не дадут "простым смертным" полакомиться ни видеокартами Radeon X800 XT PE, ни видеокартами с врожденной поддержкой PCI Express x16 :).

Откровенно говоря, не все так безутешно в плане поставок решений ATI с поддержкой PCI Express x16 на розничный сегмент. Видеокарты класса Radeon X600 XT или Radeon X300 периодически появляются в японской рознице, да и некоторые производители материнских плат прилагают к своим материнским платам на базе чипсетов i915P соответствующие видеокарты. Другое дело, что о массовых поставках говорить в любом случае не приходится.

Видеокарты семейства GeForce PCX уверенной конкуренции Radeon X600 XT составить не могли по причине усложнения дизайна и повышения себестоимости при использовании переходного моста HSI. Производители видеокарт считают, что анонс семейства GeForce 6600 позволит Nvidia успешно конкурировать с ATI в сегменте middle-end, если рассматривать рынок видеокарт с врожденной поддержкой PCI Express x16.

Впрочем, здесь еще рано ставить точку. По непроверенной пока информации, RV410 будет анонсирован в конце августа, и его характеристики вплотную приблизятся к GeForce 6600 GT. Если ATI удастся быстро развернуть массовое производство этих видеочипов, то в октябре решения на базе NV43 и RV410 будут присутствовать в рознице в равной мере.

Между тем, Nvidia возлагает особые надежды и на более дешевый чип под кодовым названием NV44. Сегодня стало известно, что NV44 выйдет в четвертом квартале. Этот 0.11 мкм чип будет производиться на мощностях TSMC. О характеристиках ничего не сообщается, но по логике вещей, чип должен содержать 4 пиксельных конвейера и работать на более низких частотах, чем GeForce 6600. Само собой, поддержка PCI Express x16 и Pixel Shader 3.0 за этим решением закрепляются вне всяких сомнений.

Стоимость видеокарт на базе NV44 составить от $79 до $99, как сообщают тайваньские источники. Заметим, что ATI пока не заготовила адекватный ответ на выход NV44. По крайней мере, если поддержку Pixel Shader 3.0 канадская компания планирует ввести не ранее первой половины 2005 года для флагманского чипа R520, младшим решениям еще долго не придется рассчитывать на такие обновления.

Если вспомнить некоторые из существующих слухов, то осенью ATI может просто перевести чипы RV350 и RV380 на 0.11 мкм техпроцесс, не изменяя особо их характеристики. Новые решения могут получить обозначения RV351 и RV381 соответственно, причем для второго будет характерна врожденная поддержка PCI Express x16.

Перспективы скорейшего выхода RV410 вообще омрачаются новой порцией слухов. Нам стало известно, что решение под таким кодовым названием должно выйти только в январе и получить имя Radeon X700. Судя по ориентировочным данным об уровне производительности (наравне с Radeon 9800 Pro), этот чип будет иметь 8 пиксельных конвейеров.

Вполне возможно, что ATI пересмотрела систему обозначений запланированных к анонсу на ближайшие полгода графических решений, и в обозримом будущем ситуация прояснится. Говорить о наличии производственных трудностей пока преждевременно.

(C)_www.overclockers.ru

grogi 18.08.2004 21:20

GeForce 6800 LE и Doom III: новые бенчмарки
Lexagon | 12:22 | ссылка на материал
Первые результаты бенчмарков видеокарты GeForce 6800 LE дали понять, что на рынке в скором времени может появиться решение, предоставляющее 50% производительности GeForce 6800 Ultra за 50% стоимости флагмана семейства NV4x. Интересно, что вышедшая чуть позже видеокарта GeForce 6600 GT предлагала примерно тот же набор преимуществ за исключением 256-битной шины, но обладала более быстрой памятью типа GDDR-3 и лучше разгоняемым 0.11 мкм видеочипом.

В условиях, когда на рынке должны появиться два похожих решения, очень сложно решить, что же лучше подходит конкретному пользователю. Мы попробовали систематизировать имеющиеся данные:
GeForce 6800 LE -> 0.13 мкм, 8 пиксельных конвейеров, 325/700 МГц, 256-битная шина, 128 Мб DDR-I;
GeForce 6600 GT -> 0.11 мкм, 8 пиксельных конвейеров, 500/1000 МГц, 128-битная шина, 128/256 Мб GDDR-3.
Интрига заключается в том, что по номинальным характеристикам достаточно сложно судить, какое из решений обладает преимуществом в производительности видеочипа или пропускной способности памяти. Чтобы устранить сомнения, мы воспользовались известной методикой для вычисления этих показателей:
GeForce 6800 LE -> 2.6 млрд. текселей в секунду, пропускная способность памяти 22.4 Гб/с;
GeForce 6600 GT -> 4.0 млрд. текселей в секунду, пропускная способность памяти 16.0 Гб/с.
Другими словами, мы замечаем, что высокая частота чипа (500 МГц против 325 МГц) GeForce 6600 GT помогает получить преимущество по скорости заполнения сцены. С другой стороны, 256-битная шина GeForce 6800 LE обеспечивает более высокую пропускную способность памяти даже при более низкой частоте (700 МГц DDR против 1000 МГц DDR).

Рискнем предположить, что такой перекос позволит GeForce 6800 LE чувствовать себя более уверенно в режимах с высоким разрешением, а также включенными полноэкранным сглаживанием и анизотропной фильтрацией. С другой стороны, это преимущество наверняка будет перекрываться разгоном GeForce 6600 GT, ведь 0.11 мкм ядро и память GDDR-3 имеют больший запас разгона, чем 0.13 мкм ядро NV40 и память типа DDR-I со временем выборки 2.8 нс.

Пока же на публикацию результатов тестирования GeForce 6600 GT наложено эмбарго, в форуме сайта Hard OCP один счастливый обладатель видеокарты GeForce 6800 LE производства XFX решил поделиться результатами бенчмарков.
http://www.overclockers.ru/images/ne.../6800le_01.jpg
Как видите, дизайн платы мало чем отличается от GeForce 6800, лишь охлаждением памяти "никто всерьез не занимается". С другой стороны печатной платы чипов памяти нет (для конфигурации с 128 Мб), а имеющиеся на лицевой стороне чипы обдуваются воздухом из кулера. Честно говоря, дизайн системы охлаждения GeForce 6600 GT отличается немногим, просто там память расположена более компактно.
http://www.overclockers.ru/images/ne.../6800le_02.jpg
Время выборки памяти составляет 2.8 нс. Подобные чипы DDR-I производства Hynix нередко разгоняются за передел 800 МГц DDR, так что ставить крест на их оверклокерском потенциале раньше времени не стоит.

Пока же разгон не проводился, и все тесты проходили на номинальных частотах 325/700 МГц в системе на базе Opteron 150 (2.4 ГГц) с 1 Гб регистровой памяти DDR 400. В принципе, этот процессор эквивалентен Athlon 64 FX-53, что и позволило автору тестов сопоставить производительность GeForce 6800 LE в Doom III с результатами видеокарт GeForce FX 5950 Ultra и Radeon 9800 XT, полученными сотрудниками этого сайта ранее.

Для начала приведем результаты "попугайных" бенчмарков:
3DMark 2001 SE -> 18 514 "попугаев";
3DMark 2003 -> 6867 "попугаев".
Как видите, до характерных для GeForce 6600 GT ориентировочных 8000 "попугаев" 3DMark 2003 конкурент по имени GeForce 6800 LE слегка не дотягивает.
В бенчмарке Doom III (timedemo demo1) при установках High Quality были получены следующие результаты:
640 x 480 -> 85.6 fps;
800 x 600 -> 77.3 fps;
1024 x 768 -> 61.3 fps;
1280 x 1024 -> 44.5 fps;
1600 x 1200 -> 32.1 fps.
При включении режима 2xAA/8xAF были получены такие результаты:
640 x 480 -> 75.8 fps;
800 x 600 -> 62.0 fps;
1024 x 768 -> 45.9 fps;
1280 x 1024 -> 32.7 fps;
1600 x 1200 -> 24.6 fps.
Далее приводится сравнение с результатами GeForce 5950 Ultra и Radeon 9800 XT в различных режимах:
1024 х 768, 0xAA/8xAF:
GeForce 5950 Ultra -> 43.4 fps;
Radeon 9800 XT -> 45.7 fps;
GeForce 6800 LE -> 53.3 fps.
1024 х 768, 4xAA/8xAF:
GeForce 5950 Ultra -> 32.1 fps;
Radeon 9800 XT -> 26.9 fps;
GeForce 6800 LE -> 39.2 fps.
1024 х 768, 0xAA/0xAF, Medium Quality:
GeForce 5950 Ultra -> 50.6 fps;
Radeon 9800 XT -> 50.8 fps;
GeForce 6800 LE -> 73.9 fps.
Можно заметить, что GeForce 6800 LE уверенно превосходит по уровню быстродействия более дорогие решения предыдущего поколения. Кроме того, лежащий в ее основе чип NV40 поддерживает Pixel Shader 3.0, и это придает современным играм дополнительную зрелищность.

Будем надеяться, что GeForce 6600 GT сможет обеспечить не менее впечатляющий уровень производительности, а также порадует оверклокеров своим разгонным потенциалом и низким уровнем тепловыделения :).

(C)_www.overclockers.ru

grogi 19.08.2004 07:03

Первые тестирования новинок: 6800LE и 6600GT

http://www.tbreak.com/reviews/article.php?id=325
на английском

http://gzeasy.com/itnewsdetail.asp?nID=15842
на китайском:)(но есть картинки)

http://hardforum.com/printthread.php?t=791852&pp=40
на аглийском

(С) Andrew Worobyew (iXBT Video Hardware Editor)

grogi 20.08.2004 06:56

Внимание! Под видом GeForce 6800 (OEM-поставка) продаются 6800LE
— Andrey Vorobiev @ 16:35
Поступил первый тревожный сигнал о том, что под видом полноценного 12-конвейерного GeForce 6800 в продажу пошли GeForce 6800LE, имеющие только 8 конвейеров! При этом, поскольку карты предназначены для сборщиков, на них нет никаких опознавательных знаков о том, что это урезанные версии. К сожалению, уже традицией нашей торговли стало то, что урезанные версии карт, изготовленные, как правило, по заказам ОЕМ-потребителей, попадают в розничную торговую сеть. И покупатели могут быть обманутыми, даже невольно.

Поэтому просим обращать пристальное внимание на ОЕМ-поставки GeForce 6800: среди таковых львиная доля случаев может быть с урезанными конвейерами. И проверка тестами, и исследование утилитой RivaTuner показала, что идут отбраковки, у которых половина конвейеров NV40 (16 конвейеров) битая, и потому заблокирована на уровне чипа, и ее не включить никоим образом.

Первой жертвой таких дел стала компания Leadtek, чьи карты 6800LE продаются в ОЕМ-виде. При этом фирменная охлаждающая система заменена на референс (см. фото).
http://www.ixbt.com/short/2k4-08/6800le.jpg
Кстати, даже по такому признаку можно отличить полноценную GeForce 6800 от Leadtek от 6800LE (на снимке ниже полноценная 6800).
http://www.ixbt.com/short/2k4-08/6800.jpg
Разумеется, то ли по недоразумению, то ли с умыслом, цена на такой GeForce 6800LE равна цене за полноценную 6800.

Еще раз просим быть внимательными при покупках, ведь GeForce 6800 входят в разряд дефицитного товара.

Albatron представила PC 6600 и 6600GT на NVIDIA GeForce 6 серии
— Axbat @ 16:09
Компания Albatron представила свои варианты видеокарт на базе графических процессоров NVIDIA GeForce 6600/6600GT, PC 6600 и 6600GT. Как отмечается в пресс-релизе, решения начнут появляться в продаже с сентября, цена модели на 6600 GT будет составлять по предварительным оценкам от 200 долларов.
http://www.ixbt.com/short/2k4-08/6600gt.jpg
Тактовая частота процессора PC 6600 составляет 300 МГц, памяти – 500 МГц (тип памяти – DDR SDRAM), в то время как тактовые частоты ядра/памяти PC 6600GT – 500 МГц/1 ГГц (шина памяти – 128 бит, тип – GDDR3 SDRAM, корпусировка — BGA). Обе модели оснащены 128 Мб ОЗУ, причем, PC 6600GT, как отмечено в пресс-релизе, «имеет высокий потенциал для разгона». Карты имеют по 2 400 МГц RAMDAC, обеспечивают работу с двумя мониторами (nView); разъемы – одинаковые для обеих моделей и стандартны: D-SUB, DVI, TV-out.

PC 6600 и PC 6600GT, как и предписано в референс-спецификациях, поддерживают DirectX 9.0, Shader Model 3.0, а также технологии CineFX 3.0, Intellisample 3.0, Ultra Shadow II. Старшая модель, с индексом GT, оснащена интерфейсом SLI. В комплекте поставки предлагается комплект «WinDVD 4-in-1 Pack» — Home Theater, WinDVD, WinDVD Creator, DVD Copy, и комплект CD-ROM с 5 демонстрационными версиями игр.

(C)_www.ixbt.com

GeForce 6800 LE: первые официальные анонсы
Lexagon | 17:19 | ссылка на материал
Только сегодня мы обращались к теме сравнения уровня производительности GeForce 6800 LE и GeForce 6600 GT. Между тем, новая информация о существующем на неофициальном уровне решении по имени GeForce 6800 LE заставляет задуматься над тем, что в противоборстве этих двух решений еще рано ставить точку.

На страницах китайского сайта GZeasy появилось сообщение об анонсе местным производителем Colorful видеокарты GeForce 6800 LE, и это обстоятельство вынудило нас пересмотреть характеристики подобных решений.

Прежде всего, официальные частоты GeForce 6800 LE должны равняться 300/700 МГц, а не 325/700 МГц, как предполагалось ранее. В этой связи мы внесли исправления в опубликованные за последние два дня новости, в которых упоминались характеристики данных видеокарт.

В принципе, в этом сегменте рынка нравы царят весьма свободные, и производители могут спокойно выпускать видеокарты с частотами выше 300/700 МГц. Однако, указанные частоты встречаются в описании видеокарт этой серии чаще всего, что дает повод считать их эталонными.

Подобные откровения заставляют нас пересмотреть концепцию противопоставления GeForce 6600 GT и GeForce 6800 LE. Здесь следует вспомнить о младшей версии NV43, которая имеет схожие с GeForce 6800 LE характеристики:
GeForce 6800 LE -> 0.13 мкм, 8 пиксельных конвейеров, 300/700 МГц, 256-битная шина, 128 Мб DDR-I;
GeForce 6600 -> 0.11 мкм, 8 пиксельных конвейеров, 300/550 МГц, 128-битная шина, 128/256 Мб DDR-I;
GeForce 6600 GT -> 0.11 мкм, 8 пиксельных конвейеров, 500/1000 МГц, 128-битная шина, 128/256 Мб GDDR-3.
Единственное неизвестное в этих уравнениях - частота памяти GeForce 6600. Лишь эталонная плата использовала память в упаковке TSOP со временем выборки 3.6 нс, розничные образцы могут использовать более быструю 2.8 нс память, которая доведет частоту до 700-800 МГц DDR. Между тем, для существующих номинальных характеристик этих видеокарт будут верны следующие показатели:
GeForce 6800 LE -> 2.4 млрд. текселей в секунду, пропускная способность памяти 22.4 Гб/с;
GeForce 6600 -> 2.4 млрд. текселей в секунду, пропускная способность памяти 8.8 Гб/с;
GeForce 6600 GT -> 4.0 млрд. текселей в секунду, пропускная способность памяти 16.0 Гб/с.
Хотя производительность графического ядра GeForce 6600 и GeForce 6800 LE лежит в сопоставимых пределах, пропускная способность бюджетного варианта NV43 в два с лишним раза меньше! Другими словами, называть GeForce 6600 не-GT и GeForce 6800 LE "побратимами" нужно с поправкой на ширину шины памяти.

Кстати, разнятся и ценовые категории этих двух решений: GeForce 6800 LE производства Colorful стоит порядка $250, а GeForce 6600 должна стоить $149. Разница в $100 для видеокарт с сопоставимым уровнем производительности может оправдываться только "голубой кровью" GeForce 6800 LE, произошедшей от знаменитого чипа NV40.

Именно в этом родстве может скрываться дополнительный бонус - наши китайские коллеги выражают надежду, что специализированная версия утилиты RivaTuner все же позволит включать программно все 16 пиксельных конвейеров.
http://www.overclockers.ru/images/ne.../6800le_04.png
Вот тут-то и раскроется в полной мере потенциал ядра NV40 и 256-битной шины памяти! Впрочем, говорить об этом, как о свершившемся факте, пока преждевременно.
http://www.overclockers.ru/images/ne.../6800le_01.jpg
Дизайн анонсированной китайским производителем видеокарты ничем не отличается от эталонного.
http://www.overclockers.ru/images/ne.../6800le_03.jpg
Восемь чипов памяти DDR-I производства Hynix со временем выборки 2.2 нс расположены с лицевой стороны платы. Если бы не нависающий местами кулер видеочипа, их вполне можно было бы снабдить радиаторами. Впрочем, если в вашем хозяйстве водится невостребованный heatpipe-кулер от GeForce 6800 Ultra, он здесь придется к месту :).

Поскольку и GeForce 6600 с интерфейсом AGP 8x, и GeForce 6800 LE в равной степени претендуют на появление в рознице, точку в их противостоянии ставить рано. В октябре появятся видеокарты на базе NV43 с интерфейсом AGP 8x, и одному богу известно, как наличие переходного моста HSI будет сказываться на их разгонном потенциале и эксплуатационных характеристиках...

Тесты GeForce 6600 GT с разгоном
Lexagon | 12:24 | ссылка на материал
Как только характеристики GeForce 6600 GT и GeForce 6800 LE были окончательно определены, единственной интригой в расстановке сил оставалось преимущество 256-битной шины над 128-битной, а также разгонный потенциал этих решений. Естественно, что несмотря на запрет, касающийся разглашения информации о производительности GeForce 6600 GT до 1 сентября, некоторые азиатские сайты не удержались от соблазна "проболтаться".

Одним из первых оказался тайваньский сайт D-Cross, который уже публиковал фотографии видеочипа NV43 задолго до анонса. Теперь в руках наших коллег оказалась эталонная видеокарта GeForce 6600 GT, которую они поспешили установить в систему на базе процессора Pentium 4 560 (3.6 ГГц) в исполнении LGA 775, материнской платы Asus P5AD2 (i925X), а также двух планок DDR2-533 объемом по 512 Мб.
http://www.overclockers.ru/images/ne...8/19/gt_01.jpgПрежде всего, стоит обратить внимание на наличие шестиштырькового разъема питания на видеокарте GeForce 6600 GT. Хотя чип NV43 выполнен по 0.11 мкм техпроцессу и должен отличаться относительно низким энергопотреблением, Nvidia считает нужным использовать дополнительный разъем питания. Возможно, видеокарты GeForce 6600 GT тоже сильно нагружают канал питания +12 В, а потому дополнительный разъем питания используется для подстраховки. В общем же случае разъем PCI Express x16 способен обеспечивать до 60-70 Вт мощности собственными силами.

Теперь сразу перейдем "к сладкому", то есть описанию экспериментов по разгону. Нашим коллегам удалось добиться относительной стабильной работы видеокарты на частотах 591/1170 МГц:
http://www.overclockers.ru/images/ne...8/19/gt_02.jpg
По сравнению с номинальными частотами 500/1000 МГц, разгон по ядру составил 18%, по памяти – 17%. Нужно сказать, что предсерийный экземпляр GeForce 6600 GT может не отражать разгонных характеристик розничных видеокарт этой серии, и в будущем положение дел может улучшиться. Так или иначе, близкая к 600 МГц частота вполне точно отражает оверклокерские способности 0.11 мкм ядра.

Если обратиться к статистике разгона ядра NV40, то частота 600 МГц ему покорялась только при использовании вольтмодов и экстремального охлаждения фреоном. Другими словами, разогнать GeForce 6800 LE до такой частоты практически невозможно, так что в плане оверклокерского потенциала GeForce 6600 GT определенно выигрывает у соперницы.

Говоря о производительности GeForce 6600 GT в номинальном режиме, можно привести два графика. На первом отображены результаты видеокарт GeForce 6600 GT и GeForce PCX 5900 в бенчмарке 3DMark 2003:
http://www.overclockers.ru/images/ne...8/19/gt_04.jpgСледует напомнить, что GeForce PCX 5900 является продолжателем дела GeForce FX 5900 XT, имеет восемь пиксельных конвейеров, 256-битную шину и частоты 390/700 МГц. То есть, в некотором приближении ее можно рассматривать в качестве "близкого родственника" GeForce 6800 LE с интерфейсом PCI Express x16.

Как видим, во всех режимах GeForce 6600 GT получает практически полуторакратное преимущество. Возможно, в системах с менее производительным процессором (использовался Prescott 3.6 ГГц) результат будет ниже, но обещанные 8000 "попугаев" 3DMark 2003 новинкой однозначно покорены.

Следующий бенчмарк волнует любителей игр еще больше – это Doom III, timedemo demo1, High Quality:
http://www.overclockers.ru/images/ne...8/19/gt_05.jpgЭти результаты можно с некоторыми оговорками (на разницу в конфигурации систем) сравнить с достижениями GeForce 6800 LE. Для интереса можно сравнить показатели в виде таблицы:

Режим Результат GeForce 6600 GT, fps Результат GeForce 6800 LE, fps Преимущество GeForce 6600 GT, %
800 x 600 93.9 77.3 21.5
1024 x 768 83.5 61.3 36.2
1280 x 1024 62.8 32.7 92.0
1600 x 1200 46.1 24.6 87.4

Интересно, что с повышением разрешения преимущество GeForce 6600 GT возрастает, и 128-битная шина памяти в этом случае не является помехой. Впрочем, в других приложениях ограниченность ширины шины памяти может проявиться негативно. Характерно, что даже в самых тяжелых условиях число кадров в секунду остается на вполне приемлемом для игры уровне. Nvidia не зря позиционирует GeForce 6600 GT в качестве лучшей видеокарты для Doom III. Пока этому утверждению сложно возражать – за такие деньги ($229) действительно нельзя найти ничего более подходящего :).
http://www.overclockers.ru/images/ne...8/19/gt_03.jpgГоворя о масштабировании производительности при разгоне, можно рассмотреть приведенную нашими тайваньскими коллегами диаграмму. Соответствие для GeForce 6600 GT получается таким:
Разгон на 15%/15% (ядро/память) -> прирост производительности 13%;
Разгон на 18%/17% (ядро/память) -> прирост производительности 16%.
Разумеется, результатов тестирования в 3DMark 2003 недостаточно для объективного анализа, но мы можем заметить, что разгон с 574/1150 МГц до 591/1170 МГц не обеспечивает заметного роста производительности. В этом и проявляется коварство 128-битной шины памяти – прирост производительности в разгоне происходит "медленнее", чем в случае с 256-битной шиной.

По этой причине гнаться за предельными частотами владельцам GeForce 6600 GT не имеет смысла – при прочих равных условиях разумнее остановиться на том рубеже, где видеокарта демонстрирует стабильность.

Мы можем вспомнить и первые эксперименты по разгону GeForce 6800 LE, чтобы сопоставить показатели масштабируемости. Видеокарта была разогнана с частот 300/700 МГц до частот 400/850 МГц, то есть на 33% для ядра и 21% для памяти соответственно. Уровень производительности тогда изменился согласно перечню:

3DMark 2001 SE -> прирост производительности 11%;
Aquamark 3 -> прирост производительности 22%;
FarCry -> прирост производительности 11%;
Unreal Tournament (1024 x 768) -> прирост производительности 2%;
Unreal Tournament (1600 x 1200) -> прирост производительности 20%.
Во-первых, мы можем видеть разнородность реакции приложений на разгон – производительность масштабируется по-разному. Во-вторых, мы замечаем выигрыш от 256-битной шины в UT 2004 при переходе к более высокому разрешению.

Кстати, даже при отставании GeForce 6800 LE от GeForce 6600 GT у первой есть важное преимущество – врожденная поддержка интерфейса AGP 8x. Как известно, GeForce 6600 GT на поддержку AGP 8x перейдет только в октябре, при помощи чипа HSI. Владельцы систем с интерфейсом AGP могут насладиться преимуществами GeForce 6800 LE уже сейчас, а появления GeForce 6600 GT с соответствующим интерфейсом придется ждать пару месяцев. Так или иначе, с оверклокерской точки зрения GeForce 6600 GT является более перспективным решением.

(C)_www.overclockers.ru

Кошка 20.08.2004 18:11

Хотелось бы знать заметна ли существенная разница между
GeForce 5900, GeForce 6800 (скажем GT) и GeForce 6800 Ultra.
Я имею ввиду не мегагерцы, а визуальную разницу для обычного геймера. Возмем для примера Doom 3.
Я увижу глазами реальную разницу или нет ?

И еще. Хотелось бы узнать, насколько шина PCI Express влияет на производительность (по сравнению с AGP).

grogi 20.08.2004 20:32

Кошка
Реальную разницу в плане красивостей пока не увидишь (так как ПС 3.0 пока применяются для ускорения, а не для красивостей), в скорости разница будет чудовищна. Станут доступны разрешения выше 1280*1024 с максимальными настройками в любых существующих сейчас играх (5900 зачастую уже не дает максимума).
Цитата:

Кошка:
Хотелось бы узнать, насколько шина PCI Express влияет на производительность (по сравнению с AGP).
В ближайшие полгода (может год) пси никаких преимуществ по сравнению с агп не имеет (да и то потенциал агп до конца не использован, а нас практически насильно заставляют делать тотальный апгрейд)
На данный момент лучшей покупкой в плане цена/производительность является 6800 (не ультра и не гт).

fear factor 21.08.2004 06:15

Цитата:

grogi:
ПС 3.0 пока применяются для ускорения, а не для красивостей
немного не точно сказал, например в FC (эдинственное шо щас использует это технологию) они дали прирос скорости и увеличени качества картинки
хотя эти пс 3,0 мона свободно запустить на r420 и будет тоже самый скачек скорости. для радиков эти шэйдеры кличутся 2,0b

fear factor 21.08.2004 07:28

nVidia GeForce 6600: новый удар по массовому рынку

_http://www.thg.ru/graphic/20040820/index.html
Следуя недавнему выходу high-end моделей GeForce 6800, nVidia подготовилась к выпуску графических карт GeForce 6600 для массового рынка. Отрадно отметить, что nVidia на этот раз решила не уменьшать количество функций недорогих чипов, ограничившись снижением конвейеров. Предлагаем ознакомиться с предварительным исследованием новых карт.

grogi 21.08.2004 07:35

fear factor
Я тот же самый FC и имел в виду. Красивости будут прикручены только в патче 1.3. А сейчас там в основном ускорения связанные с освещением.

fear factor 21.08.2004 09:05

grogi
да ваще то не, красивости/качаево изображения уже были прикручены в 1,2

по крайней мере дотянули до качества картинки x800 (а может и перетянули)

grogi 22.08.2004 21:31

GeForce NX6600GT и NX6600: два новых адаптера MSI
— Archont @ 09:25
Своим пресс-релизом компания MSI объявила графические адаптеры MSI GeForce NX6600GT и NX6600, построенные на базе графических процессоров NVIDIA GeFORCE 6600 с поддержкой интерфейсам PCI Express.
http://www.ixbt.com/short/2k4-08/MSI_GF6600.jpg
По традиции компании, в новых графических адаптерах MSI уделено много внимания возможностям разгона: доступна технология Dynamic EXPRESS Overclocking путем изменения тактовой частоты графического процессора и видеопамяти, имеющая шесть уровней настройки: Commander, General, Colonel, Captain, Sergeant и Private. В MSI GeForce NX6600GT и NX6600 также поддерживается Multi-GPU (работа нескольких адаптеров в режиме SLI, scalable link interface), использованы кулеры T.O.P, обладающие заявленным уровнем шума в 28 дБ.

(C)_www.ixbt.com

Heatpipe и GeForce 6800: новые решения
Lexagon | 12:40 | ссылка на материал
Наши постоянные читатели хорошо знакомы с серией видеокарт Ultimate компании Sapphire, использующей heatpipe-кулеры производства Zalman. Хорошая эффективность охлаждения и почти полная бесшумность - вот основные достоинства подобных решений.

Между тем, владельцам видеокарт на чипах Nvidia до последнего момента в оснащении "питомцев" бесшумными системами охлаждения приходилось рассчитывать только на свои силы - серийные решения не получили большого распространения. Сегодня мы расскажем о некоторых продуктах, опровергающих подобное представление о ситуации на рынке.

Прежде всего, следует сообщить о принятии на вооружение компанией Inno3D кулера CoolViva производства CoolerMaster. Компания выпустила разогнанную версию GeForce 6800, оснащенную подобной системой охлаждения.
http://www.overclockers.ru/images/ne...22/inno_01.jpg
Залог успеха продукта Inno3D кроется не только в эффективном кулере, но и быстрой памяти - вместо обычных 2.8 нс чипов на плату установлены 2.2 нс чипы памяти. Это позволяет рассчитывать на разгон свыше 800 МГц DDR. Кстати, видеочип тоже работает на повышенной частоте - 350 МГц вместо стандартных 325 МГц.
http://www.overclockers.ru/images/ne...22/inno_02.jpg
"Сэндвич" получился достаточно габаритным, да и уровень шума далек от нуля - 17.8-23.8 дБ(А). Так или иначе, по своей эффективности эта система охлаждения превосходит эталонную. Данная видеокарта будет продаваться по цене $299. Версия без оригинального кулера будет стоить на $20 меньше.

Следующим пунктом в нашем повествовании идет видеокарта Gigabyte, ранее принятая нами за GeForce 6800 LE. Японские коллеги исправляют ошибку, и приводят точные характеристики этого продукта. Видеокарта называется GV-N68128DH, она представляет собой стандартный вариант GeForce 6800 с частотами 325/700 МГц и 12 пиксельными конвейерами, оснащенный бесшумной низкопрофильной системой охлаждения с использованием тепловых трубок.
http://www.overclockers.ru/images/ne...22/giga_01.jpgОчевидно, упор при проектировании конфигурации радиатора делался на освобождение пространства под слотом AGP, из-за чего радиатор с оборотной стороны платы сделан более массивным. Тепловые трубки позволяют отводить тепло с "лицевой" стороны практически без потерь. Кроме того, направление естественной конвекции воздуха более благоприятно для такой схемы.
http://www.overclockers.ru/images/ne...22/giga_02.jpg
Данная видеокарта стоит в Японии $365, и здесь весьма уместно вспомнить историю с "поддельными" Leadtek GeForce 6800. Японский случай имеет практически зеркальное содержание - под видом GeForce 6800 LE чуть было не начали продаваться GeForce 6800 с 12 пиксельными конвейерами. Заметим, что цена видеокарт от подобного недоразумения тоже не изменилась, так что приобретающий видеокарту GV-N68128DH японский потребитель в любом случае ничего не терял.

(C)_www.overclockers.ru

fear factor 23.08.2004 03:37

GeForce 6610 XL

GeForce 6610 XL был обнаружен в inf-файле драйвера ForceWare 65.91. похоже, у Nvidia для нас припрятан очередной сюрприз :).

© overclockers.ru

grogi 23.08.2004 20:36

AOpen обновляет линейку Aeolus: 6600GT-DV128 и 6600-DV128
— Axbat @ 11:46
Компания AOpen сообщила о выпуске двух карт Aeolus серии 6600, Aeolus 6600GT-DV128 и Aeolus 6600-DV128.
Как и в случае конкурентных разработок, среди основных возможностей карт упомянуты
Поддержка Microsoft DirectX9.0, Shader Model 3.0
Интегрированный видеопроцессор
Поддержка интерфейса NVIDIA SLI
Движок NVIDIA CineFX3.0
Технология UltraShadow II
Технология Intellisample 3.0
Полная поддержка MPEG
Адаптивный деинтерлейсинг
Интегрированный HDTV-кодер
http://www.ixbt.com/short/2k4-08/pci6600_3D_Stand.jpg
GF6800 GF6600 FX5700 FX5200
DirectX 9.0 SM 3.0 SM 3.0 SM 2.0 SM 2.0
Интерфейс AGP 8x
PCI ExpressPCI Express AGP 8x AGP 8x
NVIDIA Intellisample3.0 3.0 2.0 н/д
NVIDIA SLI есть
(6800Ultra/GT) есть
(6600GT) н/д н/д
Шина памяти 256-бит 128-бит 128-бит 128-бит
Тип памяти GDDR3/DDR GDDR3/DDR GDDR3/DDR DDR
Техпроцесс 0.13μ 0.11μ 0.13μ 0.15μ
RAMDAC (два) 400 400 400 350

Aeolus 6600GT-DV128 Aeolus 6600-DV128
Характеристики 128MB Micro BGA RAM, 16x PCI-Express, DirectX 9, 1.5 OpenGl
Разъемы DVI, CRT, TV-out DVI, CRT, TV-out
Частота ядра (МГц)500 300
Fill Rate (млрд. текселей/с) 4 2.4
Млн. вершин/с 375 225

(C)_www.ixbt.com

Gigabyte анонсирует разогнанный вариант GeForce 6600
Lexagon | 11:51 | ссылка на материал
В день официального анонса видеокарт на базе NV43 мы уже знали, что младшая версия GeForce 6600 будет работать на частотах 300/550 МГц и оснащаться памятью DDR-I в исполнении TSOP. Мы справедливо предположили, что непосредственные производители видеокарт проявят фантазию при проектировании продуктов серии GeForce 6600, и мы увидим не только 256 Мб версии видеокарт, но и разного рода разогнанные варианты.

Судя по всему, компания Gigabyte решила предложить подобные решения уже в сентябре. На прошлой неделей она анонсировала три модели видеокарт, включая две разновидности GeForce 6600 GT (с 256 Мб и 128 Мб памяти соответственно) и одну "разогнанную" GeForce 6600.
http://www.overclockers.ru/images/ne...23/giga_01.gif
Грубо говоря, "разогнанной" последнюю видеокарту можно считать только из-за частоты чипа, которая составляет 350 МГц, что на 50 МГц выше рекомендованной Nvidia. При этом Gigabyte не забывает указать напротив частот каждой видеокарты символ "+", намекающий на возможность дальнейшего разгона. Предназначенная для этого фирменная утилита V-Tuner 2 прилагается в комплекте.

Вариант GeForce 6600 GT с 256 Мб памяти очевидным образом намекает на запросы новейшей игры Doom III, так как она будет поставляться в комплекте только с этой моделью. GeForce 6600 GT с 128 Мб памяти комплектуется чуть скромнее: игры Thief и Joint Operations: Typhoon Rising призваны компенсировать отсутствие Doom III. Видеокарта GeForce 6600 вообще довольствуется только игрой Thief.

Надо полагать, другие производители видеокарт тоже не упустят возможности доказать конечному покупателю, что они не зря все эти годы навязывали видеокарты класса middle-end с 256 Мб памяти – вышел Doom III, и "звездный час" видеокарт с таким объемом памяти настал. Впрочем, на более скромных установках можно вполне комфортно играть при использовании видеокарт с 128 Мб памяти.

(C)_www.overclockers.ru

fear factor 24.08.2004 05:58

GeForce 6610 XL: очередной OEM-cюрприз?

В момент официального анонса видеокарт на базе NV43 было заявлено, что всего будет существовать две разновидности: GeForce 6600 GT и GeForce 6600 соответственно. Естественно, от OEM-производителей можно было ожидать появления и некоторых промежуточных вариантов...

Как сообщает сайт Guru of 3D, в новейших драйверах ForceWare 66.00 можно обнаружить упоминания о следующих графических решениях на базе NV43:


NVIDIA_NV43.DEV_0140.1 = "NVIDIA GeForce 6600 GT"
NVIDIA_NV43.DEV_0141.1 = "NVIDIA GeForce 6600"
NVIDIA_NV43.DEV_0145.1 = "NVIDIA GeForce 6610 XL"
Другими словами, к уже известным GeForce 6600 GT и GeForce 6600 "приписана" таинственная видеокарта GeForce 6610 XL, чье обозначение в сознании поклонников Nokia ассоциируется с соответствующей моделью телефона :).

Пока нам не удалось добыть более или менее вразумительной информации о данной видеокарте, но существующие предположения относят ее к разряду OEM-продуктов. Как правило, нестандартные числовые обозначения с шагом менее 100 и необычные буквенные суффиксы характерны именно для OEM-сектора.

Можно было бы подумать, что GeForce 6610 XL относится к более производительному классу, чем GeForce 6600 GT, но Nvidia раньше не имела привычки давать своим продуктам суффиксы типа "XL". Скорее всего, видеокарта все же работает на более низких частотах, чем GeForce 6600. Кроме того, GeForce 6610 XL может отличаться 64-битной шиной или наличием только 4 работающих пиксельных конвейеров.

Если обратиться к последним слухам о сроках выхода NV44, то конечные потребители вряд ли увидят готовые видеокарты на основе этого чипа ранее декабря. Возможно, Nvidia желает восполнить пробелы в сегменте low-end за счет урезанной версии NV43, которой будет присвоено имя "GeForce 6610 XL". По крайней мере, крупные OEM-заказчики могли подговорить Nvidia выпустить такой недорогой продукт на базе относительно холодного 0.11 мкм чипа с поддержкой PCI Express x16 и Pixel Shader 3.0.

Если GeForce 6610 XL имеет хоть какие-то шансы на появление в розничном сегменте, в ближайшие дни мы наверняка услышим об этом решении еще раз.

© overclockers.ru

grogi 24.08.2004 07:31

Описание технологии работы NV40
Немецкий сайт 3Dcenter.org знакомит своих читателей с англоязычной версией материала(http://www.3dcenter.org/artikel/nv40...ne/index_e.php) о принципах работы шейдеров и специфике их аппаратной реализации в последней серии GPU NVIDIA.

Эта часть - первая из нескольких статей, посвящённых подробному описанию NV40, предназначенная в первую очередь специалистам в области 3D графики.

Base

(C)_www.nvworld.ru

Chaintech GeForce 6800 Ultra
reference card в роскошной поставке, тестирование в DOOM3 с интересными исследованиями
http://www.ixbt.com/video2/nv40-6.shtml

fear factor 24.08.2004 08:51

Biostar представляет видеокарты на GeForce 6600

Компания Biostar Microtech, известный тайваньский производитель различных компьютерных комплектующих, присоединившись к своим коллегам из Prolink, Micro-Star International (MSI) и Albatron, анонсировала видеокарты на базе GeForce 6600 (NV43), нового графического процессора для массового рынка от калифорнийской компании NVIDIA. Напомню, что Biostar является новым игроком на рынке видеокарт. До недавнего времени эта компания занималась лишь производством материнских плат, barebone-систем и различного сетевого оборудования. В самом начале текущего месяца, следуя программе по диверсификации производства, Biostar представила свои первые видеокарты и объявила о подписании соглашения о сотрудничестве с NVIDIA. В данный момент в ассортименте Biostar присутствуют карты на базе видеопроцессоров линеек GeForce FX и GeForce MX.

_http://www.fcenter.ru/images/whatnew/2004/aug/23/bio.jpg

Официальный пресс-релиз, посвященный анонсу видеокарт Biostar на базе GeForce 6600, не содержит в себе практически никакой конкретной информации. В нем упоминаются две стандартные модели – базовая версия GeForce 6600 и более производительная модификация GeForce 6600 GT. Какие-либо технические характеристики новинок не приводятся, из чего можно сделать вывод, что они также будут стандартными
© fcenter.ru

fear factor 25.08.2004 03:16

SLI в действии: до 87% прироста производительности

В противовес предыдущей новости, очерняющей идею Nvidia SLI в свете дороговизны и высокого энергопотребления, мы решили опубликовать выдержки из новости на японском сайте PC Watch, рассказывающей о демонстрации этой технологии.

Собственно говоря, Nvidia в рамках прошедшей в Японии презентации решений семейства GeForce 6600 решила показать работу SLI на примере спаренных видеокарт GeForce 6800 GT с интерфейсом PCI Express x16. Несложно догадаться, что в качестве "каркаса" для такой системы использовалась материнская плата Supermicro на базе чипсета E7525 (Tumwater), поддерживающая два разъема PCI Express x16 в комбинации "PCI Express x16 + PCI Express x4", а также два процессора Xeon DP

_http://www.overclockers.ru/images/news/2004/08/24/sli_01.jpg

Обе видеоплаты GeForce 6800 GT использовали шестиштырьковые разъемы питания, подключаемые через переходник к обычным четырехштырьковым Molex. Надо понимать, что устанавливаемые в "серверные" корпуса блоки питания без проблем справляются с двумя прожорливыми видеокартами класса GeForce 6800 GT. Тем более, с учетом наличия в системе только одного центрального процессора :). Владельцы же "домашних" систем должны будут задуматься о приобретении более мощного блока питания, чем тот, который уживался в системе до появления второй видеокарты поколения GeForce 6800.

Интересные новости появляются относительно той самой SLI-перемычки, которая соединяет две видеокарты в данном режиме. Хотя сейчас она выполнена в виде небольшой печатной платы с соответствующими разъемами, в будущем ее могут заменить на гибкий шлейф. Пожалуй, так будет дешевле, если в контексте покупки двух мощных видеокарт вообще имеет смысл говорить об экономии :).

Неприятно лишь то, что подобные соединители появятся в продаже лишь ближе к концу года, и до этой поры все мечты о режиме SLI придется усмирить. Впрочем, материнские платы потребительского класса с поддержкой SLI тоже появятся не ранее четвертого квартала, так что ждать придется недолго.

Отладка драйверов сейчас проходит заключительную стадию, и "в чистовом варианте" режим SLI будет позволять увеличить производительность на 87%. Впрочем, в некоторых случаях прирост не будет превышать 50%, а платить за это удовольствие всегда придется не менее 100%, так что следует сопоставлять ожидаемый эффект с масштабами затрат. Иногда проще купить более производительную видеокарту, чем городить "лес" из двух графических плат в режиме SLI.

Непосредственно распределение вычислительной нагрузки между видеокартами происходит пропорционально сложности сцены. Если верхняя часть картинки требует больше ресурсов, она их получает, и верхняя полоса изображения сужается. Соответственно, более узкой может быть и нижняя часть картинки, как в случае с тестом Mother Nature из пакета 3DMark 2003:

_http://www.overclockers.ru/images/news/2004/08/24/sli_02.jpg

А это уже пример использования SLI в игре Unreal Tournament 2003:

_http://www.overclockers.ru/images/news/2004/08/24/sli_03.jpg

Очевидно, зеленая разделительная полоса и соответствующие красные и синие маркеры в реальности портить вид не будут, и в данный момент они используются просто для наглядности.

По поводу собственно сроков поставки решений на базе NV43 производители сообщили нашим коллегам, что в сентябре имеет шансы появиться на рынке преимущественно младшая версия GeForce 6600. В октябре должны начаться продажи GeForce 6600 GT с интерфейсом PCI Express x16, а трепетно ожидаемый многими AGP-вариант GeForce 6600 GT появится не ранее ноября. Очевидно, Nvidia опять "тянет резину", но искренне стремится успеть с основными новинками к сезону рождественских продаж.

_http://www.overclockers.ru/images/news/2004/08/24/sli_04.jpg

Интересно, что представленный на фото эталонный образец видеокарты GeForce 6600 GT лишен шестиштырькового разъема питания, хотя другая видеокарта этого типа однозначно имела шестиштырьковый разъем питания. Возможно, Nvidia опять начинает экспериментировать с питанием, перестраховываясь на этапе производства тестовых образцов, чтобы обеспечить серийные экземпляры стабильным электропитанием. Нельзя исключать, что серийные видеокарты GeForce 6600 GT обойдутся без дополнительного разъема питания, ведь 0.11 мкм чип NV43 не должен быть столь прожорливым, чтобы поглотить без остатка все 60-70 Вт, поставляемые через разъем PCI Express x16.

© overclockers.ru

grogi 25.08.2004 07:23

Технологии Half Life 2 и видеокарты: тестирование в Counter Strike: Source и Half Life 2 Stress Test
Список протестированных видеокарт:
NVIDIA GeForce 6800 Ultra 256MB (400MHz/1100MHz);
NVIDIA GeForce 6800 GT 256MB (350/1000MHz);
NVIDIA GeForce 6800 128MB (325/700MHz);
NVIDIA GeForce FX 5950 Ultra 256MB (475/950MHz);
NVIDIA GeForce FX 5900 256MB (400/850MHz);
NVIDIA GeForce FX 5900 XT 256MB (400/700MHz);
NVIDIA GeForce FX 5700 Ultra 128B (475/900MHz);
NVIDIA GeForce FX 5600 Ultra 128B (400/800MHz);
ATI RADEON X800 XT 256MB (520/1120MHz);
ATI RADEON X800 PRO 256MB (475/900MHz);
ATI RADEON 9800 XT 256MB (412/730MHz);
ATI RADEON 9800 PRO 256MB (380/680MHz);
ATI RADEON 9600 XT 128MB (500/600MHz);
ATI RADEON 9600 PRO 128MB (400/600MHz);
ATI RADEON 9500 PRO 128MB (275/550MHz).

http://www.overclockers.ru/news/news...&id=1093383933

fear factor 25.08.2004 09:29

во блин тут ещё толком с GF 6 не разобрались как они уже о GF7 :mad:

Семейство GeForce 7xxx выйдет ближе к концу 2005 года

Пока следующее флагманское решение от Nvidia под кодовым названием NV48 ожидается не ранее четвертого квартала этого года, компания не упускает возможности поговорить о перспективах выхода чипа более прогрессивного поколения, который мы можем условно назвать NV50.

До сих пор считалось, что NV50 может появиться в первой половине 2005 года на основе 0.09 мкм техпроцесса, и первые опытные образцы неких 0.09 мкм чипов Nvidia уже производятся компанией IBM. Между тем, выпустив 0.11 мкм чип NV43 раньше более сложного изделия по имени NV48, компания Nvidia намекает на возможность отказа от тактики освоения новых техпроцессов по принципу "от сложных чипов к простым". Напротив, осознав выигрышность обратной тактики, уже длительное время применяемой ATI, она может выпустить первые 0.09 мкм видеочипы в сегменте middle-end, а не high-end.

В необходимости перехода на 0.09 мкм техпроцесс для выпуска следующего флагманского чипа Nvidia сомневаться практически не приходится. Современный чип NV40 в рамках 0.13 мкм технологии чувствует себя не очень уютно, разгоняясь с воздушным охлаждением от силы на 12-18%. Возможно, после перехода на 0.11 мкм техпроцесс при производстве NV48 этот потолок удастся поднять до 25-30%. Скорее всего, критических изменений в архитектуре NV48 не получит, став лишь более технологичным и быстрым вариантом NV40 c врожденной поддержкой PCI Express x16. Интересно, что при этом "горячие головы" из маркетингового отдела Nvidia говорят о двукратном преимуществе в уровне производительности NV48 над NV40. Впрочем, это скорее дань "традициям обещания", чем "повышенные обязательства" :).

Наши немецкие коллеги с сайта Golem.de смогли подслушать на Games Convention 2004 некоторые заявления представителей Nvidia. В частности, компания намерена снизить темпы выпуска флагманских решений, становящихся основой для новых семейств графических чипов. В условиях усложнения архитектуры выпускать радикально новый видеочип каждый год уже не представляется возможным. Nvidia планирует увеличить этот период до полутора лет.

Другими словами, выход семейства GeForce 7xxx (NV5x) должен состояться не ранее конца 2005 года. Выход "разогнанных" версий существующих видеочипов будет осуществляться примерно раз в полгода, и здесь многое зависит от темпов появления новинок от ATI, которая также не раз заикалась о цикличности, равной 18 месяцам.

Весной 2005 года канадская компания планирует выпустить видеочип R520. Пока сложно сказать, будет ли он основан на 0.09 мкм техпроцессе, либо ограничится 0.11 мкм, но в плане функциональности обеспечит поддержку Pixel Shader 3.0, или даже более совершенных технологий. Нельзя исключать, что R520 просто выровняет паритет с NV48, и Nvidia не придется отвечать выходом нового графического решения класса high-end в первой половине 2005 года. В крайнем случае, будет выпущен очередной "re-spin" под обозначением типа NV49 :).

© overclockers.ru

grogi 25.08.2004 20:43

GeForce 6600/6600 GT, на очереди Sparkle
25/08/2004 14:05, Кирилл Рожкевич
Вслед за Prolink, Albatron, MSI и Biostar собственные версии видеокарт на графических процессорах nVidia GeForce 6600 / 6600 GT представила и компания Sparkle. В полной аналогии с вышеозначенными производителями, тайваньцы не стали изобретать велосипед и выпустили вполне предсказуемые по дизайну и характеристикам продукты:
http://www.3dnews.ru/documents/news5...rkle6600_1.gif
http://www.3dnews.ru/documents/news5...rkle6600_1.jpg
Согласно официальному пресс-релизу, новинки появятся на рынке уже в сентябре.
sparkle.com.tw

(C)_www.3dnews.ru

Фото дня: видеокарта ASUS V9999 Gamer Edition в нашей лаборатории
— Axbat @ 10:27
В нашей тестовой лаборатории на испытательном стенде — видеокарта ASUSTeK, ASUS V9999 Gamer Edition: GeForce 6800 (12 конвейеров). Модель оснащена 256 Мб GDDR3 SDRAM (2,0 нс) и имеет тактовые частоты ядра/памяти 350/1000 МГц. Как отметил Андрей Воробьев, карта представляет собой своеобразный гибрид между всеми тремя продуктами линейки NV40: печатная плата — от GeForce 6800 Ultra, память (GDDR3 2,0 нс) и частоты работы карты (350/1000 МГц) — от GeForce 6800GT, графический процессор — GeForce 6800 (12 конвейеров).
Ждем скорого обзора.
http://www.ixbt.com/short/2k4-08/asu...box1-small.jpg
http://www.ixbt.com/short/2k4-08/asu...ront-small.jpg

(C)_www.ixbt.com

fear factor 26.08.2004 03:45

есть подозрение что ASUS V9999 Gamer Edition станет хитом сезона (если все 16 конвееров благополучно разблокируются :biggrin: )

fear factor 26.08.2004 05:22

процитирую автора статьи Технологии Half Life 2 и видеокарты: тестирование в Counter Strike: Source и Half Life 2 Stress Test
Цитата:

Тесты показывают, что современные видеокарты, основанные на графических процессорах серии NVIDIA GeForce 6 или ATI RADEON X800, прекрасно работают в Counter Strike: Source, обеспечивая приемлемый уровень скорости даже в самых тяжелых режимах.

Видеокарты среднего класса, то есть, платы уровня NVIDIA GeForce FX 5900/5950 и ATI RADEON 9800 XT/PRO, бывшие топовыми некоторое время назад, также обеспечивают вполне играбельную скорость, сдавая позиции лишь в самых экстремальных режимах – 1280х1024 и 1600х1200 при включении анизотропной фильтрации и полноэкранного сглаживания.

Платы на основе чипов класса NVIDIA GeForce FX 5700 Ultra и ATI RADEON 9600 XT могут обеспечить достойную играбельность лишь в самых простых режимах – 1024х768 и, может быть, 1280х1024, и, разумеется, без использования анизотропной фильтрации и полноэкранного сглаживания.

Относительно соотношения результатов видеокарт можно сказать следующее: лидер сегодняшнего тестирования – безусловно, ATI RADEON X800 XT. Его преимущество над NVIDIA GeForce 6800 Ultra, впрочем, не настолько велико, насколько GeForce 6800 Ultra опережает X800 XT в Doom 3. Это объяснимо: Counter Strike: Source не использует большое количество сложных шейдеров DirectX 9, выдвигая требования, в основном, к скорости текстурирования и к эффективности подсистемы памяти. Даже там, где шейдеры используются более серьезно, в Half Life 2 Stress Test, преимущество X800 XT PE невелико: графические чипы серии GeForce 6 по эффективности исполнения пиксельных шейдеров модели 2.0 отстают от X800 не так уж и сильно.

RADEON X800 PRO в режиме "чистой скорости" в большинстве случаев обходит конкурента, NVIDIA GeForce 6800 GT, но при включении полноэкранного сглаживания и анизотропной фильтрации по большей части уже отстает от GeForce 6800 GT, и иногда весьма серьезно – здесь сказывается наличие у RADEON X800 PRO всего 12 пиксельных конвейеров и пониженная эффективность действия HSR.

GeForce 6800 показывает еще более удручающие результаты: 12 конвейеров и ощутимо сниженная частота памяти не позволяют конкурировать с RADEON X800 PRO – результаты GeForce 6800 оказываются примерно на уровне или чуть ниже результатов 8-конвейерного RADEON 9800 XT.

Среди видеокарт, основанных на графических процессорах серии NVIDIA GeForce FX и ATI RADEON 9X00, платы на чипах GeForce FX показывают более высокие результаты. За это можно поблагодарить саму компанию Valve, предусмотревшую для таких плат "облегченный" режим без использования шейдеров DirectX 9. Не стоит забывать и то, что в режиме "чистой скорости" видеокарты на чипах GeForce FX из-за недоработки драйвера некорректно исполняют фильтрацию текстур. При включении полноэкранного сглаживания проблемы с фильтрацией текстур пропадают, но и в этом режиме из-за использования "облегченного" пути построения сцены и более быстрой памяти видеокарты на базе чипов серии GeForce FX в целом оказываются быстрее конкурентов.

Итак, очевидно, что окончательные выводы пока делать рано. Во-первых, Counter Strike: Source имеет статус "бета". Во-вторых, ряд видеокарт имеет проблемы с качеством фильтрации текстур. В-третьих, еще обязательно появятся новые версии драйверов от ATI и NVIDIA, поднимающие уровень производительности в Half Life 2 и Counter Strike: Source. Наконец, выйдет (неужели это случится уже совсем-совсем скоро?) долгожданный Half Life 2 и появится новый повод протестировать видеокарты. Однако об одном можно с определенной долей уверенности сказать уже сейчас: такого разгрома, как в Doom 3, такого же преимущества последних графических процессоров от NVIDIA над новейшими чипами от ATI, только уже в другую сторону – в пользу ATI - в Half Life 2 не будет.


© overclockers.ru

fear factor 26.08.2004 07:01

Производительность видеокарт в Half Life 2 Stress Test при одинаковых режимах DirectX 8/9

В завершение широко освещенной сегодня темы производительности нового творения Valve, бета версии Counter-Strike: Source, хотелось бы рассказать о еще одном интересном тестировании, проведенным западным сайтом FiringSquad.com. Как вы помните из обзора нашей лаборатории по тестированию видеокарт в Counter Strike: Source и Half Life 2 Stress Test, движком игры используются различные режимы рендеринга для разных видеокарт. Для GeForce 6800, Radeon X800 и Radeon 9x00 это DirectX 9, а GeForce FX получают фору в быстродействии и пенальти в качестве картинки использованием DirectX 8. Как же влияет на качество и скорость использование новой или старой версии DirectX?

Получив в свое распоряжение консольные команды для переключения используемого режима DircectX это легко проверить. Переключение выполняется вводом команды: mat_dxlevel nn, где вместо nn надо подставить номер версии DirectX от 5.0 до 9.0 (соответственно 50, 60, 70, 80, 81, 90).

По умолчанию в движке Source используются такие режимы для видеокарт (это можно увидеть в настройках игры):

DirectX 9.0: GeForce 6800, Radeon 9500/9600/9700/9800, Radeon X300/X600/X800.
DirectX 8.1: GeForce FX 5800/5900, Radeon 8500/9000/9100/9200.
DirectX 8.0: GeForce 4 Ti, GeForce FX 5200/5600/5700.
Сравнительные тесты качества показали, что разница в картинке между всеми версиями DirectX (проверялся DirectX от 7.0 до 9.0) ощутима и вполне заметна на глаз, хотя и уменьшается при переходе к старшим версиям DirectX. А вот сравнение качества картинки видеокарт GeForce FX в режимах DirectX 8.1 и DirectX 9.0 показало их подозрительную идентичность. Дальнейшее сравнение быстродействия в различных режимах подтвердило догадку тестеров - для видеокарт GeForce FX включение режима DirectX 9.0 фактически заблокировано в игровом движке!

вообшем, кароче если интересно читаем далее _http://www.overclockers.ru/news/newsitem.shtml?category=4&id=1093442546

© overclockers.ru

grogi 26.08.2004 22:26

Фото дня (и продолжение темы по GeForce 6800)
— Andrey Vorobiev @ 11:15
В тестовой лаборатории по видеокартам появилась новая плата от Palit:
Palit GeForce 6800 128MB, 12 конвейеров, частоты 325/350 (700) МГц.
http://www.ixbt.com/video2/images/pa...oler-small.jpg
Как мы видим, изделие представляет собой просто reference card. Именно поэтому мы хотим заострить на этом внимание. Недавно прошла (и, надо сказать, не без эксцессов) информация о том, что в продаже появились видеокарты на базе того же GeForce 6800 от Leadtek, но в OEM-поставке. И выяснилось, что под кулером скрывается не 6800, а его урезанный до 8-ми конвейеров собрат 6800LE. И при этом, в отличие от полноценных GeForce 6800 от того же Leadtek (Retail), на плате установлен эталонный кулер, точно такой же, как и на фотографии чуть выше.

Как следствие, многие пользователи стали бояться брать карты в ОЕМ-поставке, имеющие reference систему охлаждения (а если коротко — радиатор с нарисованной русалкой). И рассматриваемая сегодня нами карта от Palit незаслуженно пострадала, имея reference cooler. Мы полагаем, что в ОЕМ-виде на наш рынок поставляются не только эти карты, но и многие другие (например, тот же Sparkle).

Хотя что продукт от Palit, что многие ему подобные изделия, являются полноценными GeForce 6800. Поэтому обращаем особое внимание на то, что ранее представленная в новостях урезанная карта имела не только эталонный кулер, но и опознавательные символы, указующие на принадлежность изделия, в том конкретном случае — LR (Leadtek Research).

Изделие же от Palit имеет фирменную наклейку на вентиляторе, ну и конечно же, нет тех самых LR в левом верхнем углу.
http://www.ixbt.com/video2/images/pa...ront-small.jpg
Подробности о новой карте от Palit вскоре появятся в нашем обзоре.

Ну и напоследок сообщу, что популярная утилита RivaTuner (версия с возможностью управления числом конвейеров в NV40, а также с информацией о числе активных конвейеров) ожидается к выходу в свет примерно в начале сентября.

(C)_www.ixbt.com

Серийный вариант GeForce 6600 GT будет обходиться без дополнительного разъема питания
Lexagon | 12:14 | ссылка на материал
Мы уже успели заметить, что все тестовые образцы видеокарт GeForce 6600 GT оснащаются шестиштырьковым разъемом питания, а более близкие к серийным экземпляры такого разъем лишены.

Совершенно справедливо на ум приходит история с требованиями по электропитанию видеокарт GeForce 6800 Ultra, которые вначале испугали рядовых пользователей аппетитом по мощности блока питания (480 Вт), а потом начали демонстрировать привязанность к двойному разъему питания, без которого разгон казался безнадежной затеей. Эволюция не стояла на месте, и серийные видеокарты GeForce 6800 Ultra смогли обходиться 350 Вт блоком питания, но второй разъем питания им был по-прежнему необходим из-за высокой нагрузки на цепь +12 В.

Судя по всему, видеокарты серии GeForce 6600 GT отличаются непредсказуемым характером нагрузки на систему питания. Хотя через разъем PCI Express x16 можно подавать до 60-70 Вт мощности, некоторые опасения на стадии проектирования GeForce 6600 GT все же имелись. По крайней мере, сотрудники сайта HKE PC смогли пролить свет истины на эту ситуацию.

В их руках оказался инженерный образец видеокарты GeForce 6600 GT производства компании Gigabyte:
http://www.overclockers.ru/images/ne.../6600gt_01.jpg
Как видите, шестиштырьковый разъем питания на плате присутствует, хотя эталонный кулер уже заменен на "фирменный".
http://www.overclockers.ru/images/ne.../6600gt_03.jpg
Наши коллеги смогли получить внятное объяснение по поводу перспектив появления такого разъема питания на серийных образцах видеокарт GeForce 6600 GT. Дело в том, что Nvidia традиционно перестраховалась в плане надежности питания, и дополнительный разъем предусмотрела для повышения стабильности при разгоне. Точнее говоря, на стадии проектирования первых плат не было окончательно ясно, каким уровнем энергопотребления будут отличаться видеокарты класса GeForce 6600 GT. "На всякий случай" разъем оставили...

После испытаний первых образцов видеокарт стало ясно, что 0.11 мкм техпроцесс все же сделал свой вклад в дело борьбы с высоким энергопотреблением, и серийные экземпляры вполне смогут обойтись без шестиштырькового разъема питания. Кроме того, компанию Nvidia якобы озаботил тот факт, что "блоков питания с 6-штырьковым разъемом не так много", и лучше бы не вынуждать потребителей их искать или использовать переходники :).

Так или иначе, серийные видеокарты GeForce 6600 GT смогут обойтись без 6-штырькового разъема питания. Лишь производители конкретных графических карт могут предложить подобный разъем в рамках личной инициативы.
http://www.overclockers.ru/images/ne.../6600gt_02.jpg
Интересно, что при отключенном разъеме питания инженерные экземпляры GeForce 6600 GT реагируют на такую небрежность подобающим образом – драйвер определяет недостаточность мощности, переводит тактовые частоты на более низкий уровень, и показывает соответствующее уведомление.

Следует понимать, что все вышесказанное относится исключительно к модификации GeForce 6600 GT с интерфейсом PCI Express x16. В октябре или ноябре выйдет AGP-версия, и ей без дополнительного разъема питания уже нельзя будет обойтись. Скорее всего, это будет обычный 4-штырьковый Molex.

Кстати, наши коллеги провели тестирование видеокарты Gigabyte GeForce 6600 GT в системе на базе процессора Pentium 4 550 (3.4 ГГц) и чипсета i925X. Для особо любопытных приводим некоторые результаты:
3DMark 2003 (1024 x 768) -> 8042 "попугая";
3DMark 2001 SE (1024 x 768) -> 18 839 "попугаев";
AquaMark 3 (total) -> 53 630 баллов;
AquaMark 3 (CPU) -> 7374 балла;
PCMark 04 (graphics) -> 4492 балла.
В целом эти результаты укладываются в рамки прогнозов. В системах различных конфигураций результаты будут варьироваться. Так или иначе, для решения стоимостью порядка $229 цифры весьма неплохие.

(C)_www.overclockers.ru

fear factor 27.08.2004 05:00

Площадь ядра графических чипов неуклонно возрастает: NV43

Лишь вчера мы узнали, что ядро RV410 будет содержать порядка 120 млн. транзисторов. Ситуация с числом транзисторов его конкурента по имени NV43 до сих пор не прояснилась. К счастью, сегодня на японском сайте PC Watch появился объемный аналитический материал, посвященный современным тенденциям в области "графического чипостроения".

Прежде всего, наши коллеги сообщили число транзисторов для чипа NV43: оно равно 163 млн. штук. То есть, число транзисторов NV43 примерно на 30% больше, чем число транзисторов RV410. Возможно, подобный разрыв позволит ATI достичь преимущества в площади ядра, и это отразится на экономической эффективности производства RV410.

Пока же считается, что площадь ядра NV43 составляет 150-160 кв. мм, что уже больше присущей NV36 площади в 140 кв. мм. Заметим, что при переходе от NV36 к NV43 сменился техпроцесс (0.13 мкм -> 0.11 мкм), и вся экономия на возросшей плотности размещения элементов была "съедена" возросшей сложностью архитектуры. Свой вклад сделало не только увеличение числа пиксельных конвейеров с 4 до 8, но и появление поддержки Pixel Shader 3.0, а также прочих усовершенствований.

Кстати, наши японские коллеги объясняют разрыв в площади современных графических ядер ATI и Nvidia в том числе и отсутствием в изделиях канадской компании поддержки элементов DirectX 9.0c. Возможно, с выходом ядра R520 в первой половине 2005 года, поддерживающего Pixel Shader 3.0, данный разрыв несколько сохранится.

http://www.overclockers.ru/images/ne...pcwatch_01.gif

Тенденция увеличения площади ядер даже с учетом "утончения" техпроцессов будет сохраняться – так считают не только японские аналитики, но и представители ATI. Например, если современные флагманские решения типа NV40 или R420 имеют по 222 млн. и 160 млн. транзисторов соответственно, то уже в следующем году рубеж 250-300 млн. транзисторов может быть освоен. В подобных темпах роста сложности чипов виноваты появление новых технологий визуализации, а также банальное стремление производителей представлять каждый год новое поколение чипов, превосходящее предшественников по уровню производительности в два раза.

Между тем, бесконечно наращивать площадь ядер не удастся. Представители ATI в шутку говорят, что когда из одной кремниевой пластины (диаметр которых достигает 200-300 мм) можно будет изготовить только одно графическое ядро, "потолок" будет достигнут. Шутки шутками, но физический предел уплотнения элементов на графическом ядре будет рано или поздно достигнут.

Предел тепловыделения для воздушных кулеров может быть достигнут гораздо раньше, как показывает грустная история с отменой анонса процессоров Intel на ядре Tejas. ATI уже дала понять, что в будущем может перейти на использование многоядерных графических чипов, чтобы сохранить темп прироста производительности без необходимости использовать жидкостное охлаждение.

К сожалению, в будущем будет сохраняться и еще одна неприятная тенденция. Если стоимость графических решений среднего уровня еще сохраняется в пределах $199-299, то себестоимость производства флагманских решений неуклонно подвигает ценовую планку к отметке $599 и выше. Проблема также заключается в росте объемов памяти и переходе на более широкие шины памяти – все это сказывается на себестоимости производства видеокарт.

Интересно, что площадь ядра решений среднего ценового сегмента за последние несколько лет сильно не изменилась – чипы первого поколения GeForce имели площадь чуть больше 130 кв. мм, выпускались по 0.20 мкм техпроцессу и содержали 23 млн. транзисторов. На порядок более производительные решения современности имеют почти такую же площадь ядра. Кроме того, современные решения класса middle-end способны обеспечивать такой же уровень производительности, как флагманские решения годичной свежести. Однако, разработчики игр стараются не упускать подобный потенциал, и от души нагружают графические карты новыми играми :).

Кстати, прозвучала информация о сроках выхода 0.09 мкм графических решений. Во всяком случае, ATI собирается покорить этот рубеж в первой половине 2005 года. Надо полагать, что отрабатываться новый техпроцесс будет на менее сложных решениях, и лишь потом выйдет флагман под кодовым названием R520.

© overclockers.ru

grogi 27.08.2004 07:29

Chaintech AA6800 Turbo Edition (GeForce 6800)
И вот компания Chaintech, известная на рынке видеоакселлераторов своими продуктами на чипах компании NVIDIA уже много лет, выпустила очередной такой нестандартный девайс – карту 6800 non Ultra с повышенными до 358 MHz/ 770 MHz (против 325/700 MHz, заявленных для этой карты) частотами GPU/памяти.
http://www.3dnews.ru/video/chaintech-aa6800-turbo/

fear factor 27.08.2004 08:41

6800 CoolViva Premium Edition: новый графический адаптер InnoVISION

Компания InnoVISION представила новую модель своих графических адаптеров, 6800 CoolViva Premium Edition. Эти платы построены на графическом процессоре NVIDIA GeForce 6800 и предназначены для установки в интерфейс AGP.

http://www.ixbt.com/short/2k4-08/Inno_Cool_Viva.jpg

Отличительной особенностью новых плат является наличие 6-см вентилятора охлаждения Cooler Master, обладающего уровнем шума в 19,8 дБ при скорости вращения 2500 об./мин, благодаря чему слегка увеличены тактовые частоты графического ядра и памяти: вместо 325 МГц и 700 МГц они составляют 350 МГц и 800 МГц, соответственно. Плата оснащена 128 Мб GDDR3-памяти, данных о цене нет, но, скорее всего, эти платы появятся в среднем и низшем ценовом сегментах.

© ixbt


Часовой пояс GMT +4, время: 16:40.

Powered by vBulletin® Version 3.8.5
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.