Показать сообщение отдельно
Старый 13.04.2006, 20:26     # 1035
grogi
Moderator
 
Аватар для grogi
 
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485

grogi - Гад и сволочь
G80 будет иметь схожую с G70 архитектуру?
Lexagon / 13.04.2006 12:16 / ссылка на материал / версия для печати
Как можно было понять из недавних заявлений представителей nVidia, следующий флагманский чип под условным названием G80 обойдётся без унифицированной шейдерной архитектуры. С другой стороны, ATI однозначно дала понять, что R600 будет использовать унифицированную шейдерную архитектуру. Ещё более очевидно, что на сроки анонса обоих графических чипов оказал влияние перенос даты анонса Windows Vista на первый квартал 2007 года. R600 и G80 должны будут поддерживать DirectX 10 (WGF 2.0), работать с которым без Windows Vista просто не получится. Позавчера мы узнали, что чип R600 может выйти в конце этого года, предвосхищая анонс Windows Vista. Как обстоят дела с чипом G80 от nVidia?

Поскольку точных данных об этом чипе ещё нет, приходится довольствоваться опубликованными на сайте CoolTechZone слухами. Это неподтверждённая информация, которая может содержать лишь доли процента истины, но пренебрегать таким шансом пополнить копилку знаний об этом чипе тоже не следует.

Прежде всего, nVidia пересмотрела сроки анонса G80. Выразилось это в том, что в ожидаемые сроки производство инженерных образцов не началось. Вполне возможно, что в архитектуру чипа G80 решено было внести какие-то изменения.

Этот же источник утверждает, что архитектура G80 в текущей версии мало чем будет отличаться от архитектуры чипов G70 и G71. Фактически, к ядру G70 просто "прилепят" возможность поддерживать DirectX 10. Так ли это просто, судить не берёмся. Вполне возможно, что кардинально новой архитектурой G80 похвастаться не сможет. Впрочем, если учесть отсутствие прироста производительности при переходе от G70 к G71, инженерам nVidia не помешало бы наделить G80 солидным потенциалом быстродействия. В конце концов, ATI стоять на месте не собирается, чип R600 должен оказаться быстрее предшественника.

Можно предположить, что анонс чипа G80 был отложен как раз с целью внесения кардинальных изменений в архитектуру. Новый вариант G80 наверняка сможет предложить нечто новое по сравнению с формулой "G70 + DirectX 10". В любом случае, до анонса G80 остаётся достаточно времени, чтобы всё десять раз успело измениться. Интересно другое: ATI уже запланировала выпустить осенью R580+, а об адекватном ответе nVidia ещё ничего не сообщается. Надеемся, ситуацию удастся прояснить за оставшиеся весенние месяцы.

Фризы и разогнанные видеокарты GeForce 7900 GTX: новая проблема
Lexagon / 13.04.2006 13:31 / ссылка на материал / версия для печати
На примере статьи о разгоне видеокарты GeForce 7600 GT эталонного дизайна вы могли понять, что из себя представляют так называемые "фризы". Это "кратковременные замирания картинки из-за переразгона", если цитировать руководителя нашей Лаборатории. Они должны говорить о том, что тактовую частоту ядра или отдельных его блоков нужно уменьшить. Это справедливое требование в ситуации, когда любитель разгона повышает частоты на видеокарте со стандартными частотами, и всегда может вернуться к номинальным частотам. А как быть, если видеокарта уже разогнана производителем, называется она "GeForce 7900 GTX", а стоит более $500?

Согласитесь, ситуация не самая приятная. Допустим, приобрёл некий Джон Пупкинс видеокарту GeForce 7900 GTX с повышенными тактовыми частотами от одного из трёх партнёров nVidia (BFG, XFX или eVGA). Мало того, что гонялся за видеокартой GeForce 7900 GTX как таковой, но ещё и переплатил за гарантию работы на повышенных частотах. Представьте себе его гнев, когда в играх и бенчмарках на установленных производителем частотах видеокарта начинает подвисать и демонстрировать пресловутые "фризы"!

Как выяснилось, с подобными проблемами столкнулись многие владельцы предварительно разогнанных видеокарт GeForce 7900 GTX: подробное описание их страданий и реакции производителей приводит сайт PC Perspective.

Самое забавное, что "фризы" появлялись как на видеокартах с приростом частот не более 20 МГц для ядра и памяти соответственно, так и на видеокартах с разгоном ядра на 40 МГц. Если не вдаваться в подробности, nVidia переложила всю вину на партнёров: оказывается, те якобы не уложились в отведённые рамки дозволенного повышения частот. При этом очевидно, что общих рекомендаций по назначению таких частотных пределов не существует - конкретные частоты, обеспечивающие стабильную работу, определяются в ходе предварительного тестирования. Судя по всему, в погоне за "небумажным анонсом" процедуре тестирования было уделено слишком мало внимания, и на рынок отправились видеокарты с выставленными "на авось" повышенными частотами. Какие-то экземпляры работали нормально, какие-то демонстрировали "фризы" даже при незначительном повышении частот относительно штатных 650/1600 МГц.

Исправлять проблему предстоит партнёрам nVidia. Будут ли они менять нестабильно работающие видеокарты на новые, сказать сложно. В качестве простого и недорогого решения они могут просто уменьшить "геометрическую дельту", которая для G71 равна 50 МГц: блок геометрии работает на частоте 700 МГц. Дельта корректируется, прошивается в BIOS, и видеокарта снова готова работать на повышенных частотах. Увы, некоторой частью производительности при этом иногда приходится поплатиться ради стабильности.

В принципе, такие откровения несколько омрачают отношение к перспективам разгона видеокарт GeForce 7900 GTX: оверклокер рано или поздно "упрётся" в ту частоту, на которой возникают "фризы", и далее оптимальный разгон будет определяться по сложной методике, изложенной руководителем нашей Лаборатории в этой статье. Просто вместо GeForce 7600 GT будет выступать более дорогая GeForce 7900 GTX. Безусловно, этот путь изберут только самые дотошные, кто-то предпочтёт ограничиться умеренными частотами стабильной работы без "фризов" и уменьшения дельты.

Есть в этой истории и "свет в конце туннеля". Существует вероятность, что описанные проблемы в большей степени коснулись видеокарт GeForce 7900 GTX из первых партий, и nVidia внесла некоторые коррективы в выпускаемые сейчас видеокарты или сам чип G71. Возможно, новые ревизии тех и других будут демонстрировать лучшую предрасположенность к разгону без "фризов". Если же нет, то нужно приучать себя к мысли, что отныне результативный разгон видеокарт nVidia будет сопряжён с многоэтапным определением оптимальных частот и вычислением наилучшего значения дельты.

(С)_www.overclockers.ru
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома"
Дружно переходим по ссылке
Строим город для имхо!!!
grogi вне форума