Рейтинг@Mail.ru
Перейти к содержанию

Уважаемые посетители! Если у вас возникают проблемы с входом, регистрацией или сменой пароля, обращайтесь в эту тему (там можно писать без регистрации) с указанием где возникла проблема - на сайте или форуме.

Авторизация  
Roman

Ati vs Nvidia

Какая у Вас видео карта?  

192 пользователя проголосовало

  1. 1. Какая у Вас видео карта?

    • Ati
      89
    • Nvidia
      111


Рекомендуемые сообщения

[b]2 NarayanCat[/b]

[i]эти настройки просадят хоть 128, хоть 256МВ видеопамяти... тут уже дело будет не в памяти, а в производительности, ИМХО ))[/i]
Вот именно, что всего лишь ваше ХО :). НА 128 Мб такие настройки невозможны в принципе.

[b]2 Tommy[/b]

[i]У меня вопрос к EF'у ... шейдеры где быстрее?[/i]
Вопрос, если судить не по-ламерски, как вышеотметившиеся товарищи (:lamer:), очень сложный. В целом, немного быстрее R420, но именно что немного и естественно, что из-за частоты, хотя это в любом случае не оправдание для NV. Но если девелоперы будут применять рекомендации NV, то производительность у решений будет почти равная, но все же NV чуть-чуть отстанет. Зато она лидирует в нововведениях и сильно. Те же шейдеры 3.0 доступны уже в NV40, а у ATI они если и появятся, то осенью - как самый ранний срок, а реалистичный - весна 2005 :razz:. Для игрока лучше будет R420, если он не поклонник NVIDIA. А для "энтузиаста" и разработчика - NV40, причем без вариантов.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
[quote name="Strange"]Ага, а потом все дружно удивились когда 6800U замечательно слил кое-где даже заторможенному X800Pro, не говоря уже о XT ;)[/quote]Ну так... Йопть... Две недели не зря прошли - не так ли? ведь до конца не было известно о частотных характеристиках данных решений. Ещё раз говорю - если бы уровнять частоты - они будут на уровне... ИМХО конечно. Но пока я тоже склоняюсь в сторону ATi.
EF'у
Вот почитай эту ветку...
[url=http://www.itc.ua/forums/thread.phtml?ID=19210&vall=1&sort=]http://www.itc.ua/forums/thread.phtml?I ... ll=1&sort=[/url]
Я думаю повеселишься неслабо... Я читаю, когда у меня настроение плохое. Особенно посты Серги. :-D Желательно сначала(снизу вверх :wink: ).

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
[offtopic]Я бы почитал, но это долго. Кроме того, мне есть где таких же читать :).[/offtopic]

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Ха-ха он говорит "немного" быстрее(ну разумеется из-за частоты - а как-же еще :rotfl: :lamer:) - ну да, всего-лишь в отдельных случаях процентов на 40 - lol! PS3.0 уже не раз говорилось что нах он ща не нужен, да и не будет нужен в ближайший год-два.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
[i]PS3.0 уже не раз говорилось что нах он ща не нужен, да и не будет нужен в ближайший год-два.[/i]
Кем "говорилось" то? Такими же долбо**ами? :dn:

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Вот ведь фанаты, блин... В реале наверно убили б друг друга.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
2 Enemy First
Сотрудниками АТИ во первых, остальной общественностью во 2-х.
Да по-моему и последнему долб**бу уже должно быть понятно что до использования ps3.0 еще как до луны.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Новый Unreal движок тестили именно на NV и там уже есть поддержка S3.0. :wink:

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Ага, только вот чую что разница с 2.0 будет примерно такая-же как в FarCry [img]http://forums.gamemag.ru/images/smiles/icon_wink.gif[/img]
Когда кстати этот Анрыл еще выходит...

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
>>Ага, только вот чую что разница с 2.0 будет примерно такая-же как в FarCry
Когда кстати этот Анрыл еще выходит...
Да нет, тут вроде все честно. Другое дело, что отличие 2.Х от 3.0 может и не быть существеного.
2 EF
Я, конечно, понимаю, что словарный запас ограничен, но я предпочел бы не видеть мата, даже если он полу-зацензорен.
p.s. Ты можешь тут лопнуть от натуги, расшибится о стену и т.д. Карты Nvidia от этого лучше не станут.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
[quote name="Enemy First"][i]PS3.0 уже не раз говорилось что нах он ща не нужен, да и не будет нужен в ближайший год-два.[/i]
Кем "говорилось" то? Такими же долбо**ами? :dn:[/quote]
Зачем же так грубо..!!!! А что касается PS3.0 то о целесообразности ее использования в данный момент сомневаются многие***, то что она не актуальна в данный момент пожалуй согласятся многоие тока слепые и ярые "ФАНАТЫ" нвидиа будут данное решение поддерживать, а точнее восхволять :stupid: !!
Что касается ATI то они тоже будут поддерживать PS3.0 тока всему свое время!!!
*** могу дать пару ссылок там все тихническим языком описывается что к чему и почему айти не ставит полную поддержку PS3.0 в данный момент!!!

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Гость
[quote]Для игрока лучше будет R420, если он не поклонник NVIDIA. А для "энтузиаста" и разработчика - NV40, причем без вариантов.[/quote]
Значит Ati опять рулит.

А шейдеры 3.0 небольшой плюс, при том, что производительность на ниском уровне.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Первый поезд уже приехал, ждем когда он приедет к нам
[quote]Очередной рекорд состоялся! Но относится он не к высочайшей производительности, а к супер скорости японских продавцов. Спустя всего неделю после официального анонса, видеокарта на базе новейшего VPU ATi X800 Pro появилась на прилавках страны восходящего солнца. Производитель сего чуда удивляет значительно меньше, кому как не Sapphire быть первым, всё-таки сказывается особая приближённость к императору :-)

Но вернёмся к самой виновнице торжества, здесь всё вполне стандартно: частоты 475/900 МГц, 256 Мб GDDR III, 12 пиксельных конвееров и выходы D-Sub/DVI/TV. Комплект поставки не изобилует какими-то особенными «вкусностями», стандартные переходники с удлинителями, диск с драйверами и утилитами, игра Tomb Raider, да ставший уже традиционным купон Half-Life2, собственно вот и всё богатство.
Теперь поговорим о втором (после самой карты) интереснейшем моменте, о первичной стоимости, которая варьируется в пределах $488-549… Что и говорить, весьма не мало, однако к выходу X800 XT цены должны упасть и достигнуть положенного уровня в $400.[/quote]
[img]http://www.3dnews.ru/documents/news5/20040511_sapphire-x800pro_1.jpg[/img]
[img]http://www.3dnews.ru/documents/news5/20040511_sapphire-x800pro_2.jpg[/img]
[img]http://www.3dnews.ru/documents/news5/20040511_sapphire-x800pro_3.jpg[/img]

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
[b]2 Strange[/b]

[i]Сотрудниками АТИ во первых, остальной общественностью во 2-х.[/i]
:lol: "Сотрудники АТИ" могут идти в... баню какую-нибдь хотя бы :gigi:. Они готовят чип, который, если у оно получится, конечно, будет поддерживать 3.0 и выйдет еще в этом году. Так кому они баки заливают насчет того, что 3.0 бесполезны? Таким вот ламоватым фанатам :lol:.
А "общественность" говорит другое:
[url=http://www.gamers-depot.com/interviews/dx9b/001.htm]http://www.gamers-depot.com/interviews/dx9b/001.htm[/url]

[b]2 GUUD[/b]

[i]я предпочел бы не видеть мата, даже если он полу-зацензорен.[/i]
Ну и молодец. И что дальше? Всем по струнке встать? :lol:

[b]2 Dave[/b]

Давайте ваши ссылки - посмеюсь хоть.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Гость
Сколько эта карточка будет стоить? Не самая крутая, а средненькая и выше из этой серии.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
2 EF
Тебя уже просто смешно слушать, о "ламоватый фанат" нВидиа.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
В зеркало гляньте - вот кто клоун то :lol:.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
2EF
В конкурентном чипе NV40 реализована поддержка уже следующей версии пиксельных шейдеров. В R420 подобной технологии нет. Т.е. в самое ближайшее время нас ожидает серьезная маркетинговая война - NVIDIA будет убеждать всех в крайней необходимости поддержки пиксельных шейдеров 3.0 уже для сегодняшнего железа, а ATI будет резонно возражать, аргументируя свою позицию тем фактом, что даже нынешние шейдеры 2.0 во всей своей красе реализованы только в одной игре - "Far Cry". Зато как реализованы! До выхода долгостроев "DOOM3" и "Half-Life2" проект от малоизвестной Crytek уже успел стать культовым.

Надо признать, разработчики игр серьезно отстают по времени внедрения новых технологий в свои проекты. И на то есть объективные причины - время создания одной игры может занимать 3-5 лет, тогда как время смены поколений графических чипов - 9 месяцев. Вспомним, впервые шейдеры 2.0 были продемонстрированы в революционном ядре R300 (Radeon 9700), который вышел 20 месяцев назад. И только сейчас мы можем хоть где-то на них полюбоваться.

Возвращаясь к Pixel Shader 3.0, стоит отметить пару-тройку тонких моментов:
Технология пиксельных шейдеров 3.0 будет поддержана в следующей версии API Microsoft DX (DirectX9c), которая выйдет примерно в начале июня;
По словам многих разработчиков игр шейдеры 3.0 не сделают графику краше. Не существует эффектов, которые возможно описать шейдерами 3.0, но нельзя реализовать шейдерами 2.0.
Можно ли добиться роста производительности перейдя на шейдеры 3.0 – большой вопрос. От предыдущих версий они отличаются, в основном, полной поддержкой условных переходов (ветвлений). Проблема в том, что результат ветвления очень трудно предсказать, а в случае ошибочного прогноза весь конвейер графического процессора приходится перезапускать с огромными потерями производительности.
Первой игрой с ее поддержкой скорее всего станет "DOOM3";
Идеологически, многое зависит от небезызвестной компании Futuremark, а точнее от того, будет ли встроен в 3DMark2004 тест "Pixel Shader 3.0". Если да, то можно будет измерить эффективность реализации технологии в чипе NV40 (вряд ли она будет высокой и даже хотя бы приемлемой), если нет - ATI получит в свои руки еще один аргумент в пользу преждевременности технологии.
До выхода 3DMark2004 осталось совсем немного времени. Подождем и посмотрим.
[url=http://www.3dnews.ru/video/ati-radeon-x800xt/index04.htm]http://www.3dnews.ru/video/ati-radeon-x ... ndex04.htm[/url]
2EF:Читай авсоь найдешь знакомые буквы!!

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Кстати в ФарКрае шейдеров 2.0 как говорят и нет практически, почти все сделано с помощью 1.1. По крайней мере на форуме iXBT на эту тему было довольно подробное обсуждение с достаточно убедительной аргументацией ;)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
2 EF
На себя глянь, уже который год шута из себя строишь ;)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
может эти шэйдеры 3.0 и пригодятся нам годика через 2 ;)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Я о том-же... не раньше точно - потому как у нас в запасе еще есть как говорится шейдеры 2.Х версии - а сколько под этим Х их еще пройдет одним изготовителям железа и Мелкософт только известно...

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Гость
[offtopic]А в играх 64 битность процев будет играть хоть какую-то роль?[/offtopic]

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
[b]2 Dave[/b]

Мурзилок не читаю :dn:. Мне обещали технический ресурс, а не слова малопонимающего человека. Вот по моему линку самые настоящие девелоперы высказались. Может вам перевести надо? :D
[url=http://www.gamers-depot.com/interviews/dx9b/001.htm]http://www.gamers-depot.com/interviews/dx9b/001.htm[/url]

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
[quote name="Strange"]Никак - Ti4200 у мя уж нетути давно =) Ток в 2003 давно специально сравнивал очки... Хотя не исключаю возможности победы Ti в 2001м.
2 Auron
А при чет тут нафиг Ти4600 в самом деле? - ясен пень что в голом DX8 или 7 он обгонит - у него частоты не в пример выше чем у Ти4200 - и стоил он невпример выше Ти4200, [/quote]



Нет, вы не поняли что я имел ввиду, принцип сравнения такой GF4 4600 >> FX5600, GF 4 Ti4200 < Ti4600, значит Ti 4200 > FX5600. Конечно примерно, так как не нашел обзоров сравнении именно FX 5600 с Ti 4200(только с 4600) вот и пришллось так сравнить. Что тут непонятного и где тут демагогия? Я не точен потомучто не считал маиематически там проценты итп, но как я писал ранее Ti4200 8X немного лучше урезаной FX5600 :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Для публикации сообщений создайте учётную запись или авторизуйтесь

Вы должны быть пользователем, чтобы оставить комментарий

Создать учетную запись

Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!

Регистрация нового пользователя

Войти

Уже есть аккаунт? Войти в систему.

Войти
Авторизация  

  • Последние посетители   0 пользователей онлайн

    Ни одного зарегистрированного пользователя не просматривает данную страницу

×