Forum Index > Hardware > Plăci video > Plăci video / Видеокарты #2

#0 by BV (Power User) (0 mesaje) at 2010-04-05 11:56:30 (763 săptămâni în urmă) - [Link]Top
Обсуждение выбора видеокарт. Полезная информация и советы






Ссылки на обзоры современных видеокарт:

nVidia

nVidia




ÎnchideЗакрыть

AMD/ATi

AMD/ATi



ÎnchideЗакрыть

Какую видеокарту купить? nVidia GeForce или ATi Radeon?

Читать далее...

Производительность видеокарты довольно сильно зависит от центрального процессора (CPU). Видеокарта не использует CPU для своих нужд, однако CPU должен подготовить данные и переслать их видеокарте на обработку. Кроме того, CPU в играх отвечает за искусственный интеллект, расчёты физики (в случае PhysX/Bullet, без использования ускорения на видеокарте) и звука. Чтобы видеокарта раскрывала весь свой потенциал, необходимо иметь в системе быстрый двух(или более)ядерный CPU, RAM 6GB+ и качественный (не-noname) БП от 500W.

Выбор производителя -- это тема для постоянных споров в сети. И у ATi и у nVidia есть свои преимущества и недостатки. Сейчас, в целом, наблюдается паритет. Ни у одного производителя нет существенных преимуществ.

Актуальные технологии

nVidia GeForce
Описание архитектуры Pascal (GP104) (DirectX 12 Feature Level 12_1, NV CUDA/OpenCL/DirectCompute): http://www.ixbt.com/video4/geforce-gtx1080-part1.shtml

nVidia PhysX: http://www.nvidia.com/object/physx_new.html
nVidia VXGI: http://www.nvidia.ru/object/vxgi-technology-ru.html
nVidia 3D Vision Surround: http://www.nvidia.com/object/3D_Vision_Surround_Technology.html

ATi Radeon
Описание архитектуры Graphics Core Next 1.3 (Polaris) (DirectX 12 Feature Level 12_0, AMD APP/OpenCL/DirectCompute): http://www.ixbt.com/video4/radeon-rx-480-part1.shtml

AMD Open Physics Initiative: http://www.amd.com/us/press-releases/Pages/amd-announces-new-levels-of-realism-2009sept30.aspx
ATi (AMD) Eyefinity: http://sites.amd.com/us/underground/products/eyefinity/Pages/eyefinity.aspx
AMD TrueAudio: http://www.amd.com/en-us/innovations/software-technologies/trueaudio


3D API

Важным параметром для видеокарты является поддерживаемое 3D API (от Application Programming Interface). Чем выше поддерживаемая версия, тем, конечно же, лучше. Каждая новая версия API привносит значительные улучшения в процесс разработки 3D-приложений. Это и упрощение разработки, и увеличение производительности, и новые возможности. На данный момент доминируют две спецификации 3D API: OpenGL и Direct3D, остановимся на каждой поподробнее:

• OpenGL (Open Graphics Library):
Эта спецификация была создана в 1992-м году компанией SGI, как попытка стандартизировать интерфейсы графических драйверов. Ведь из-за разных реализаций под разное оборудование разработка 3D-программ сильно осложнялась. OpenGL стал первым стандартом в 3D, его начали поддерживать графические драйвера и на него стали ориентироваться 3D-игры. Версия 1.x продержалась довольно долго (промежуточные 1.x версии вносили незначительные улучшения), вплоть до 2004 года, когда техническое отставание OpenGL стало наиболее заметно, и от 3Dlabs потребовали обновления спецификации. Так появился OpenGL 2.0, с высокоуровневым языком GLSL (OpenGL Shading Language), позволяющим писать вершинные и пиксельные шейдеры.

В период с 2004-го по 2010-й OpenGL обновился до версии OpenGL 4.0 (а так же, до версии OpenGL 3.3 для DirectX10-совместимых видеокарт), сопоставимой по возможностям с Direct3D 11 API от MS (о нем ниже). За последние годы версия OpenGL получила несколько обновлений минорной версии. На момент 2016-го года актуальной версией является OpenGL 4.5, спецификация которого была представлена 11 августа 2014-го года. В 2015-м году её поддержали nVidia для видеокарт GeForce GTX 4xx-Series+ и AMD (ATi) для видеокарт Radeon HD 7xxx-Series+. Intel на данный момент поддерживает спецификацию OpenGL 4.4 для графики процессоров Skylake: Skylake GT1.

В связи с необходимостью конкурентного ответа на DirectX 12, в 2015-м году консорциум Khronos Group представил идейного (но не технического) наследника OpenGL: Vulkan. По заявлению самой Khronos Group, Vulkan API предназначен для разработки новых, высокоэффективных проектов, где важна скорость работы графической подсистемы.

16 февраля 2016 года была официально представлена первая спецификация Vulkan API. И хотя спецификация API указывала на то, что он будет работать на любом GPU с поддержкой OpenGL ES 3.1/OpenGL 4.x, на деле, поддержка зависела от новых драйверов, которые не обязательно должны быть совместимы со старыми GPU. В итоге, поддержкой этого нового API обзавелись видеокарты nVidia GeForce GTX 6xx-Series+, AMD (ATi) Radeon HD 7xxx-Series+ (Windows)/AMD (ATi) Radeon на архитектуре GCN 1.2+ (Linux) и Intel Skylake+ (Windows)


• Direct3D
Началась история в 1994-м году, в период разработки "революционной" ОС Windows 95. Важным отличием новой ОС от тогда доминирующего в игровой индустрии DOS являлась высокоуровневость. Иными словами, приложения были отгорожены от оборудования программной прослойкой, для упрощения и стандартизации взаимодействия приложений с оборудованием. Естественно, это влияло на скорость работы приложений. В более ранних версиях Windows Microsoft решила вопрос добавлением поддержки 3D API OpenGL. Для Windows 95 было решено разработать собственный аналог, дающий полный доступ к оборудованию, в обход прослойки. Аналог был назван DirectX (direct (англ.) -- прямой, непосредственный). На самом деле, DirectX намного шире OpenGL: он включает набор API не только для работы с 3D, но так же для работы с устройствами ввода, со звуком и с сетью. Многие часто путают DirectX с Direct3D, часть DirectX, отвечающую именно за 3D, как и OpenGL. Корректно сравнивать именно Direct3D с OpenGL.

Первое значительное обновление Direct3D произошло в 2000-м году, когда был выпущен DirectX 8. Direct3D 8 стал первым 3D API, поддерживающим шейдеры для GPU (шейдеры), и это сыграло важную роль в формировании видеокарт. С поддержкой шейдеров, появилась привязка GPU к конкретному 3D API, конкретной версии. Такая привязка сохраняется до сих пор. Следующий за ним Direct3D 9, представленный в декабре 2002-го года, не только значительно расширил возможности шейдеров для GPU, но и привнес новый высокоуровневый язык для их написания, HLSL (High Level Shading Language). В период с 2002-го по 2006-й было выпущено несколько обновлений Direct3D 9, расширяющих возможности шейдеров и упрощающих разработку 3D-программ. В ноябре 2006-го года Microsoft представила DirectX 10, который стал важной вехой в развитии 3D API. Новая спецификация уровняла вершинные и пиксельные шейдеры, а так же добавила новый тип шейдеров -- геометрические. Производители видеокарт, следуя привязке к Direct3D, унифицировали блоки исполнения шейдеров, и обновили архитектуры GPU. Однако, API Direct3D 10 MS сделала доступным только для ОС Windows Vista и выше, что было связано с особенностями программной реализации нового API.

22 июля 2008-го года MS представила новый стандарт Direct3D 11, а 22 октября 2009-го года вышла ОС Windows 7 с нативной поддержкой DirectX 11 (для Windows Vista DirectX 11 так же стал доступен посредством Windows Update). Direct3D 11, помимо расширения возможностей шейдеров и упрощения работы с интерфейсами, привнес несколько значительных новшеств в 3D API: "почти честный" многопоточный рендеринг, тесселяцию и вычислительные шейдеры (GPGPU).

DirectX 12 был представлен 29 июля 2015-го года. Его релиз преследовал две ключевые цели: асинхронность и уменьшение избыточности со стороны драйвера.

Асинхронность в лице второй версии многопточного рендеринга ни что иное, как попытка угнаться за развитием CPU: DirectX разрабатывался в те времена, когда не существовало понятия многоядерности, в его архитектуру было заложена работа с графическим конвейером из одного, основного потока приложения. С приходом многоядерности такой подход перестал удовлетворять, ведь пока одно ядро было полностью занято обработкой сцены, второе простаивало без дела. Конечно, разработчики шли на ухищрения, перекладывая неграфическую работу на простаивающие ядра, но наличие дополнительных ядер практически не ускоряло реальную работу конвейера. Первый сдвиг был предпринят с релизом DirectX 11, где стало возможным составлять списки команд отрисовки из дополнительных потоков, что частично решило проблему "бутылочного горлышка". Однако, исполнение списков команд все еще происходило в главном потоке. Честную асинхронность привнес релиз DirectX 12, где исполнительный конвейер перестал быть привязанным к одному, основному потоку. Таким образом, приложения на DirectX 12 получили возможность эффективно задействовать все ядра многоядерного процессора для отрисовки сцены.

Уменьшение избыточности со стороны драйвера не менее важный шаг в сторону оптимизации работы API, и, как следствие, ускорения конечных приложений. Фактически, DirectX 12 предложил перенести часть работы с данными из драйвера в юзер-код (код, использующий API), а так же убрать избыточные проверки целостности данных, которые привносили дополнительные временные затраты при работе конвейера. Что это дало на практике: юзер-код стал сложнее, ведь теперь управление данными стало его частью, но с другой стороны, такой подход позволил разгрузить центральный процессор, выполнявший ранее избыточную работу, а так же, лучше оптимизировать код под конкретное оборудование.

Последние, менее заметное, но важное изменение в DirectX 12 связано с совместной работой двух и более GPU. Начиная с 12-й версии стало возможно объединять в тандемы GPU разных производителей, делая гибридные связки из видеокарт AMD (ATi) и nVidia, а так же встроенных GPU, включая Intel Graphics.

DirectX 12 стал первым API от MS, способным работать на существующем оборудовании. Однако, не все функции нового API могут работать на старом оборудовании. Разделение поддержки представлено несколькими уровнями "Feature Level". Впервые уровни поддержки "Feature Level" (далее FL) были введены в DirectX 11 с целью упростить запуск новых приложений на старом оборудовании. Если до DirectX 11 создание виртуального устройства Direct3D требовало оборудования с поддержкой соответствующей версии API, то начиная с DirectX 11 стало возможным создавать устройство на оборудовании, поддерживающем только 10-ю, или даже 9-ю версию D3D API. Естественно, чем меньше FL, тем меньше функций способно выполнить оборудование. Так, запущенное D3D 11-приложение на видеокарте класса D3D 9 не сможет задействовать специфичные для D3D 11 функции как, например, вычислительный шейдер. Возвращаясь к DirectX 12, новая версия API привнесла следующие ключевые уровни:

FL 11_0 - самый низкий уровень, поддерживаемый новым API. Ему соответствуют GPU nVidia на базе архитектур Fermi и Kepler
FL 11_1 - этот уровень соответствует GPU AMD (ATi) на архитектуре GCN 1.0, а так же GPU Intel поколений Haswell и Broadwell
FL 12_0 - базовый уровень D3D12. Ему соответствуют GPU nVidia первого поколения Maxwell, GPU AMD (ATi) на архитектуре GCN 1.1 и выше, Intel поколения Skylake
FL 12_1 - наиболее полный уровень поддержки. На данный момент ему соответствуют GPU nVidia второго поколения Maxwell и GPU на базе архитектуры Pascal

Ту надо сделать оговорку, что конечная поддержка DirectX 12 зависит от оборудования и драйверов. Так, даже если у GPU FL равен 11_0, это не гарантирует поддержки DirectX 12.

Констатируя вышесказанное, подведем итоги: DirectX 12 поддерживают nVidia GeForce GTX 500-Series+, AMD (ATi) Radeon HD 7xxx-Series+ и Intel Haswell+

Таблица поддержки DirectX 12 различными GPU


Сравнение DirectX 11 vs DirectX 12 (ВИДЕО):
AMD (ATi) Radeon R9 Fury X
Microsoft DirectX 12 vs. DirectX 11 benchmark | Ashes of the Singularity

nVidia GeForce GTX 980
Hitman – DX11 vs. DX12 @ GTX 980 Benchmark & Graphics Comparison


На что еще обращать внимание?

Как не ошибиться в выборе? Как купить подходящую к системному блоку видеокарту? Сейчас ассортимент видеокарт огромен, и покрывает все сегменты рынка, от самых бюджетных "офисных" решений до решений top-класса, ценой с тремя нулями. Многие производители, стремясь выделиться, идут на различные уловки, вроде неоправданного увеличения памяти, или установки красивых, но малоэффективных СО.

Несколько начальных советов:
1. Определитесь, для чего именно вам нужна видеокарта
2. Сколько денег вы готовы на неё потратить
3. Соответствует ли ваша система выбранной видеокарте(ам):
3.1 Достаточно ли мощный ЦП?
3.2 Достаточно ли мощный БП?
3.3 Разъем видео AGP или PIC-Ex?
3.4 Достаточно ли свободного места в системном блоке?
4. Не покупайтесь на большой объем памяти у бюджетных видеокарт, и обращайте внимание на разрядность шины памяти, а так же на тип памяти.
Смотрите раздел ЧаВо для более детальной информации.


Линейка современных видеокарт по производительности:
(на основе вышеприведенных обзоров, данного раздела и личного опыта)
МИНИМУМ Radeon R7 360 < Radeon R7 370 < Radeon RX 460 < GeForce GTX 950/GeForce GTX 1050 < GeForce GTX 960/GeForce GTX 1050 Ti < Radeon R9 380 < GeForce GTX 1060 3GB/Radeon R9 380X/Radeon RX 470 < GeForce GTX 970/GeForce GTX 1060 6GB/Radeon R9 390/Radeon RX 480 < Radeon R9 390X < GeForce GTX 980 < Radeon R9 Nano < Radeon R9 Fury < GeForce GTX 980 Ti/GeForce GTX 1070 < Radeon R9 Fury X < GeForce GTX Titan X < GeForce GTX 1080 < GeForce GTX 1080 Ti < TITAN X Pascal МАКСИМУМ

Другие сравнительные таблицы производительности видеокарт:
Desktop GPU Performance Hierarchy Table на THG

ÎnchideЗакрыть


Категории видеокарт:

Читать далее...

*требует обновления

• Low-End:
Видеокарты этой категории обычно берутся для офисных компьютеров или HTPC-систем. Большинство моделей не способно показывать сколь-нибудь приемлемую производительность в современных 3D-играх, и годятся только для ускорения интерфейса Aero да воспроизведения HD-видео посредством DXVA (DirectX Video Acceleration).

Видеокарты стоимостью около 50 у.е.
Идеальный выбор для HTPC. Кроме чрезвычайно низкой цены, отличаются малым TDP, тихостью (большинство комплектуется пассивной СО), компактностью и неприхотливостью.
nVidia GeForce:
ATi Radeon:

Видеокарты стоимостью от 50 до 100 у.е.
Карты так же отличаются малым TDP, но уже снабжаются активной СО, которая может занимать до двух слотов. Некоторые видеокарты так же требуют дополнительное питание 6-pin PCI-Ex. На таких видеокартах можно кое-как поиграть на минимальных/средних настройках в современные 3D-игры
nVidia GeForce:
ATi Radeon:

• Middle-End:
Минимальный выбор для геймера.

Видеокарты стоимостью от 100 до 135 у.е.
"Почти Middle-end". На таких видеокартах уже можно комформтно играть на средних в большинство современных 3D-игр, а в некоторые игры даже на максимальных. Однако, карты этого уровня не отличаются тихим нравом и могут занимать достаточно много места в системном блоке.
nVidia GeForce:
ATi Radeon:

Видеокарты стоимостью от 135 до 190 у.е.
Ценовая категория Mainstream. Видеокарты обеспечивают разумную производительность за разумные деньги.
nVidia GeForce:
ATi Radeon:

Видеокарты стоимостью от 190 до 250 у.е.
Это уже почти Hi-End (точнее, является несколько урезанным/ограниченным вариантом Hi-End'а), со всеми вытекающими. С видеокартами этой категории можно поиграть на максимальных настройках в большинство современных 3D-игр.
nVidia GeForce:
ATi Radeon:

• Hi-End:
Бескомпромиссная производительность. Эта категория для геймеров-энтузиастов

Видеокарты стоимостью от 250 до 350 у.е.
Максимальные настройки в 95% современных 3D-игр, с комформным FPS. Видеокарты отличаются высоким TDP, шумной СО и большими габаритами.
nVidia GeForce:
ATi Radeon:

Видеокарты стоимостью от 350 у.е. и выше
Максимальные настройки в 99% современных 3D-игр. Лучшие показатели только у тандемов CrossFire/SLI из Hi-End карт
nVidia GeForce:
ATi Radeon:

ÎnchideЗакрыть


ЧаВо:

Читать далее...

Q: Какие параметры видеокарты определяют её производительность?
A: Прежде всего, это количество потоковых процессоров (ALU, другие названия: AMD(ATi) Stream Processors/nVidia CUDA Cores). Потоковые процессоры определяют количество параллельных вычислений, которые может выполнить графический чип за один такт. Подобные вычисления используются для исполнения шейдерных программ графического конвейера, а так же, для вычислений общего назначения.
Второй важный параметр, это битность (ширина) шины памяти. Этот параметр определяет скорость обмена информацией между GPU и VRAM, что значительно влияет на производительность видеосистемы в целом.
Третий важный параметр -- частоты графического чипа и памяти. Чем выше частоты, тем больше операций может выполнять графический чип за такт, тем выше конечная производительность, и вместе с тем, выше потребляемая мощность.
Среди прочих параметров:
  • поколение памяти (GDDR3/GDDR4/GDDR5)
  • количество TMU (блоков текстурирования)
  • количество ROP (блоков растеризации)
  • объем VRAM (видеопамяти)
  • система охлаждения
Важно помнить, что сравнение по этим параметрам имеет смысл только в пределах одной серии видеокарт от одного производителя. Архитектурные отличия разных серий могут при одинаковом количестве функциональных блоков выдавать различную производительность.

Q: Говорят, что чем больше видеопамяти у видеокарты, тем она быстрее. Правда ли это?
A: Это правда только отчасти. В большинстве случаев, игры и 3D приложения ограничиваются определенным, не превышающим объемы среднеценовых решений порогом занимаемой видеопамяти. Объем занимаемой памяти может меняться с разрешением, таким образом, больший объем оправдан для ультра-высоких разрешений и многомониторных конфигураций. Но следует учитывать, что с ростом разрешения увеличивается и нагрузка на графический чип, следовательно, эффективно задействовать больший объем видеопамяти могут только наиболее производительные графические чипы.

Q: Какие интерфейсы применяются в современных видеокартах? Могу ли я к одной видеокарте подключить два и более мониторов?
A: Внутренние интерфейсы:
К материнским платам видеокарты подключаются через слот PCI-Ex 4-16х. Последняя цифра обозначения слота указывает на спецификацию пропускной способности, где 4x сооответствует 16 ГБит/с в обе стороны, а 16x -- 64 ГБит/c для стандарта PCI-Ex 1.1. Новые стандарты PCI-Ex удваивают пропускную способность всех спецификаций, в всязи с этим имеет смысл отдавать предпочтение видеокартам, поддерживающим наиболее новый стандарт PCI-Ex (на 2013-й год -- PCI-Ex 3.0). Производительные видеокарты так же комплектуются разъемами питания PCI-Ex 6-Pin и PCI-Ex 8-Pin на 75 и 150 Ватт соответственно. Будьте внимательны при выборе видеокарты, требующей дополнительного питания. Ваш БП должен иметь соответствующие коннекторы. Есть возможность подключения через переходники типа Molex-PCIEx.

Внешние интерфейсы:
Большинство современных видеокарт комплектуется выходами DVI-I (цифровой и аналоговый сигналы) и HDMI. Может присутствовать так же DisplayPort. Видеокарты бюджетного класса дополнительно комплектуются аналоговым выходом D-Sub (известный, как VGA). Выбор интерфейса зависит от того, какие интерфейсы поддерживает устройство вывода. Большинство современных мониторов комплектуется входом/кабелем D-Sub, нарастает популярность цифровых интерфейсов DVI и HDMI. Телевизоры, как правило, оснащаются входом HDMI, реже DisplayPort. Если монитор поддерживает несколько типов интерфейсов, стоит отдавать предпочтение цифровым DVI-I/DVI-D и HDMI. Цифровые интерфейсы не требуют промежуточных цифро-аналоговых преобразований и более устойчивы к электромагнитным помехам.

Многомониторные конфигурации:
Существует две конкурирующие технологии для многомониторных конфигураций. У AMD/ATi эта технология называется Eyefinity. Её поддерживают видеокарты, начиная с семейства HD 5000. В зависимости от модели видеокарты, технология позволяет подключить в единой конфигурации от трех до шести мониторов. У nVidia аналогичная технология носит название 3D Vision Surround, но в отличие от Eyefinity, до видеокарт 600-й серии, технология работала для трех и более мониторов только в SLI-конфигурациях. Тем не менее, двухмониторные конфигурации не требуют наличия данных технологий и будут работать на большинстве видеокарт.

Q: Какой дискретной видеокарты будет достаточно для офисного компьютера?
A: Для офисных задач подойдет любая современная дискретная видеокарта. Если в задачи не входит работа с 3D графикой, лучше всего брать бюджетные решения с пассивной системой охлаждения. Обычно, подобные видеокарты располагаются в ценовом диапазоне до 100$.

Q: На какой видеокарте можно собрать HTPC-систему?
A: Основной задачей HTPC-систем является воспроизведение мультимедийного контента, так что подойдет любая современная видеокарта низкопрофильного форм-фактора.

Q: Я хочу смотреть HD/FullHD-видео, какую видеокарту мне выбрать?
A: Все современные видеокарты комплектуются аппаратным декодером видео: у AMD он носит название Unified Video Decoder, у nVidia -- PureVideo Decoder. Это означает, что приложения, использующие специализированные API (DXVA/XvBA), полностью разгружают ЦП и используют аппаратный блок видеокарты для декодирования видеопотока. Качество декодирования одинаково на всех моделях видеокарт, и зависит только от версии самого аппаратного модуля, и от программного обеспечения на ПК. На данный момент, среди видео-проигрывателей, использующих аппаратный декодер, наиболее распространен Media Player HC.

Q: Как правильно выбрать блок питания для моей видеокарты?
A: Мощность:
Для того, что бы видеокарта могла стабильно работать в нагрузке, мощность блока питания должна быть не менее пикового значения для видеокарты (обычно соответствует заявленному TDP) + TDP остальных системных устройств, как процессор, мат. плата, жесткие диски, дополнительные кулеры и другие ресурсоемкие комплектующие. Как правило, производители видеокарт заранее вычисляют "среднюю температуру по больнице", и в описании видеокарт рекомендуют БП с конкретным минимальным показателем мощности. Но следует учесть два фактора: 1. выходная мощность БП определяется его КПД. Дешевые БП имеют КПД ниже 80%, что практически означает заметно более низкий порог по мощности для системного блока -- часть мощности рассеивается в виде тепла; 2. Системный блок с множеством ресурсоемких компонентов может не уложиться в рекомендуемые производителем рамки, надежнее всего рассчитать приблизительную мощность системы, воспользовавшись документацией по комплектующим и калькулятором, добавив к получившемуся значению процентов 20-30, в зависимости от ваших планов на апгрейд

Интерфейсы:
При покупке БП для дискретной карты, требующей дополнительного питания, обращайте внимание на наличие соответствующих коннекторов типа PCIex 6-pin/PCIex 8-pin в комплекте. Либо будьте готовы освободить несколько 4-pin Molex для подключения переходников. Переходники Molex-PCIex, как правило, поставляются вместе с видеокартами

Q: Что такое CrossFire/SLI?
A: CrossFire, как и SLI -- программно-аппаратные технологии, позволяющие объединять в тандем (конфигурацию из нескольких GPU) видеокарты одного типа. Это означает, что на материнских платах, поддерживающих установку нескольких видеокарт по указанным технологиям, вы можете выстроить тандем, где каждая видеоката будет динамически выполнять часть вычислений над рендером общей сцены, что в конечном итоге даст значительный прирост производительности по отношению к однопроцессорной конфигурации. Аппаратно, кроме поддержки со стороны материнской платы, для подключения видеокарт в тандем требуется специальный контактный мостик, который подключается ко всем видеокартам с внешней стороны и обеспечивает дополнительную производительность за счет расширения канала синхронизации PCI-Express. CrossFire -- название технологии ATi/AMD для видеокарт Radeon, SLI (сокр. от Scalable Link Interface), соответственно, относится к nVidia и их видеокартам GeForce.

Q: Как разогнать видеокарту?
A: Прежде, чем приступить к разгону, убедитесь, что ваше устройство может быть разогнано. В практике разгона существую критерии, позволяющие определить разгонный потенциал устройства. Среди основных критериев можно выделить стабильность работы и напряжение (как следствие, нагрев). Модули памяти имеют характеристику задержки, которая указывается в наносекундах и позволяет получить максимальную рабочую частоту по формуле (1000/задержка) * 2 = (МГц). Это может быть полезно, в случае когда установленные модули памяти работают не на максимальной частоте. Такой запас дает некоторый задел для разгона без риска потери стабильности. Разгон всегда сопряжен с риском перегрева, поэтому необходимо убедиться, что у разгоняемых чипов предусмотрен достаточный теплоотвод. Частотные пределы не фиксированы, и могут варьироваться в пределах одного чипа на десятки, а то и сони мегагерц -- этот показатель напрямую зависит от качества самого чипа. Для выявления рабочего диапазона следует вооружиться рядом графических тестов, и обязательно следить за показаниями температуры. Так же, для разгона потребуется некоторый инструментарий. Наиболее популярное ПО для разгона и мониторинга:

Разгон/датчики:
MSI Afterburner
Gigabyte OC Guru
ASUS GPU Tweak
EVGA PRECISION X
SAPPHIRE TriXX

Информация:
TechPowerUp GPU-Z

Стресс-тесты:
FurMark
Unigine Valley Benchmark
3dmark 13

Повышать рабочие частоты следует плавно, шагом в один-несколько десятков мегагерц. При появлении признаков нестабильной работы можно несколько поднять уровень напряжения (применить т.н. вольтмод). Желательно ограничиваться 10-15% от установленного производителем значения (диапазон напряжений для памяти можно найти в её спецификации), во избежание выхода устройства из строя.

Q: Какими тестами можно определить производительность видеокарты?
A: ответ будет позже


ÎnchideЗакрыть

пост в процессе обновления, некоторая информация может относится к старым моделям видеокарт

Editat de către BV la 2017-04-03 17:51:47




Mesaj util ?   Da   118 puncte

Top mesaje

By ceekay () (0 mesaje) at 2024-07-06 17:55:07 (19 săptămâni în urmă) - [Link]
#28902 bannyy, TUF e mai mult entry-level. Strix-ul e relativ ok, dar în ultima vreme ei pompează bani în nume şi nu în tehnologie... Strix-ul meu de 17 inch de 4-5 ani în urmă (i7-7700 + GTX1070) a avut nevoie de operaţie plastică, două găuri pentru ventilare, pentru a asigura temperatură optimă pe timp de vară.

Acum stau pe Legion 5 (în octombrie 2 ani), 16", HDR, cu AMD 6800 si RTX3070ti... tare nice, se misca bine, lucrează bine.... Pus RAM până la 32GB, 2NVMe-uri de 2TB... nu se supraîncălzeşte... Din ce este la moment pe piaţă cred că tot Lenovo aş recomanda.




Mesaj util ?   Da   4 puncte

1 2 3 4 5 6 7 8 9 10 ... 1088 1089 1090 1091 1092 1093 1094 1095 1096 1097 1098 1099 1100 1101 1102 1103 1104 1105 1106 ... 1148 1149 1150 1151 1152 1153 1154 1155 1156 1157
<< Precedenta      Următoarea >>

#27401 by gobj (Power User) (0 mesaje) at 2019-04-13 07:25:14 (293 săptămâni în urmă) - [Link]Top
#27399 serega1, "... В общем, посмотрим итоги года с gamegpu.com в этом году и сравним rx 580 8 GB с gtx 1066 , ведь за 2017-18 год они были практически на одном уровне: ..." - вообще-то это не совсем логично. Не проще самому потестить со старым и новым драйвером 1060 и сравнивать ее саму с собой- это куда разумнее чем сравнивать с конкурентом, если ты хочешь узнать как драйвер опускает производительность.


Mesaj util ?   Da   0 puncte
#27402 by serega1 (Uploader) (0 mesaje) at 2019-04-13 07:35:38 (292 săptămâni în urmă) - [Link]Top
#27400 AndyPro, "... - ну так и осталось, RX 480 чуть медленнее. RX580 на пару фпс быстрее, что можно сказать на равне. И оно как было, так и остается. Хотите убедить меня, что 1080Ti уже можно выкидывать? Ну давайте, вперед!))) Я то вижу что производительность не меняется в худшую сторону. ..." - ну так средне бюджетные видеокарты только анонсировали и до сих пор nvidia нужно было избавится от большего количества складских запасов , поэтому до этого времени не выгодно было их отыквивать. Вот через год и посмотрим на общею статистику. Конечно же лишение 10-20 % производительности не превратят видеокарты в тыкву, поэтому хуанг дал возможность запустить игры с трассировкой лучей, чтоб показать ущербность предыдущего поколения.



#27401 gobj, "... #27399 serega1, "... В общем, посмотрим итоги года с gamegpu.com в этом году и сравним rx 580 8 GB с gtx 1066 , ведь за 2017-18 год они были практически на одном уровне: ..." - вообще-то это не совсем логично. Не проще самому потестить со старым и новым драйвером 1060 и сравнивать ее саму с собой- это куда разумнее чем сравнивать с конкурентом, если ты хочешь узнать как драйвер опускает производительность. ..." - не получится так сделать , поскольку видеокарты перестаю получать оптимизацию после выхода нового поколения и чтоб сравнить нужен ориентир по отношению к чему то, то есть они не занижают производительность в старых играх , а только в будущих и актуальных , поэтому их просто не возможно уличить в обмане. Хотя сотрудники Nvidia это даже не скрывают, в общем как и АМД ))


Mesaj util ?   Da   0 puncte
#27403 by AndyProParticipant la concursul Counter-Strike Masters Tournament (Железных дел Мастер) (0 mesaje) at 2019-04-13 08:11:32 (292 săptămâni în urmă) - [Link]Top
#27401 gobj, "... Не проще самому потестить со старым и новым драйвером 1060 и сравнивать ее саму с собой- это куда разумнее чем сравнивать с конкурентом, если ты хочешь узнать как драйвер опускает производительность. ..." - так люди уже протестировали и разницы нифига нет. GTX 970 = R9 290 как и 5 лет назад. Разница в 3-4фпс это погрешность вообще. Можно подумать тут каждый может на глаз отличить 60фпс от 64.

#27402 serega1, "... Конечно же лишение 10-20 % производительности не превратят видеокарты в тыкву ..." - серьезно? 10-20%?))) Вижу вам что-то доказывать это как спорить со свидетелями Иеговы.

#27402 serega1, "... то есть они не занижают производительность в старых играх , а только в будущих и актуальных , поэтому их просто не возможно уличить в обмане. ..." - какие коварные планы! Наверное и рептилоиды в правительстве...

https://youtu.be/30BQ_1vgxQY - сколько раз этот канал проверял эти мифы и ни разу не нашел подтверждения. Я сколько видеокарт нвидия имел и ни разу не видел чтобы производительность ухудшалась со временем, хотя я бенчмарков гоняю много и вижу разницу.


Mesaj util ?   Da   0 puncte
#27404 by serega1 (Uploader) (0 mesaje) at 2019-04-13 08:20:55 (292 săptămâni în urmă) - [Link]Top
#27401 gobj, я не правильно объяснил, они до анонса игры лишают видеокарту оптимизаций и тебе просто не с чем сравнить , в отличии от того, кода занижают производительность с помощью драйвера. С помощью драйвера легко уличить в обмане, поэтому никто этим больше не занимается. К примеру дали нам условную производительность в 60 кадров , а с выходом нового драйвера лишили нас 30 кадров, а в случае с оптимизацией изначально дают нам 30 кадров , что по сути является таким же обманом , но по причине того, что это было сделано до релиза игры, то мы не можем им ничего предъявить ... Вот так нас производители подталкивают к покупке новых видеокарт ...

#27403 AndyPro, я тебе уже кидал ссылку на интервью с сотрудником Nvidia и АМД , где они открыто об этом говорят, а мне больше нечего добавить. я уже и так много чего написал ...

Editat de către serega1 la 2019-04-13 09:04:25




Mesaj util ?   Da   0 puncte
#27405 by AndyProParticipant la concursul Counter-Strike Masters Tournament (Железных дел Мастер) (0 mesaje) at 2019-04-13 10:57:18 (292 săptămâni în urmă) - [Link]Top
#27404 serega1, "... до анонса игры лишают видеокарту оптимизаций и тебе просто не с чем сравнить , в отличии от того, кода занижают производительность с помощью драйвера ..." - почему нет с чем? Ну допустим GTX 970 лишили оптимизации как ты говоришь и почему она тогда на равне с GTX 1060 3Gb и R9 290 в новых играх? Почему она не проигрывает 10фпс или 15фпс? Может потому что никто ничего не занижает?)) Более того GTX 970 в разгоне как GTX 980 в стоке.
https://gamegpu.com/action-/-fps-/-tps/hitman-2-v-directx-12-test-gpu-cpu - и так опа, а она на равне с RX 480 8Gb. Устарелая карта которую якобы топит нвидия? Конечно есть и красные игры где она не так хороша, но это уже особенности архитектуры и оптимизации игры. В среднем целом GTX 970 как была по производительности конкурентом 1060 3Gb и R9 290 так и осталась.


Mesaj util ?   Da   0 puncte
#27406 by gobj (Power User) (0 mesaje) at 2019-04-13 11:24:10 (292 săptămâni în urmă) - [Link]Top
#27404 serega1, "... они до анонса игры лишают видеокарту оптимизаций и тебе просто не с чем сравнить , в отличии от того, кода занижают производительность с помощью драйвера. С помощью драйвера легко уличить в обмане, поэтому никто этим больше не занимается. ..." - так этого никто и не скрывает, что старые архитектуры не оптимизируются под новые игры, а только устраняются выявленные баги. Об этом открыто говорят представители NVIDIA, и где тут обман? Просто речь шла о намеренном занижении драйвером производительности, а тут совсем другое. У АМД, например архитектура особо не менялась длительное время GCN и там, возможно, некоторые оптимизации касались всех итераций этой архитектуры. Думаю после выхода Navi тоже драйвер не будет бустить GCN карты. Это нормальное явление и никто не будет тратить деньги и ресурсы на то что неактуально и не приносит прибыли.


Mesaj util ?   Da   0 puncte
#27407 by AndyProParticipant la concursul Counter-Strike Masters Tournament (Железных дел Мастер) (0 mesaje) at 2019-04-13 11:47:01 (292 săptămâni în urmă) - [Link]Top
#27406 gobj, вполне логично. Тем не менее ошибки исправляются на всех поколениях актуальных видеокарт и по факту производительность более старых карт на хорошем уровне.


Mesaj util ?   Da   0 puncte
#27408 by serega1 (Uploader) (0 mesaje) at 2019-04-13 12:00:57 (292 săptămâni în urmă) - [Link]Top
#27405 AndyPro, да что ты заладил с gtx 970, я же выше уже дал ответ :
#27399 serega1, "... Речь шла про все видеокарты , которые были сняты с производства, поэтому это происходит в среднем очень быстро - год, два если архитектора у поколений разная. ..." -
у maxwell и pascal схожие архитектуры
смотрю что gobj придерживается такого же мнения.


Mesaj util ?   Da   0 puncte
#27409 by V!ckNetParticipant la concursul Fotografi AmatoriDesignerParticipant la concursul Counter-Strike Masters Tournament () (2 mesaje) at 2019-04-13 12:04:28 (292 săptămâni în urmă) - [Link]Top
#27400 AndyPro, "... что 1080Ti уже можно выкидывать? ..." - :rofl:


Mesaj util ?   Da   0 puncte
#27410 by AndyProParticipant la concursul Counter-Strike Masters Tournament (Железных дел Мастер) (0 mesaje) at 2019-04-13 18:45:03 (292 săptămâni în urmă) - [Link]Top
#27408 serega1, "... Речь шла про все видеокарты , которые были сняты с производства ..." - ну то есть GTX 970 все еще поддерживается, так получается? А если ее поддерживают спустя всё это время, то какой можно сделать вывод? Производитель поддерживает свой продукт достаточно долго. Или они должны свои усилия сосредоточить на 780Ti?))) Этот хлам просто продается и с не большой доплатой покупается RX 570, которая за 150 евро выдаст значительно больше фпс.
Какой смысл тратить силы на 780Ti, если у нее банально не хватает видеопамяти чтобы тянуть игры? Ну допустим оптимизируют они драйвера под нее и вместо 30фпс она выдаст 35 фпс и что изменится? Как была уже устарелой так и останется, а финансово они с этого будут иметь только потери.
А у АМД драйвера пилить легко, у них архитектура еще со времен 7970 особо не меняется)) Все что от 7970 до RX 590 одна и та же архитектура грубо говоря. У Нвидии изменения более значительные, за счет этого и прирост производительности каждое поколение есть.


Mesaj util ?   Da   1 puncte
#27411 by Derzkii (User) (1 mesaje) at 2019-04-14 20:50:16 (292 săptămâni în urmă) - [Link]Top
Я как барыга по профессии скажу что покупатель всегда не прав :troll:

Любой на месте "кожаной куртки" делал бы также, оптимизация только под новое, потому что впарить и навариться надо. А если нет, то не заслуживал бы кресло руководителя.

Значит ли это что все должны тихо сидеть и не возникать? Нет, не значит! Также как и ни значит что Nvidia и остальные должны благотворительностью заниматься. Чем больше прибыли тем лучше. Подоили крестьян? Норм. Давай по второму и по двадцатому кругу.

Короче это все старо как мир. Всегда было и будет.


Mesaj util ?   Da   0 puncte
#27412 by Lex81 (User) (0 mesaje) at 2019-04-15 07:10:17 (292 săptămâni în urmă) - [Link]Top
GeForce RTX больше не нужен? Тесты трассировки лучей на ускорителях GeForce GTX 10 и 16 https://3dnews.ru/985788/geforce-rtx-bolshe-ne-nugen-testi-trassirovki-luchey-na-uskoritelyah-geforce-gtx-10-i-16


Mesaj util ?   Da   0 puncte
#27413 by V!ckNetParticipant la concursul Fotografi AmatoriDesignerParticipant la concursul Counter-Strike Masters Tournament () (2 mesaje) at 2019-04-15 10:36:03 (292 săptămâni în urmă) - [Link]Top
#27412 Lex81, "... GeForce RTX больше не нужен? ..." - рассмешил))


Mesaj util ?   Da   0 puncte
#27414 by Lex81 (User) (0 mesaje) at 2019-04-15 18:40:29 (292 săptămâni în urmă) - [Link]Top
#27413 V!ckNet, моей 970 не грозит, хотя что фигня с волосами что отражение лучей как по мне так маркетинговые заманухи, без которых спокойно можно играть


Mesaj util ?   Da   0 puncte
#27415 by V!ckNetParticipant la concursul Fotografi AmatoriDesignerParticipant la concursul Counter-Strike Masters Tournament () (2 mesaje) at 2019-04-15 18:56:07 (292 săptămâni în urmă) - [Link]Top
#27414 Lex81, Eu am încercat la 1070ti, Metro Exodus și BF5 cu RTX, și este diferență în unele scene, se simte diferența... da, se poate de jucat și fără, dar dacă au f ăcut așa posibilitate, de ce să nu o dezvolte, nimeni nu te pune să procuri acum RTX...

să nu fi fost toate aceste fiști de la nVidia, era să fie acum la nivelul de cs 1.6, dacă грубо говоря, așa că totul se face spre bine))) dar prin ce metode și cum, asta deja e altă întrebare, dar bine că se mișcă ceva.


Mesaj util ?   Da   0 puncte
#27416 by AndyProParticipant la concursul Counter-Strike Masters Tournament (Железных дел Мастер) (0 mesaje) at 2019-04-15 20:17:30 (292 săptămâni în urmă) - [Link]Top
#27415 V!ckNet, я в метро включил и нифига разницы не увидел)) Сцена правда не очень подходит, надо солнце чтобы было. А без него вообще ничего не заметно. За то фпс в 3 раза меньше очень даже виден :D


Mesaj util ?   Da   1 puncte
#27417 by V!ckNetParticipant la concursul Fotografi AmatoriDesignerParticipant la concursul Counter-Strike Masters Tournament () (2 mesaje) at 2019-04-17 23:14:48 (292 săptămâni în urmă) - [Link]Top
https://www.overclock3d.net/news/gpu_displays/radeon_navi_gpu_specifications_leak/1

#27416 AndyPro, да, но всеравно есть что то... ноль - не назовешь, а падение фпс, зто уже другое дело, будем ждать дальше, че будет)


Mesaj util ?   Da   0 puncte
#27418 by UrSok (User) (0 mesaje) at 2019-04-20 14:39:22 (291 săptămâni în urmă) - [Link]Top
Привет, ребят, недавно поставил новую видяху, gigabyte gaming oc pro rev1 rtx 2060. Так вот, играю я в радугу и после где-то 30-50 минут игры электрический звук появляется, как только минимизирую игру все норм. Первый раз, когда это случилось я не обратил внимание и как я понял видяха просто отрубилось, поскольку экран погас, без выключения пекарни. Второй раз не рискнул, просто выключил нахер игру. Что посоветуете?

Shit Sound
ÎnchideЗакрыть



Mesaj util ?   Da   0 puncte
#27419 by V!ckNetParticipant la concursul Fotografi AmatoriDesignerParticipant la concursul Counter-Strike Masters Tournament () (2 mesaje) at 2019-04-20 15:43:22 (291 săptămâni în urmă) - [Link]Top
#27418 UrSok, электрошокер :D

проверь все провода, вытаскивай видяху, посмотри, поставь заново... мало ли


Mesaj util ?   Da   0 puncte
#27420 by UrSok (User) (0 mesaje) at 2019-04-20 15:47:57 (291 săptămâni în urmă) - [Link]Top
#27419 V!ckNet, Вроде посмотрел провода, все хорошо. Попробую заново поставить тогда.


Mesaj util ?   Da   0 puncte
#27421 by RSIProductionMuzician (Uploader) (0 mesaje) at 2019-04-26 20:32:01 (291 săptămâni în urmă) - [Link]Top



Mesaj util ?   Da   1 puncte
#27422 by AndyProParticipant la concursul Counter-Strike Masters Tournament (Железных дел Мастер) (0 mesaje) at 2019-04-26 22:39:22 (291 săptămâni în urmă) - [Link]Top
https://youtu.be/5bHyCGsNxe0 - RX 570 тащит. Кто тут говорил что это не так? Она просто унижает 1050Ti и 1650. А за их стоимость ведь можно купить RX 580 4Gb...
В своё время когда они стоили как 1060 нафиг они не нужны были, но за нынешнюю цену они крайне хороши.


Mesaj util ?   Da   2 puncte
#27423 by V!ckNetParticipant la concursul Fotografi AmatoriDesignerParticipant la concursul Counter-Strike Masters Tournament () (2 mesaje) at 2019-05-03 02:39:19 (290 săptămâni în urmă) - [Link]Top
https://www.overclockers.ua/news/hardware/2019-05-02/124302/


Mesaj util ?   Da   0 puncte
#27424 by V!ckNetParticipant la concursul Fotografi AmatoriDesignerParticipant la concursul Counter-Strike Masters Tournament () (2 mesaje) at 2019-05-24 16:14:29 (287 săptămâni în urmă) - [Link]Top
https://www.ixbt.com/news/2019/05/24/radeon-rx-3080-2560.amp.html


Mesaj util ?   Da   1 puncte
#27425 by Leonn_24 (Power User) (0 mesaje) at 2019-06-04 22:08:35 (285 săptămâni în urmă) - [Link]Top
Всем привет! помогите пожалуйста с таким явлением, Sapphire RX480 не крутятся кулера после загрузки винды
карта доходит до 50~53 градуса кулера по прежнему стоят
косяк драйвера или проблема в чем-то другом?


Mesaj util ?   Da   0 puncte

1 2 3 4 5 6 7 8 9 10 ... 1088 1089 1090 1091 1092 1093 1094 1095 1096 1097 1098 1099 1100 1101 1102 1103 1104 1105 1106 ... 1148 1149 1150 1151 1152 1153 1154 1155 1156 1157
<< Precedenta      Următoarea >>

Forum Index > Hardware > Plăci video > Plăci video / Видеокарты #2


Navigare rapidă:


Comunitatea digitală din Moldova. Să adunăm și să organizăm conținutul autohton de pe întreg internet pe un singur site web.