Игровые карты на компьютер


Игровые видеокарты для ПК 2022 года

NVIDIA или AMD, GTX или RTX? Покупать сейчас или ждать новое поколение? Подобные этим вопросы не дают покоя, когда подходит время апгрейда. Чтобы помочь вам решить хотя бы часть из них, мы составили список из лучших на данный момент видеокарт.

NVIDIA

NVIDIA GeForce RTX 3090 Ti

GPU – GA102 | Ядра CUDA – 10,752 | Память – 24GB GDDR6X | Шина – 384-bit

Плюсы:

  • Непревзойденная мощь
  • Большой запас памяти
  • Идеальна для разрешения 4K

Минусы:

  • Не по карману большинству геймеров
  • Потребляет много энергии

GeForce RTX 3090 Ti была создана для энтузиастов, которые не приемлют компромиссов и готовы платить за удовольствие обладания самой мощной видеокартой в мире.

Действительно, здесь установлен передовой графический процессор, а перечень поддерживаемых технологий занимает целую страницу. Видеокарта с легкостью справится с любыми современными играми при разрешении 4K с активированной трассировкой лучей (особенно, если при этом воспользоваться функцией DLSS). В числе недостатков видеокарты – запредельно высокая цена, неуемное энергопотребление и большие габариты.

NVIDIA GeForce RTX 3090

GPU – GA102 | Ядра CUDA – 10,496 | Память – 24GB GDDR6X | Шина – 384-bit

Плюсы:

  • Очень мощная
  • Большой объем памяти
  • Хороша как для игр, так и для профессиональных задач

Минусы:

  • Очень дорогая

Nvidia GeForce RTX 3090 стоит на 500 долларов дешевле, чем GeForce RTX 3090 Ti, при этом не сильно проигрывает старшей модели в мощности. Это отличная видеокарта для игр в разрешении 4K и 1440р, а также для решения профессиональных задач, вроде обработки видео и 3D-моделирования.

Вместе с тем, она все еще очень дорогая, особенно, если учесть, что найти видеокарту по рекомендованной розничной цене нелегко. Адаптер потребляет на 100 Вт меньше энергии по сравнению с 3090 Ti, что существенно разгрузит ваш блок питания. И позаботьтесь о наличии просторного корпуса, способного вместить габаритную трехслотовую видеокарту.

NVIDIA GeForce RTX 3080 Ti

GPU – GA102 | Ядра CUDA – 10,240 | Память – 12GB GDDR6X | Шина – 384-bit

Плюсы:

  • Одна из лучших геймерских видеокарт
  • Поддержка современных технологий рендеринга и визуализации

Минусы:

  • Запаса памяти впритык для игр в 4K
  • Наличие 12-пинового коннектора питания

3080 Ti создана для геймеров, поэтому здесь есть поддержка всех современных технологий, позволяющих ощутить непревзойденный опыт в играх и стриминге. В их числе и DLSS, и трассировка лучей, и Nvidia Reflex, и энкодер для лучшей передачи изображения через стриминг, и Resizable BAR, и многое другое.

Мощности видеокарты хватает для запуска игр с максимальными настройками в 4K разрешении и с DLSS: она обеспечивает более 60 fps во всех современных ААА-тайтлах. Вы можете рассчитывать на то, что этот графический адаптер обеспечит вас высокой производительностью на несколько лет.

NVIDIA GeForce RTX 3080

GPU – GA102 | Ядра CUDA – 8,960 | Память – 10/12GB GDDR6X | Шина – 320/384-bit

Плюсы:

  • Мощнее, чем RTX 2080 Ti
  • Поддерживает современные технологии
  • Хороша для 1440р и 4K

Минусы:

  • Маловато памяти для игры в высоком разрешении
  • 12-контактный разъем питания

GeForce RTX 3080 обгоняет RTX 2080 Ti приблизительно на 15%, при этом новая видеокарта обладает большим запасом функций в сравнении с представительницей предыдущего поколения.

С этим видеоадаптером все еще можно играть в разрешении 4K, и нет таких игр, с которыми он не справился бы в 1440р, однако с активацией трассировки лучей вам придется идти на компромиссы в виде снижения настроек. А использование новомодного 12-контактного разъема питания вынудит вас искать соответствующий переходник или заняться апгрейдом блока питания.

NVIDIA GeForce RTX 3070 Ti

GPU – GA104 | Ядра CUDA – 6,144 | Память – 8GB GDDR6X | Шина – 256-bit

Плюсы:

  • Лучший выбор для 1440р
  • Малошумная

Nvidia разработала GeForce RTX 3070 Ti в качестве «ответа» ближайшему конкуренту в лице AMD RX 6800. Ответ оказался спорным: модель обходит соперницу в разрешении 4K, но немного уступает в 1440р и 1080р. Впрочем, с активацией трассировки лучей и DLSS адаптер от Nvidia одерживает безоговорочную победу.

Это хорошая видеокарта, если вы не планируете играть в разрешении 4K, для которого ее возможностей становится маловато, и под этим мы подразумеваем необходимость идти на компромиссы в виде снижения настроек или частоты кадров. С другой стороны, мы бы рекомендовали немного доплатить и взять RTX 3080.

NVIDIA GeForce RTX 3070

GPU – GA104 | Ядра CUDA – 5,888 | Память – 8GB GDDR6 | Шина – 256-bit

Плюсы:

  • Подходит для игры в 1440р
  • Эффективная СО
  • Компактная компоновка

Минусы:

  • 12-пиновый коннектор
  • Слабовата для 4K

RTX 3070 хороша, если вы не собираетесь гнаться за максимальными настройками и высоким разрешением. С этой видеокартой можно комфортно играть в 1440р, и она поддерживает все современные технологии Nvidia, включая RTX, DLSS, Resizable BAR и так далее. По производительности она сравнивается с RTX 2080 Ti – флагманом предыдущего поколения, что очень неплохой результат для видеокарты миддл класса.

Вместе с тем, эта модель компактнее старших представителей своего поколения, менее шумная и более энергоэффективная. К недостаткам можно отнести наличие 12-пинового разъема питания, хотя и это не должно стать большой проблемой, учитывая, что производитель кладет в комплект переходник для блоков питания, не оборудованных соответствующими коннекторами.

NVIDIA GeForce RTX 2080 TI

GPU – TU102 | Ядра CUDA – 4,352 | Память – 11GB GDDR6 | Шина – 352-bit

Плюсы:

  • Серьезный гейминг – 4K/60fps
  • Быстрее, чем Titan V за 3000 долларов
  • Все прелести рейтрейсинга и ИИ

Минусы:

  • Консервативный ценник

Вот он, истинный некстген. GPU на архитектуре Turing, суперсовременный и непревзойденный «царь графона». В то время как RTX 2080 и 2070 Super способны выдать производительность уровня GTX 1080 Ti, эта карта оставляет их далеко позади, обеспечивая вам 4K/60fps во всех современных играх, исключая лишь самые требовательные.

Неважно, как вы относитесь к новомодной (для ПК гейминга) технологии трассировки лучей, в будущем от нее никуда не денешься, а RTX 2080 Ti уже к нему готова. С выходом консолей PS5 и Xbox Series X, поддерживающих трассировку лучей, игр с соответствующими графическими эффектами становится все больше, и вам рано или поздно придется сделать апгрейд.

NVIDIA GeForce RTX 3060 Ti

GPU – GA104 | Ядра CUDA – 4,864 | Память – 8GB GDDR6 | Шина – 256-bit

Плюсы:

  • Идеальна для игры в разрешении 1440р и 1080р
  • Тихая
  • Энергоэффективная
  • Относительно доступная

GeForce RTX 3060 Ti могла бы стать новой «народной» видеокартой, если бы не дефицит и высокие цены на устройства в этом сегменте компьютерной техники. Тем не менее, владельцы модели могут рассчитывать на отличную производительность в разрешении 1440р и 1080р, причем для 1080р можно даже не задействовать DLSS при активации трассировки лучей – видеокарта справится и так.

В отличие от «монстров» энергопотребления в лице старших моделей, 3060 Ti энергоэффективная и тихая. По производительности ее можно сравнить с более дорогой RTX 2080 SUPER, а купить эту видеокарту мы бы рекомендовали тем, кто наконец-то решился перейти с видеокарты семейства Pascal на что-то новенькое.

NVIDIA GeForce RTX 2080 SUPER

GPU – TU104 | Ядра CUDA – 2,944 | Память – 8GB GDDR6 | Шина – 256-bit

Плюсы:

  • Отличный гейминг в 4K
  • Архитектура RTX Turing

Минусы:

  • Недалеко ушла от RTX 2070 Super

Дни RTX 2080 были сочтены, как только Nvidia призналась в скором выпуске Super-версии.

Новая видеокарта оказалась мощнее GTX 1080 Ti благодаря большему количеству ядер и более быстрой памяти. Проблема лишь в том, что ее младшая сестра RTX 2070 Super практически настолько же хороша по цене и мощности, так что подчас можно задуматься, зачем же нужна RTX 2080 Super?

И все же, последняя обладает самой лучшей производительностью с трассировкой лучшей на рубеже до 1000 долларов.

NVIDIA GeForce RTX 2070 SUPER

GPU – TU104 | Ядра CUDA – 2,560 | Память – 8GB GDDR6 | Шина – 256-bit

Плюсы:

  • Производительность на уровне GTX 1080 Ti
  • Адекватный ценник
  • Трассировка лучей

Минусы:

  • Неловкая близость к RX 5700 XT

RTX 2070 Super была рождена для победы на новыми чипами Navi. Поскольку AMD брала прицел на старую RTX 2070, Nvidia выпустила ее обновленную версию – дешевле и немногим уступающую 2080.

Она быстрая. Действительно быстрая. Из этой карты можно выжать впечатляющие 4K, далеко обгоняющие лучший результат «Паскаля» на GTX 1080 Ti. А учитывая тот факт, что стоит 2070 на пару сотен долларов дешевле 2080, вы можете представить, насколько это выгодное предложение.

NVIDIA GeForce RTX 3060

GPU – GA106 | Ядра CUDA – 3,584 | Память – 12GB GDDR6 | Шина – 192-bit

Плюсы:

  • Большой объем памяти
  • Низкое энергопотребление

Минусы:

  • Запас памяти избыточен

GeForce RTX 3060 может похвастать низкой рекомендуемой розничной ценой, а также хорошей производительностью в 1080р и 1440р в сочетании с целыми 12 ГБ видеопамяти. Последнее, впрочем, спорно, так как этот объем избыточен для игры в разрешении ниже чем 4K. Хотя, с другой стороны, памяти мало не бывает.

Видеокарта позволяет играть с трассировкой лучей, при условии, что вы готовы на компромиссы и не против включить DLSS – без интеллектуального сглаживания RTX 3060 мало на что способна с активированным RT. В любом случае, это хорошая «народная» карта, с которой у вас не возникнет проблем в большинстве актуальных ААА-тайтлов.

NVIDIA GeForce RTX 2060 SUPER

GPU – TU106 | Ядра CUDA – 2,176 | Память – 8GB GDDR6 | Шина – 256-bit

Плюсы:

  • Хорошо разгоняется
  • Поддерживает RTX и DLSS 2.0
  • 8 ГБ видеопамяти

Минусы:

  • Недешевая

RTX 2060 – минимально необходимая видеокарта для входа в волшебный мир трассировки лучей (несмотря на то, что технология еще несовершенна, игры с RTX действительно преображаются). Что еще важнее: благодаря DLSS 2.0 с этой видеокартой можно играть в разрешении 1440р без потери фпс и с максимальными настройками графики.

Если выбирать между RTX 2060 и RTX 2060 SUPER, то мы бы рекомендовали вторую: у нее лучше разгонный потенциал, больше памяти и выше частоты, а значит, она дольше будет оставаться актуальной в сравнении с младшей версией.

NVIDIA GeForce RTX 3050

GPU – GA106 | Ядра CUDA – 2,560 | Память – 8GB GDDR6 | Шина – 128-bit

Плюсы:

  • Хорошая производительность в 1080р
  • Низкое энергопотребление
  • Большой объем памяти

Минусы:

  • Слишком слабая для игр с трассировкой лучей

GeForce RTX 3050 – это бюджетный вариант для игровой системы. От схожих по производительности видеокарт миддл сегмента из предыдущего поколения эту модель отличает поддержка большего количества актуальных технологий.

Холодная и тихая, видеокарта способна обеспечить приемлемую частоту кадров в разрешении 1080р. Однако она слишком слаба для игр с трассировкой лучей, хотя имеющиеся тензорные ядра не ощущаются лишними – их можно использовать для активации DLSS и последующего прироста fps.

NVIDIA GeForce GTX 1660 TI

GPU – TU116 | Ядра CUDA – 1,536 | Память – 6GB GDDR6 | Шина – 192-bit

Плюсы:

  • Фреймрейт уровня GTX 1070
  • Цена уровня GTX 1060
  • Все прелести архитектуры Turing

Потребительская видеокарта Nvidia использует все шейдерные преимущества архитектуры Turing серии 20xx, но лишена рейтрейсинга и интеллектуальной обработки, что выделяют линейку RTX среди прочих GPU. Тем не менее учитывая малое количество игр, с толком применяющих трассировку лучей, эта потеря становится не такой уж и существенной. И она становится еще меньше, если вспомнить, какой ценой для производительности ПК дается вся эта красота.

Разогнанные карты, вроде STRIX GTX 1660 Ti, слишком дороги, ближе к RTX 2060 и RX 5700, но по РРЦ у GTX 1660 Ti соперников нет.

NVIDIA GeForce GTX 1660

GPU – TU116 | Ядра CUDA – 1,408 | Память – 6GB GDDR5 | Шина – 192-bit

Плюсы:

  • Все еще лучше, чем Polaris
  • Архитектура Turing

Минусы:

  • Не такая уж и «новая»
  • Polaris выигрывает по стоимости

С тех пор как на рынке в сегменте до 300 долларов появились GPU на Polaris, позиции GTX 1660 серьезно пошатнулись. У карты Nvidia остается небольшое преимущество в производительности, что и обеспечивает ей лидерство, компенсируя разницу в стоимости. Пока еще.

Тратя деньги, мы рассчитываем получить за них максимально высокий фреймрейт, и GPU от «зеленых» по-прежнему удовлетворяют наши нужды. К тому же, они снаряжены новыми технологиями Integer Scaling (масштабирование без размытия) и Low Latency Mode (режим низких задержек), которых лишены видеокарты AMD.

NVIDIA GeForce GTX 1650 SUPER

GPU – TU116 | Ядра CUDA – 1,280 | Память – 4GB GDDR6 | Шина – 128-bit

Плюсы:

  • Компромиссный вариант для 1080р
  • Преимущества архитектуры Turing
  • Энергоэффективная и тихая

Минусы:

  • Видеопамяти в обрез

GeForce GTX 1650 Super хватает для игр в разрешении 1080р или ниже. Если вы готовы снижать настройки графики, то сможете получить высокий fps, а поддержка технологии DLSS со стороны архитектуры Turing позволит еще немного улучшить производительность.

Вместе с тем, 4 ГБ видеопамяти – откровенно мало для современных ААА игр. Это придется учитывать, если вы захотите скачать пак высококачественных текстур для любимого тайтла. Утешением может стать впечатляющая энергоэффективность видеокарты, что дает простор для создания тихих и экономичных игровых сборок.

NVIDIA GeForce GTX 1050 Ti

GPU – GP107 | Ядра CUDA – 768 | Память – 4GB GDDR5 | Шина – 128-bit

Плюсы:

  • Недорогая
  • Запускает все современные игры

Минусы:

  • Скоро станет неактуальной

Если RTX 2060 – это минимальный порог входа в игры с трассировкой лучей, то GTX 1050 Ti – минимально необходимая видеокарта для игр в принципе. Конечно, с ней придется идти на компромиссы: она подходит для гейминга в разрешении не выше 1080р, а о максимальных настройках графики лучше забыть.

С другой стороны, она очень дешевая (хотя могла бы быть еще дешевле) и запустит все современные видеоигры – даже из ААА-сегмента. Однако следует отметить, что с выходом нового поколения консолей ее производительности перестанет хватать.

AMD

AMD Radeon RX 6900 XT

GPU – Navi 21 | Ядра RDNA – 5,120 | Память – 16GB GDDR6 | Шина – 256-bit

Плюсы:

  • Видеокарта из топ-сегмента
  • Доступный ценник

Минусы:

  • Нет поддержки DLSS

AMD Radeon RX 6900 XT – прямой конкурент Nvidia GeForce RTX 3080 Ti, лишь немного проигрывая ей в мощности. С этим видеоадаптером AMD возвращается в сегмент топовых видеокарт, впервые с момента выхода R9 Fury X.

По чистой производительности эта модель дышит в спину Nvidia GeForce RTX 3090, но с показателями в реальных задачах все немного сложнее, так как у Nvidia есть козырь в виде технологии DLSS. С другой стороны, «красная» видеокарта стоит дешевле «зеленых» конкурентов, что может стать весомым аргументом в ее пользу.

AMD Radeon RX 6800 XT

GPU – Navi 21 | Ядра RDNA – 4,608 | Память – 16GB GDDR6 | Шина – 256-bit

Плюсы:

  • Хорошая производительность в 4K
  • Большой запас памяти
  • Относительно доступный ценник

Минусы:

  • О трассировке лучей в играх можно забыть

AMD Radeon RX 6800 XT бросает вызов Nvidia GeForce RTX 3080, находясь примерно на одном уровне с конкурентом, но обладая большим запасом памяти, что очень хорошо для игр в разрешении 4K и 1440р. Видеокарта малошумная, поддерживает стандарт HDMI 2.1, дает прирост производительности при использовании с процессорами семейства AMD Ryzen 5000 – отличное решение для энтузиастов, особенно, если учесть демократическую цену.

Все это справедливо при одном условии: вы готовы отказаться от трассировки лучей в играх. Увы, по части поддержки RT видеокарты AMD проигрывают решениям от Nvidia, поэтому при включении соответствующих эффектов вы столкнетесь с сильным падением частоты кадров. Стоит учитывать этот нюанс.

AMD Radeon RX 6700 XT

GPU – Navi 22 | Ядра RDNA – 2,560 | Память – 12GB GDDR6 | Шина – 192-bit

Плюсы:

  • Превосходит конкурентов от Nvidia
  • Доступная цена

Минусы:

  • Проигрывает в играх с трассировкой лучей

AMD обещает, что Radeon RX 6700 XT способна обогнать не только GeForce RTX 3060 Ti, но даже RTX 3070, при более скромном ценнике, нежели у конкурентов от Nvidia. Это впечатляющие показатели, но только в том случае, если забыть о трассировке лучей, где «красные» карты традиционно находятся в позиции отстающих, хоть эта модель и оснащена аппаратной поддержкой RT.

Это отличный выбор для игр в разрешении 1440р. Видеокарта компактная, малошумная и «холодная». У нее 12 ГБ видеопамяти, что позволяет использовать текстуры высокого разрешения, и разумный расход энергии. Однако по соотношению производительности на доллар это не самое экономное решение, так что мы рекомендуем тщательно взвесить все «за» и «против».

AMD Radeon RX 6600 XT

GPU – Navi 23 | Ядра RDNA – 2,048 | Память – 8GB GDDR6 | Шина – 128-bit

Плюсы:

  • Отличное решение для 1080p
  • Аппаратная поддержка трассировки лучей

Минусы:

  • Проигрывает конкурентам в играх с RT

AMD Radeon RX 6600 XT – это разумная альтернатива видеоускорителям типа Nvidia GeForce RTX 3060/Ti, которая демонстрирует хорошую производительность в играх при разрешении 1080р. Говорить о чем-то более серьезном нет смысла, но видеокарта на это и не претендует: AMD не заявляла, что RX 6600 XT достойно покажет себя, например, в 4K.

Традиционно для видеокарт AMD, эта модель слабо справляется с играми с трассировкой лучей – сказывается наличие у конкурентов поддержки DLSS. У AMD на этот случай есть ответ в виде FSR (FidelityFX Super Resolution), но эта технология не так хорошо отлажена, как DLSS, и поддерживается меньшим количеством игр.

AMD Radeon RX 5700 XT

GPU – Navi 10 | Ядра RDNA – 2,560 | Память – 8GB GDDR6 | Шина – 256-bit

Плюсы:

  • Немногим уступает RTX 2070 Super
  • Дешевле, чем RTX 2070 Super
  • Обходит RTX 2060

Минусы:

  • Референсная карта ШУМИТ и греется

Благодаря агрессивному ценообразованию у AMD получился настоящий монстр, способный не только заставить напрячься RTX 2070 Super, но и позволяющий при этом еще и сэкономить. Да, карта от Nvidia мощнее, но разница невероятно мала.

Самое приятное в этом то, что за свои деньги RT 5700 XT почти приводит нас в обетованную землю хай-эндовых GPU, бросая вызов «зеленой» шайке. Еще бы она (в референсном виде) не была такой шумной и жгучей.

AMD Radeon RX 6500 XT

GPU – Navi 24 | Ядра RDNA – 1,024 | Память – 4GB GDDR6 | Шина – 64-bit

Плюсы:

  • Современная архитектура
  • Конкурентноспособная цена

Минусы:

  • Скромный запас памяти

Главный недостаток AMD Radeon RX 6500 XT – небольшой объем памяти: с 4 ГБ можно забыть о достойной производительности в играх при разрешении выше 1080р. Конечно, о трассировке лучей в этом случае не стоит даже мечтать. Прибавьте к этому 64-битную шину, что также влияет на эффективность видеокарты, и получите вариант, на который следует соглашаться только в крайнем случае.

AMD, однако, берет доступным ценником и отсутствием альтернатив в бюджетном сегменте. По большей части, это карта-«затычка», но за неимением лучшего сойдет и она.

AMD Radeon RX 5700

GPU – Navi 10 | Ядра RDNA – 2,304 | Память – 8GB GDDR6 | Шина – 256-bit

Плюсы:

  • Тот же чип, что и у XT версии
  • Во многом схожа с RTX 2060 Super

Минусы:

  • Шумная и греется

Сразу за своей XT товаркой следует RX 5700, работающая на том же чипе, но с порезанными частотами. Кстати, это сказывается и в разгоне: даже в умелых руках она все равно будет уступать старшей сестре.

И это печально, ведь RX 5700 — отличная мощная видеокарта с умеренной ценой и производительностью, способной посрамить Nvidia в своем ценовом сегменте.

AMD Radeon RX 5600 XT

GPU – Navi 10 XLE | Ядра RDNA – 2,304 | Память – 6GB GDDR6 | Шина – 256-bit

Плюсы:

  • Лучше, чем RTX 2060 в DX12
  • Грамотный дизайн печатной платы
  • Хорошая производительность в 1080р и 1440р

Видеокарта AMD Radeon RX 5600 XT хорошо показывает себя в 1080р и чуть хуже – в 1440р, а в разрешении 4K продемонстрирует скромные результаты. Ее основным преимуществом является новая архитектура RDNA на 7-нм техпроцессе, за счет чего геймеров ждут впечатляющие результаты в DX12 приложениях, где видеокарта уверенно обходит конкурента из лагеря «зеленых» – NVIDIA GeForce RTX 2060.

Однако, возможно вы задумаетесь о том, что неплохо было бы немного добавить и приобрести более производительную RX 5700 XT.

AMD Radeon RX 5500 XT

GPU – Navi 14 | Ядра RDNA – 1,408 | Память – 4/8GB GDDR6 | Шина – 128-bit

Плюсы:

  • Дешевая

Минусы:

  • 4-гигабайтная версия откровенно слаба

Для игры в разрешении 1080р AMD Radeon RX 5500 XT станет неплохим вариантом. Но только в том случае, если вы выберете модель с 8 ГБ видеопамяти: увы, 4-гигабайтная версия показывает себя не самым лучшим образом даже в этом разрешении.

Видеокарта станет неплохой альтернативой устаревшей Radeon RX 580 и на равных тягается с Nvidia GeForce GTX 1650 Super, вплотную подбираясь даже к GTX 1660. В бюджетном сегменте многое зависит от цены, и AMD Radeon RX 5500 XT готова рвать и метать, расталкивая конкурентов.

AMD Radeon RX 590

GPU – Polaris 30 | Ядра GCN – 2,304 | Память – 8GB GDDR5 | Шина – 256-bit

Плюсы:

  • Прекрасная цена
  • Серьезная мощь

Минусы:

  • Немного уступает картам Turing
  • Вскоре может потерять актуальность

Последнее поколение «поларисов» подарило нам 12нм чипы, обладающие внушительной геймерской мощью с весьма скромным ценником. Они немного уступают видеокартам GTX Turing, но все еще способны удивить. Правда, порой их может припекать…

Последнее уже давно является проблемой «красных» GPU, но вы вполне можете отыскать карту с дополнительным охлаждением, которое решит это недоразумение.

AMD Radeon RX 580

GPU – Polaris 20 | Ядра GCN – 2,304 | Память – 8GB GDDR5 | Шина – 256-bit

Плюсы:

  • Превосходная карта для 1080p
  • 8GB памяти
  • Отличный ценник

Стоимость RX 580 снизилась, и она очутилась в бюджетном сегменте. Ее ценник, возможно, для многих остается недостаточно привлекательным, однако видеокарта оправдывает каждый вложенный в нее рубль. В конце концов, всего пару лет назад она была флагманом AMD.

Собственно, она и сейчас способна выдать впечатляющий результат в 1080p и даже 1440p.

AMD Radeon RX 570

GPU – Polaris 20 | Ядра GCN – 2,048 | Память – 4GB GDDR5 | Шина – 256-bit

Плюсы:

  • Отличная цена
  • Серьезная мощь для 1080p
  • Шина шире, чем у 1050 Ti

Минусы:

  • Лишь немногим уступает RX 580

Великолепная бюджетная видеокарта, способная своим присутствием вогнать в краску GTX 1050 Ti. На рынке существует 8GB-версия RX 570, однако, наценка за лишние 4 гигабайта вплотную приближает ее к стоимости RX 580, которая сейчас, нужно признать, выглядит очень привлекательно.

И все же, 4GB RX 570 способна справиться с самыми высокими настройками при разрешении 1080р. Настоящий бюджетный герой.

Как выбрать игровую видеокарту?

При выборе видеокарты для игрового ПК следует руководствоваться рядом критериев. В первую очередь – ценой: в нынешних реалиях стоимость графического адаптера чаще всего оказывает наибольшее влияние на принятие решения.

Выбирая между Nvidia и AMD, стоит учитывать, что «зеленые» видеокарты предлагают флагманскую производительность с трассировкой лучей и технологией интеллектуального сглаживания DLSS. AMD, в свою очередь, делает ставку на более привлекательную цену, а ее карты лучше работают с процессорами AMD. К гонке между производителями видеочипов уже присоединилась Intel, поэтому скоро возможности выбора расширятся.

Отталкивайтесь от разрешения монитора и желаемых настроек графики. Чем выше разрешение, тем мощнее видеокарта вам потребуется; это же справедливо для любителей передвинуть все ползунки графических настроек вправо. В свою очередь, если вы планируете играть в нетребовательные сетевые тайтлы, можно задуматься о бюджетной видеокарте либо же встроенном в процессор видеочипе (APU).

Что касается видеопамяти, то здесь справедливо утверждение «чем больше – тем лучше», особенно, если речь идет об игре в разрешении 4K. Хотя и тут есть нюансы: слабый видеочип в сочетании с большим объемом памяти не выдаст впечатляющую производительность. Другими словами, нужен баланс: не поленитесь изучить характеристики и тесты видеокарты, чтобы не купить по ошибке «офисную затычку» с большим объемом ненужной ей памяти.

Любая видеокарта потребляет энергию, поэтому важно убедиться, что ваш блок питания соответствует аппетитам графического адаптера. Обычно в спецификациях видеокарты указана рекомендуемая мощность блока питания, и если он слабее, чем требуется, лучше позаботиться о замене. Также обратите внимание на размеры видеоадаптера, иначе можете столкнуться с трудностями при попытке установить его в корпус ПК.

Официальные драйверы GeForce | NVIDIA

Автоматические Обновления Драйвера

GeForce Experience автоматически оповещает вас о новых выпусках драйверов NVIDIA. С помощью приложения вы можете обновить драйвер в один клик.

Поиск Драйверов Вручную

Найдите все драйверы GeForce, предоставив информацию о вашей системе.

Product Type: dflt TITAN

Product Series: dflt GeForce MX100 Series (Notebook)

Product: GeForce MX150

Operating System: dflt Windows 10 32-bit

Language: dflt English (US)

Windows Driver Type: DCHStandard

Download Type: AllGame Ready DriverStudio Driver

 

Форум По Драйверам

Возникли вопросы по драйверам? Обсудите их с другими пользователями GeForce на нашем форуме.

Перейти на форум (на английском) >

Драйверы Game Ready И Драйверы Studio

Драйверы NVIDIA специально разработаны, чтобы обеспечить наилучшие возможности как для современных игр, так и для работы в графических приложениях. Геймерам, которым важна поддержка новых игр, патчей и дополнительного контента с первого дня, стоит отдать предпочтение драйверам Game Ready. Если вам в первую очередь важно обеспечить надежность в работе с графикой, в том числе для редактирования видео, анимации, фотографии, графического дизайна и прямых трансляций, оптимальным выбором станут драйверы Studio.Работаете и играете? Не переживайте, любой драйвер обеспечит работу графических приложений и отличные игровые возможности.

Как определить серию и модель видеокарты

Если не установлен драйвер NVIDIA:

  Откройте Диспетчер устройств в Панели управления Windows

  Выберите Видеоадаптеры

  Ниже будет указана серия и модель вашей видеокарты

Если драйвер NVIDIA установлен:

  Нажмите правой кнопкой мыши на рабочем столе и выберите Панель управления NVIDIA

  Нажмите на «Информация о системе» в нижнем левом углу окна

  На вкладке «Дисплей» тип видеокарты указан в колонке «Компоненты»


Windows Driver Type

"Standard" packages are those that do not require the DCH driver components.

"DCH" (Declarative,Componentized,Hardware Support Apps) refers to new packages preinstalled by OEMS implementing the Microsoft Universal Driver paradigm.

DCH drivers cannot be installed over a standard system, and Standard drivers cannot be installed over a DCH system.

To confirm the type of system you have, locate Driver Type under the System Information menu in the NVIDIA Control Panel.

For more information, visit What's new in driver development

Все, GRD, SD

«Все» Показывает все доступные драйверы для выбранного продукта.

"GRD"Драйверы Game Ready обеспечивают лучшие игровые возможности во всех популярных играх. Разработчики драйверов NVIDIA тщательно тестируют как игры на этапе раннего доступа, так и весь дополнительный контент, чтобы оптимизировать производительность, стабильность и функциональность. Эти драйверы сертифицированы лабораторией Microsoft Windows Hardware Quality Labs (WHQL).

"SD" Драйверы Studio обеспечивают лучшие возможности для работы с графикой в популярных творческих приложениях. NVIDIA проводит тщательное тестирование во всех основных приложениях, чтобы обеспечить высочайший уровень производительности, стабильной работы и функциональности. Эти драйверы сертифицированы лабораторией Microsoft Windows Hardware Quality Labs (WHQL).

Nvidia RTX 4090 обзор | PC Gamer

Наш вердикт

Возможно, RTX 4090 и не утонченная, но изящество DLSS 3 и Frame Generation, а также грубое графическое ворчание графического процессора с частотой 2,7 ГГц в совокупности делают игровую карту просто адской.

За
  • Отличная производительность от поколения к поколению
  • Генерация кадров DLSS — это волшебство
  • Сверхвысокие тактовые частоты
Против
  • массивный
  • Цены для ультраэнтузиастов
  • Производительность без 4K ограничена
  • Требования к высокой мощности

Почему вы можете доверять PC Gamer Наши эксперты-рецензенты часами тестируют и сравнивают продукты и услуги, чтобы вы могли выбрать лучшее для себя. Узнайте больше о том, как мы тестируем.

В видеокарте Nvidia GeForce RTX 4090 нет ничего сложного. Это огромный кусок толкателя пикселей, и хотя к тому, что в противном случае могло бы выглядеть как передышка RTX 309, добавлены некоторые дополнительные кривые.0 (откроется в новой вкладке), он по-прежнему имеет эстетику новой видеокарты.

Похоже на какую-то полусатирическую пластиковую модель, созданную для того, чтобы напугать производителей графических процессоров из-за постоянно увеличивающегося размера их карт. Но это не модель и не луна, это авангард всего поколения графических процессоров RTX 40-й серии и наш первый опыт новой архитектуры Ады Лавлейс.

С одной стороны, это адское знакомство с экстремальной производительностью, которую Ада может показать на длинном поводке, а с другой - слегка глухой релиз в свете глобального экономического кризиса, который делает запуск видеокарта для жесткого меньшинства геймеров чувствует себя немного не в своей тарелке.

Это огромный графический процессор, в котором на 170% больше транзисторов, чем даже в невероятно мощном чипе GA102, на котором работала RTX 3090 Ti (откроется в новой вкладке). И, по большей части, это заставляет предыдущую флагманскую карту поколения Ampere выглядеть далеко не в темпе. И это еще до того, как вы столкнетесь с равноправным сочетанием величия и черной магии, которое лежит в основе новой версии DLSS 3.0, разработанной исключительно для Ады.

Но с учетом того, что следующий набор карт серии RTX 40 появится не раньше ноября, и даже тогда они будут графическими процессорами по цене ультра-энтузиастов, маркер, установленный для этого поколения, указывает на экстремальную производительность, но по более высокой цене. Вы можете поспорить с RTX 409.0 по цене 1599 долларов (1699 фунтов стерлингов), что лишь немного больше, чем RTX 3090 — по крайней мере, в долларовом выражении — и примерно на 400 долларов дешевле, чем RTX 3090 Ti.

Хотя нужно сказать, что RTX 3090 Ti была выпущена в другое время, и ее пандемическая цена соответствовала тогдашнему дефициту кремния для ПК и отражала мир, в котором майнинг на GPU все еще был актуален. К счастью, по мере того, как 2022 год подходит к концу, Эфириум, наконец, перешел на доказательство доли (открывается в новой вкладке), и дни алгоритмической работы графических карт для питания его блокчейна прошли.

Теперь мы вернулись к геймерам и создателям контента, которые выбирают графические процессоры для своих систем, так что же им предложит RTX 4090?

Архитектура и характеристики Nvidia RTX 4090

(Изображение предоставлено Nvidia)

Что внутри RTX 4090?

RTX 4090 поставляется с первым графическим процессором Ada Lovelace этого поколения: AD102. Но стоит отметить, что чип, используемый в этой флагманской карте, не является полноценным, несмотря на его и без того чудовищные характеристики.

Тем не менее, в основе лежит 16 384 ядра CUDA, распределенных по 128 потоковым мультипроцессорам (SM). Это на 52% больше, чем у RTX 309.0 Ti GA102 GPU, который сам по себе был полноценным ядром Ampere.

Полный чип AD102 содержит 18 432 ядра CUDA и 144 модуля SM. Это также означает, что вы смотрите на 144 ядра RT третьего поколения и 576 ядер Tensor четвертого поколения. Что, я думаю, означает, что есть много места для RTX 4090 Ti или даже для Titan, если Nvidia пожелает.

Память не сильно изменилась, опять же с 24 ГБ памяти GDDR6X, работающей на скорости 21 Гбит/с, что обеспечивает пропускную способность памяти 1008 ГБ/с.

Изображение 1 из 3

(Изображение предоставлено Nvidia) (Изображение предоставлено Nvidia) (Изображение предоставлено Nvidia)

Swipe to scroll horizontally

L | Кэш L2
Header Cell - Column 0 GeForce RTX 4090 GeForce RTX 3090 Ti
Lithography TSMC 4N Samsung 8N
CUDA cores 16,432 10,752
SMs 128 84
RT Cores 128 84
Tensor Cores 512 336
ROPs 176 112
Boost clock 2,520MHz 1,860MHz
Memory 24GB GDDR6X 24GB GDDR6X
Memory speed 21 Гбит/с 21 Гбит/с
Пропускная способность памяти 1008 ГБ/с 1008 ГБ/с
16 384 КБ | 73 728 КБ 10 752 КБ | 6,144KB
Transistors 76. 3 billion 28.3 billion
Die Size 608.5mm² 628.5mm²
TGP 450W 450W
Price $1,599 | 1699 фунтов стерлингов 1999 долларов США | 1999 фунтов стерлингов

Почти на 1 ГГц быстрее, чем RTX 3090 предыдущего поколения.

Что касается необработанных шейдеров, то в архитектуре Ampere тоже не так уж далеко продвинулись. Каждый SM по-прежнему использует те же 64 выделенных блока FP32, но с вторичным потоком из 64 блоков, который при необходимости можно разделить между вычислениями с плавающей запятой и целыми числами, как это было введено в Ampere.

Вы можете увидеть, насколько похожи две архитектуры с точки зрения растеризации, если посмотрите на относительную разницу в производительности между RTX 3090 и RTX 4090.  

Если игнорировать трассировку лучей и масштабирование, соответствующий прирост производительности будет лишь немного выше. чем можно было бы ожидать от дополнительного количества ядер CUDA, встроенных в GPU AD102. «Немного выше», чем соизмеримое увеличение производительности, тем не менее, показывает, что на этом уровне есть некоторые различия.

Частично это связано с новым производственным процессом 4N, который Nvidia использует для своих графических процессоров Ada Lovelace. Говорят, что по сравнению с процессом 8N Samsung Ampere, процесс 4N, созданный TSMC, обеспечивает либо вдвое большую производительность при той же мощности, либо половину мощности при той же производительности.

Это означает, что Nvidia может быть сверхагрессивной с точки зрения тактовой частоты: RTX 4090 указана с тактовой частотой 2520 МГц. На самом деле мы видели, что наша карта Founders Edition имеет среднюю частоту 2716 МГц в нашем тестировании, что делает ее почти на полный 1 ГГц быстрее, чем RTX 309. 0 предыдущего поколения.

И из-за этого сокращения процесса инженеры Nvidia, работающие с TSMC, втиснули в ядро ​​AD102 невероятные 76,3 миллиарда транзисторов. Учитывая, что графический процессор Ada площадью 608,5 мм² содержит гораздо больше транзисторов, чем 28,3 миллиарда транзисторов кремния GA102, может показаться удивительным, что он намного меньше чипа Ampere площадью 628,4 мм².

(Изображение предоставлено: Будущее)

Тот факт, что Nvidia может продолжать вставлять это постоянно растущее количество транзисторов в монолитный чип и при этом продолжать уменьшать его фактический размер кристалла, является свидетельством мощности передовых технологических узлов в этой сфере. . Для справки: чип TU102 RTX 2080 Ti имел площадь 754 мм² и вмещал всего лишь 18,6 млрд 12-нм транзисторов.

Это не означает, что монолитный GPU может работать вечно, без контроля. Конкурент GPU, AMD, обещает перейти на чиплеты для графических вычислений для своих новых чипов RDNA 3, которые будут выпущены в ноябре. Учитывая, что сложность графического процессора AD102 уступает только 80 миллиардам транзисторов усовершенствованного кремния Nvidia Hopper площадью 814 мм², его производство наверняка будет дорогим чипом. Однако меньшие по размеру вычислительные чиплеты должны снизить затраты и повысить доходность.

На данный момент монолитный подход грубой силы все еще окупается для Nvidia.

Что еще вы делаете, когда вам нужно больше скорости, и вы уже упаковали как можно больше современных транзисторов? Вы втыкаете в пакет еще немного кэш-памяти. Это то, что AMD добилась с большим успехом со своим Infinity Cache, и, хотя Nvidia не обязательно использует какой-то причудливый новый фирменный подход, она добавляет в ядро ​​Ada огромный кусок кэша L2.

Предыдущее поколение, GA102, содержало 6144 КБ общего кэша L2, который находился в середине его SM, и Ada увеличивает его в 16 раз, чтобы создать пул из 98 304 КБ L2 для AD102 SM. Для версии чипа RTX 4090 этот показатель снижается до 73 728 КБ, но это все еще много кеша. Объем L1 не изменился для каждого SM, но поскольку теперь внутри чипа в целом намного больше SM, это также означает, что объем кэш-памяти L1 больше, чем у Ampere.

Но в наши дни растеризация — это еще не все для графического процессора. Как бы вы ни относились к этому, когда Тьюринг впервые представил трассировку лучей в реальном времени в играх, теперь она стала почти стандартной частью компьютерных игр. То же самое можно сказать и об апскейлинге, поэтому то, как архитектура подходит к этим двум дополнительным столпам компьютерных игр, жизненно важно для понимания дизайна в целом.

И теперь все три производителя видеокарт (как странно сейчас говорить о триумвирате…) сосредоточились на производительности трассировки лучей, а также на тонкостях технологий апскейлинга, это стало совершенно новым театром войны между ними.

(Изображение предоставлено Future)

Именно здесь произошли реальные изменения в потоковом мультипроцессоре Ada. Растеризованные компоненты могут быть очень похожими, но ядро ​​RT третьего поколения претерпело большие изменения. Предыдущие два поколения RT Core содержали пару выделенных модулей — Box Intersection Engine и Triangle Intersection Engine — которые вытягивали большую часть рабочей нагрузки RT из остальной части SM при расчете алгоритма иерархии ограничивающих томов (BVH) в основе. трассировки лучей.

Ада представляет еще два отдельных модуля, чтобы разгрузить еще больше работы от SM: механизм микрокарты непрозрачности и механизм микросетки Displaced. Первый значительно ускоряет расчеты при работе с прозрачностью в сцене, а второй предназначен для разбивки геометрически сложных объектов, чтобы сократить время, необходимое для выполнения всего расчета BVH.

К этому добавляется то, что Nvidia называет «такой же большой инновацией для графических процессоров, как неупорядоченное выполнение было для процессоров в 19-м веке».90-х годов». Функция переупорядочивания выполнения шейдеров (SER) была создана для переключения рабочих нагрузок затенения, что позволяет чипам Ada значительно повысить эффективность графического конвейера, когда речь идет о трассировке лучей, путем перепланирования задач на лету.  

Intel работает над этим. на аналогичной функции для своих графических процессоров Alchemist (открывается в новой вкладке), блоке сортировки потоков, чтобы помочь с расходящимися лучами в сценах с трассировкой лучей.И его установка, как сообщается, не требует участия разработчика.На данный момент Nvidia требуется специальный API для интегрировать SER в код игры разработчика, но Nvidia заявляет, что работает с Microsoft и другими над внедрением этой функции в стандартные графические API, такие как DirectX 12 и Vulkan.

(Изображение предоставлено Nvidia)

Это вуду, это черная магия, это темные искусства, и это довольно великолепно.

Наконец, мы подошли к DLSS 3 с его козырем в рукаве: генерацией кадров. Да, DLSS 3 теперь будет не просто повышать масштаб, он будет сам создавать целые игровые кадры. Не обязательно с нуля, а используя возможности искусственного интеллекта и глубокого обучения, чтобы сделать наилучшее предположение о том, как будет выглядеть следующий кадр, если вы действительно собираетесь его визуализировать. Затем он вставляет этот сгенерированный AI кадр перед следующим действительно визуализированным кадром.

Это вуду, это черная магия, это темные искусства, и это довольно великолепно. Он использует усовершенствованные аппаратные блоки внутри тензорных ядер четвертого поколения, называемые Optical Flow Units, для выполнения всех этих расчетов в полете. Затем он использует преимущества нейронной сети для извлечения всех данных из предыдущих кадров, векторов движения в сцене и модуля оптического потока вместе, чтобы помочь создать совершенно новый кадр, который также может включать трассировку лучей и эффекты постобработки.

(Изображение предоставлено Nvidia)

Работая в сочетании с апскейлингом DLSS (теперь называемым DLSS Super Resolution), Nvidia заявляет, что при определенных обстоятельствах ИИ будет генерировать три четверти начального кадра посредством апскейлинга, а затем весь второй кадр с использованием генерации кадров. В целом, по его оценкам, ИИ создает семь восьмых всех отображаемых пикселей.

И это просто поражает мой маленький геймерский разум.

Производительность Nvidia RTX 4090

(Изображение предоставлено Future)

Как работает RTX 4090?

Смотри, это быстро, хорошо. Со всем включенным, с DLSS 3 и генерацией кадров, работающими своим волшебством, RTX 4090 монументально быстрее, чем RTX 3090, которая была до нее. Прямая оценка 3DMark Time Spy Extreme вдвое выше, чем у большого ядра Ampere, и до того, как в него войдут трассировка лучей или DLSS, необработанный кремний также предлагает вдвое большую частоту кадров 4K в Cyberpunk 2077.

Но если вы не качаете монитор 4K, вам действительно следует дважды подумать, прежде чем тратить 1600 долларов на новый графический процессор, не обновляя при этом свой экран. Это потому, что RTX 4090 настолько быстр, когда дело доходит до чистого растеризации, что мы возвращаемся к старым временам, когда процессор был привязан к огромному количеству игр.

Синтетическая производительность

Изображение 1 из 3

(Изображение предоставлено: Future)(Изображение предоставлено: Future)(Изображение предоставлено: Future)

С включенной трассировкой лучей вы можете наблюдать на 91% более высокую частоту кадров в 4K.

Таким образом, прирост производительности по сравнению с предыдущим поколением зачастую значительно ниже, если посмотреть на относительную производительность в играх 1080p или даже 1440p. В Far Cry 6 при более низких разрешениях RTX 4090 всего на 3% быстрее, чем RTX 3090, а в разрешении 1080p и 4K дельта составляет всего семь кадров в секунду.

Фактически, при разрешении 1080p и 1440p RX 6950 XT является более быстрой игровой картой.

Это немного необычно с точки зрения ограниченности Far Cry 6, но все же отражает более широкую тенденцию сравнительной игровой производительности при более низких разрешениях. По сути, если вы стремитесь добиться 360 кадров в секунду в своих любимых играх на игровом мониторе с частотой 360 Гц 1080p, то вы произносите не ту идиому.

Игровая производительность 1440p

Изображение 1 из 8

(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее) (Изображение предоставлено: Future) (Изображение предоставлено: Future)

При разрешении 4K прирост производительности от поколения к поколению довольно впечатляющий. Не обращая внимания на ограниченную игровую производительность Far Cry 6, вы видите как минимум на 61% более высокую производительность по сравнению с RTX 3090. Это хорошо согласуется с увеличением выделенного оборудования для растеризации, повышенной тактовой частотой и большим объемом кэш-памяти. Добавьте несколько тестов с включенной трассировкой лучей, и вы увидите 9На 1 % выше частота кадров при разрешении 4K.

Производительность в играх 4K

Изображение 1 из 8

(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее) (Изображение предоставлено Future) (Изображение предоставлено Future)

Но растеризация — это только часть современных игр; масштабирование теперь является абсолютно неотъемлемой частью производительности графического процессора. Мы используем наше сравнительное тестирование, чтобы выявить грубые архитектурные различия между кристаллами графических карт, и поэтому работаем без включения масштабирования. В противном случае почти невозможно получить сравнение производительности яблок и яблок.

Однако важно понять, что может дать масштабирование, особенно с таким потенциально революционным продуктом, как DLSS 3 с генерацией кадров. А с такой графически интенсивной игрой, как Cyberpunk 2077, в которую можно играть с настройками 4K RT Ultra и частотой кадров 147 кадров в секунду, легко увидеть потенциал, который она предлагает.

Вы видите прирост производительности по сравнению с RTX 3090 Ti, когда эта карта работает в самом режиме Cyberpunk 2077 DLSS 4K Performance, примерно на 145%. Когда просто смотришь на RTX 4090 сам по себе, по сравнению с его производительностью без DLSS, мы наблюдаем прирост производительности на 250%. Все это ниже для F1 22, где есть определенное ограничение ЦП — даже с нашим Core i9 12900K (открывается в новой вкладке) — но вы все равно увидите увеличение производительности до 51% по сравнению с RTX 3090 Ti с включенным DLSS.

Производительность DLSS

Изображение 1 из 5

(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)

Опять же, если вы просто возьмете RTX 4090, работающем без апскейлинга, по сравнению с включенным в 4K, вы увидите увеличение частоты кадров на 150%.

В MS Flight Sim, который мы также протестировали с ранним доступом, поддерживающим DLSS 3, эта игра, невероятно привязанная к процессору, невероятно хорошо реагирует на генерацию кадров. На самом деле, из-за ограниченности ЦП нет никакой разницы между работой с включенным DLSS или без него, если у вас не запущена генерация кадров. Но когда вы работаете с этими искусственными рамами, вы увидите легкое удвоение стандартной производительности, на 113% выше в нашем тестировании.

Еще одна интересная вещь, на которую стоит обратить внимание, это то, что Nvidia отделила генерацию кадров от сверхвысокого разрешения DLSS (по сути, стандартного DLSS), потому что интерполяция кадров действительно увеличивает задержку.

Однако простое включение DLSS само по себе по-прежнему радикально снижает задержку, и поэтому с минимальным увеличением, которое дает добавление Frame Generation, вы все равно лучше, чем при работе с собственным разрешением. Это также связано с тем, что Nvidia Reflex стала неотъемлемой частью DLSS 3, но, тем не менее, если вы ищете самую низкую задержку для соревновательных игр, то отсутствие генерации кадров будет идеальным.

Исходное 4K | Производительность DLSS | Производительность DLSS с генерацией кадров (Изображение предоставлено CDPR)

Но для одиночной игры генерация кадров просто потрясающая. Для меня это выглядит лучше, чем более размытая сцена с низкой частотой кадров, и убирает иногда искаженный вид прямого изображения DLSS Super Resolution.

Лично я буду включать генерацию кадров при любой возможности.

Что, по общему признанию, будет не так часто для начала. Разработчикам потребуется время, чтобы освоить новую магию апскейлинга, однако Nvidia заявляет, что ее легко реализовать. Он также ограничен графическими процессорами Ады Лавлейс, что означает RTX 409 за 1600 долларов.0 при запуске, а затем RTX 4080 за 1200 долларов и RTX 4080 за 900 долларов в ноябре.

Другими словами, он не будет доступен подавляющему большинству геймеров до тех пор, пока Nvidia не решит выпустить действительно доступные графические процессоры Ada. Те, которые, возможно, больше выиграют от таких улучшений производительности.

Электропитание и тепловая система

Изображение 1 из 3

(Изображение предоставлено: Future)(Изображение предоставлено: Future)(Изображение предоставлено: Future)

Испытательная установка PCG

CPU: Intel Core I9 12900K
Материнская плата: ASUS ROG Z690 Maximus Hero
ХОЛОДЕР: CORSAIR H200I RGB
RAM: 32GB G.SKILL RGB
RAM: 32GB G.SKILL RGB
RAM: 32GB G.SKILL RGB
RAM. , 4TB Sabrent Rocket 4Q
PSU: Seasonic Prime TX 1600W
OS: Windows 11 22H3
Шасси: Dimastech Mini V2
Монитор: DOUGHTECH7
Монитор: DOUGHTECH7
Монитор: DOUGHTEH V2
. Ну, он почти достиг 500 Вт при работе на стандартных скоростях. Но именно так и поступают современные графические процессоры — просто посмотрите, сколько энергии требует в остальном эффективная архитектура RDNA 2 при использовании в RX 69. 50 XT (открывается в новой вкладке) — и определенно стоит отметить, что это примерно тот же уровень, что и у предыдущей RTX 3090 Ti. Учитывая увеличение производительности, незначительное увеличение потребляемой мощности говорит об эффективности процесса 4N.

Увеличение частоты кадров также означает, что с точки зрения производительности на ватт RTX 4090 является самым эффективным современным графическим процессором на рынке. Странно говорить о карте, которая, по слухам, была больше похожа на вариант TGP мощностью 600 Вт.

Анализ Nvidia RTX 4090

(Изображение предоставлено в будущем)

Как выглядит RTX 4090?

Действительно нельзя отрицать, что RTX 4090, авангард грядущего парка графических процессоров Ады Лавлейс, является фантастически мощной видеокартой. Конечно, он имеет смехотворные размеры, что помогает как отдаче энергии, так и тепловым показателям. Но это также непомерно дорогая карта для нашего первого знакомства с графическими процессорами GeForce следующего поколения.

Конечно, это всего на 100 долларов дороже, чем RTX 309.0 была на старте и на 400 долларов меньше, чем RTX 3090 Ti, что может даже сделать ее лучшим графическим процессором серии RTX 40, учитывая количество предлагаемого графического кремния. Но предыдущие поколения дали остальным из нас, геймерам, доступ к новейшей линейке карт, даже если они позже представили графические процессоры для ультраэнтузиастов и для особых людей.

Во времена глобальных экономических трудностей не стоит делать вашу новую архитектуру доступной только для «элиты» компьютерных игр.

Но вся анонсированная серия RTX 40 состоит из карт для ультраэнтузиастов, причем самым дешевым из них является графический процессор третьего уровня — совершенно отдельный графический процессор AD104, а не просто урезанные AD102 или AD103, поставляемые с номинальная цена 899 долларов. Хотя версия RTX 4080 на 12 ГБ не получит версию Founders Edition, я буду удивлен, если при запуске мы не увидим версии стоимостью более 1000 долларов от AIB.

Все это означает, что независимо от того, насколько я впечатлен техническими достижениями, заложенными в архитектуре Ады Лавлейс, — от магии DLSS 3 и генерации кадров до невероятного повышения тактовой частоты, которое обеспечивает технологический узел TSMC 4N, и огромного веса все эти дополнительные транзисторы — они полностью ограничены теми, у кого непомерно большие банковские счета.

Во времена глобальных экономических трудностей не стоит делать вашу новую архитектуру доступной только для «элиты» компьютерных игр.

(Изображение предоставлено в будущем)

Nvidia будет утверждать, что в нынешнем наборе карт серии RTX 30 достаточно кремния для обслуживания более низких классов, и что в конечном итоге появятся более доступные графические процессоры Ada, чтобы заполнить RTX 40. -ряд стека в новом году. Но это не меняет перспективы этого запуска ни сегодня, ни завтра, ни через пару месяцев.

Что заставляет меня задаться вопросом, почему именно это происходит. Почему Nvidia решила, что сейчас самое подходящее время изменить то, как она традиционно запускала новое поколение графических процессоров, и с самого начала не давала геймерам ПК ничего, кроме недоступной карты?

Уловки Ады не кажутся столь же мощными дальше по стеку? Или это просто потому, что в обращении все еще так много карт RTX 3080 и ниже?

У меня пока необоснованные опасения, что RTX 4080 ни в каком виде не окажет такого влияния, как RTX 4090, поэтому Nvidia решила не лидировать с этими картами. Глядя на технический документ Ada (предупреждение в формате PDF) (открывается в новой вкладке), особенно на сравнение карт RTX 4080 16 ГБ и 12 ГБ и их предшественников RTX 3080 Ti и RTX 3080 12 ГБ, можно увидеть улучшение производительности в подавляющем большинстве современных карт. Компьютерные игры могут быть довольно не впечатляющими.

Оба графических процессора Ada имеют меньше ядер CUDA и гораздо более низкие значения пропускной способности памяти по сравнению с картами предыдущего поколения. Похоже, что они почти полностью полагаются на огромный скачок тактовой частоты, чтобы увеличить количество TFLOPS, и магию DLSS 3, чтобы придать дополнительный блеск своим тестам без RT.

В каком-то смысле может показаться грубым говорить о страхах перед окружающими картами, их составом графического процессора и порядком выпуска в обзоре RTX 4090. Я должен говорить о кремнии передо мной, а не о том, где я Я хочу, чтобы она существовала в идеальном мире, потому что это по-прежнему очень впечатляющая карта как с точки зрения поколения на поколение, так и с точки зрения архитектуры Ады.

(Изображение предоставлено Future)

В начале обзора я сказал, что в RTX 409 нет ничего тонкого.0, но там — это уровень мастерства, достойный аплодисментов. Усовершенствования ядра RT ведут нас еще дальше по пути к уменьшению популярности при включении технологии блестящего освещения, а тензорные ядра дают нам возможность создавать целые игровые кадры без рендеринга.

Серьезно, DLSS с генерацией кадров просто потрясающий.

Я уверен, что будут странные реализации, когда разработчики справятся (или не справятся) с включением мистических генеративных техник в свои игры, где странные визуальные артефакты портят внешний вид и создают собственные мемы, но из того, что я испытал до сих пор, это выглядит великолепно. На самом деле лучше, чем нативное 4K.

И хотя цена в 1600 долларов может быть высокой, стоит отметить, что большие затраты на видеокарты нового поколения, вероятно, лучше всего делать в начале их срока службы. Я имею в виду, подумайте о людях, которые купили RTX 3090 Ti за последние семь месяцев. За 2000 долларов. Они будут чувствовать себя более чем плохо прямо сейчас, глядя на их переоцененный, прожорливый графический процессор, который едва способен показать половину игровой производительности этой более дешевой, более новой карты.

Это похоже на страдания владельцев Radeon VII после выхода RX 5700 XT. Только дороже.

Вердикт Nvidia RTX 4090

(Изображение предоставлено в будущем)

Стоит ли покупать RTX 4090?

RTX 4090 — это все, что вам нужно от ультрасовременной видеокарты. По сравнению с ней предыдущая топовая карта последнего поколения выглядит хлипкой, она предлагает геймерам невиданные новые технологии и почти оправдывает свою стоимость огромным весом кремния и полированного алюминия, использованных в ее конструкции.

Сейчас нет другого графического процессора, который мог бы приблизиться к нему.

Это воплощение графического процессора класса Titan; вся необработанная мощность и топовые цены.

Что было бы хорошо, если бы он был запущен вслед за гораздо более доступным введением в новую архитектуру Ады Лавлейс. Но это то, что мы вряд ли увидим до рассвета 2023 года. Линейка Ada 2022 года начинается с 899 долларов, и это слишком дорого для большинства геймеров на ПК.

Нельзя отрицать, что это ультра-нишевая карта для ультраэнтузиастов, и это почти делает RTX 4090 чуть больше, чем ориентир для большинства из нас, ПК-геймеров. Затем нам остается считать дни, пока Ада не спустится в царство ценообразования нас, простых смертных.

Однако сама по себе RTX 4090 является отличной видеокартой и удовлетворит потребности в производительности любого человека, который когда-либо мог позволить себе потратить 1600 долларов на новый графический процессор. Это могут быть невероятно состоятельные геймеры или создатели контента, не желающие полностью использовать карты Quadro. И он будет заслуженно продаваться, потому что сейчас нет другого графического процессора, который мог бы приблизиться к нему.

Прочтите нашу политику обзора

Nvidia RTX 4090

RTX 4090 может быть и не утонченной, но утонченность DLSS 3 и генерации кадров, а также необработанная графическая производительность графического процессора с частотой 2,7 ГГц объединяются, чтобы сделать игровую карту адской.

Дейв играет со времен Zaxxon и Lady Bug на Colecovision и кодовых книг для Commodore Vic 20 (Death Race 2000!). Он собрал свой первый игровой ПК в нежном возрасте 16 лет и, наконец, закончил исправлять ошибки в системе на базе Cyrix примерно через год. Когда он выбросил его из окна. Впервые он начал писать для официального журнала PlayStation Magazine и Xbox World много десятилетий назад, затем перешел на полный рабочий день в формат ПК, затем, среди прочих, в PC Gamer, TechRadar и T3. Теперь он вернулся и пишет о кошмарном рынке видеокарт, процессорах с большим количеством ядер, чем смысла, игровых ноутбуках, которые жарче солнца, и твердотельных накопителях, более емких, чем Cybertruck.

Обзор видеокарты MSI Radeon RX 6650 XT Gaming X

Наш вердикт

MSI RX 6650 XT Gaming X — тихая и мощная карта с разрешением 1080p, но, в конце концов, она превосходит 6600 XT, а не что-то в этом роде. действительно захватывающе.

За
  • Отличная карта для управления экраном 1080p с высокой частотой обновления.
  • Очень тихо
  • Отличное качество сборки
Против
  • Небольшой прирост по сравнению с 6600 XT
  • Ограничение PCIe 8x

Почему вы можете доверять PC Gamer Наши эксперты-рецензенты часами тестируют и сравнивают продукты и услуги, чтобы вы могли выбрать лучшее для себя. Узнайте больше о том, как мы тестируем.

Легко увлечься новейшими и лучшими графическими картами. В то время как GeForce RTX 3090 Ti или Radeon RX 6950 XT попадают в заголовки, карты по цене RX 6650 XT приносят гораздо больше продаж. Во времена глобальных экономических трудностей карта среднего уровня наверняка может показаться многим игрокам предметом роскоши.

RX 6600 XT была выпущена в конце июля 2021 года. RX 6650 XT можно рассматривать как относительно простое обновление, хотя AMD заявляет, что карта содержит некоторые настройки прошивки и драйвера. Его характеристики очень похожи на характеристики его предшественника RX 6600 XT. Оба используют графический процессор Navi 23, который представляет собой кристалл площадью 237 мм² с 11,1 миллиардами транзисторов и 2048 потоковыми процессорами.

RX 6650 XT не улучшает слабую 128-битную шину памяти RX 6600 XT, хотя его 8 ГБ более быстрой памяти GDDR6 со скоростью 17,5 Гбит/с обеспечивают увеличение пропускной способности памяти, до 280 ГБ/с. Он включает 32 МБ Infinity Cache, что частично компенсирует ограничения пропускной способности. RX 6650 XT также имеет то же ограничение PCIe 8x, что и RX 6600 XT. Это не является серьезной проблемой, как 4-кратное соединение на RX 6500 XT, но я чувствую, что в 2022 году все, кроме базовой карты начального уровня, должно работать на интерфейсе x16.0005

При цене 449 долларов (449 фунтов стерлингов, 719 австралийских долларов) MSI RX 6650 XT Gaming X по-прежнему не является дешевой видеокартой , особенно если сравнивать ее со всей консолью. Несмотря на то, что цены на видеокарты резко упали за последние недели и месяцы, сборка высокопроизводительного игрового ПК по-прежнему стоит дорого.

Характеристики MSI Radeon RX 6650 XT Gaming X

(Изображение предоставлено MSI)

Графический процессор: AMD Navi 23
Шейдерные блоки: 2048
Тактовая частота Boost: 2694 МГц
Вместимость памяти: 8 ГБ GDDR6
Скорость памяти: 17,5 Гбит / с
Выходы: 3X Дисброс 1. 4A, 1x HDMI 2.1
3x Displorpport 1.4a, 1x HDMI 2.1
3x Displorpport 1.4a, 1x HDMI 2.1
3x. 449 фунтов стерлингов | 719 австралийских долларов

MSI отправила RX 6650 XT Gaming X для обзора. Он поставляется с кулером с двумя вентиляторами, что имеет смысл для TDP 175 Вт; Большой кулер Trio от MSI был бы излишним.

Gaming X поставляется с тактовой частотой 2694 МГц и памятью 17,5 Гбит/с. Эталонный RX 6600 XT поставляется с 2589Тактовая частота МГц и память 16 Гбит / с, поэтому различия между ними, безусловно, не существенны.

Это не совсем компактная карта, но при длине 28 см она более удобна для корпусов малого форм-фактора, хотя по-прежнему занимает целых три слота. Карта поставляется с задней панелью во всю длину и включает в себя некоторую тепловую прокладку, помогающую сохранять места для памяти и VRM немного прохладнее на задней стороне печатной платы.

В целом карта выглядит очень хорошо сложенной, чего мы обычно и ожидаем от игровой линейки MSI. Логотип MSI сбоку подсвечивается RGB для небольшого всплеска цвета.

Изображение 1 из 3

(Изображение предоставлено MSI) (Изображение предоставлено MSI) (Изображение предоставлено MSI)

Подключение дисплея довольно стандартное, с одним портом HDMI 2.1 и тремя портами DP 1.4a. Один 8-контактный разъем питания может обеспечить 150 Вт, что в сочетании с 75 Вт, предлагаемыми от слота PCIe, означает, что для питания карты доступно до 225 Вт.

Печатная плата включает восьмифазный VRM и еще два для памяти Samsung 18 Гбит/с. Этого более чем достаточно для карты мощностью 175 Вт. У производителей графических процессоров есть опыт охлаждения графических процессоров при удвоенном TDP, поэтому MSI уже должна была усвоить несколько уроков с охлаждением VRM!

Изображение 1 из 2

(Изображение предоставлено Future) (Изображение предоставлено Future)

Компания MSI могла бы настроить вентиляторы на более низкую скорость. В моем тестировании пиковая температура карты составила всего 61 °C.

Высокоэффективный двухвентиляторный кулер MSI Twin Frozr 8 хорошо подходит для TDP карты 175 Вт. При полной нагрузке его почти не слышно, и хотя его можно услышать при большой нагрузке, он вполне приемлем и никоим образом не навязчив.

На самом деле, MSI могла настроить вентиляторы на более низкую скорость. В моем тестировании пиковая температура карты составила всего 61°C. Это один из самых низких результатов, которые я видел для любого графического процессора, кроме карт начального уровня с очень низким TDP.

Номинальная тактовая частота процессора MSI составляет 2694 МГц. Обычно карты AMD (и Nvidia тоже) могут работать с более высокими тактовыми частотами, чем их номинальные, при условии достаточной охлаждающей способности. MSI RX 6650 XT в течение долгого времени поддерживал тактовую частоту 2628 МГц. Учитывая очень низкие температуры нагрузки графического процессора, возможно, я ожидал немного более высоких тактовых импульсов. По большому счету, это не будет иметь большого значения, если вообще будет иметь какое-то ощутимое значение.

(Изображение предоставлено MSI)

Когда дело доходит до энергопотребления, MSI показала хороший результат. С учетом того, что цены на энергию взлетели до небес, пришло время уделять больше внимания энергоэффективности (извините, GPU следующего поколения просто поразил меня). При полной нагрузке MSI показал общую загрузку системы 305 Вт. Это всего на несколько ватт выше, чем у RTX 3060, но в целом быстрее.

По сравнению с RX 6600XT, RX 6650XT потребляет примерно на 15-20 Вт больше энергии. Это не очень хороший результат, учитывая относительно небольшой прирост производительности, который он обеспечивает. Мой обзор MSI Radeon RX 6750 XT Gaming X Trio (откроется в новой вкладке) пришел к такому же выводу. Да, он работает лучше, но за счет потери энергоэффективности. Похоже, что карты AMD RX 6x50 находятся прямо на пределе уровней безудержного энергопотребления. Более высокие часы невозможны без резкого увеличения мощности.

Синтетическая игровая производительность

Изображение 1 из 3

(Изображение предоставлено: Future)(Изображение предоставлено: Future)(Изображение предоставлено: Future)

Игровая производительность 1080p )(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)

Игровая производительность 1440p

Изображение 1 из 5

(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее) (Изображение предоставлено: Будущее) (Изображение предоставлено: Будущее) (Изображение предоставлено: Будущее)

Игровая производительность 4K

Изображение 1 из 5

(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)

Испытательная установка

ЦП : AMD Ryzen 7 5800x
Материнская плата: ASUS Crosshair VIII Dark Hero
ОЗУ: 2x 8GB T-Force Xtreem 2tb DDR4-3600
Склад: 2TB ADATB ADTB4-3600
. X73 360 мм AIO
Блок питания: Corsair AX1000

Как видно из приведенных выше диаграмм, производительность RX 6650 XT не меняет рынок. Он работает так, как и следовало ожидать от разогнанной RX 6600 XT. Он превосходит RTX 3060, но отстает от RTX 3060 Ti, и разрыв увеличивается в играх с включенной трассировкой лучей.

Карта лучше всего подходит для игр с разрешением 1080p. Он даже приближается к 60 кадрам в секунду в Metro Exodus с включенной трассировкой лучей, что является хорошим результатом для карты среднего уровня RDNA 2, поскольку трассировка лучей не является ее сильной стороной. Он будет играть в игры с разрешением 1440p, но в 4K вам будет сложно добиться плавной частоты кадров.

MSI Gaming X действительно очень тихая карта с температурой под нагрузкой 61°C, что свидетельствует о качестве конструкции кулера MSI. Графический процессор Navi 23 не совсем требователен, но все же приятно видеть такой уровень производительности благодаря конструкции с двумя вентиляторами. Огромный трехслотовый кулер был бы излишним.

RX 6650 XT очень похож на эволюцию 6600 XT. Настолько, что RX 6600 XT должен был быть таким изначально.

При запуске несколько недель назад RX 6650 XT был ужасно переоценен. Но в последующие недели мы наблюдали крах криптовалюты и неуклонное падение цен, так что теперь цена карты более или менее такая же, как у RX 6600 XT. Хотя нужно сказать, что цены на RX 6600 XT, похоже, не падают так сильно, что, возможно, является признаком того, что они не пополняются после продажи.

Здесь применимы те же общие выводы, к которым мы пришли при оценке RX6600 XT. Трудно привыкнуть видеть что-то кроме карты начального уровня со 128-битной шиной и ограничением PCIe x8; просто не сидит. Очевидно, что по мере того, как память становится быстрее, потребность в широкой шине отпадает, но у ATI HD 2900 XT 2007 года была 512-битная шина, так что внедрить более широкие шины не так сложно.

Тем не менее, RX 6650 XT по-прежнему будет обеспечивать отличную производительность при разрешении 1080p, но переход к более высоким разрешениям при высоких настройках будет все больше обнажать его ограничения. Выпуск FSR 2.0 повышает ценность, но если вы присматриваетесь к еще более доступным RTX 3060 или RTX 3060 Ti, RX 6650 XT вряд ли изменит ваше мнение в любом случае.

MSI Radeon RX 6650 XT Gaming X: Сравнение цен

(открывается в новой вкладке)

(открывается в новой вкладке)

Информация о цене отсутствует )

питание от

Прочтите нашу политику обзора

MSI Radeon RX 6650 XT Gaming X

MSI RX 6650 XT Gaming X — это тихая и мощная карта 1080p, но, в конце концов, это превосходная 6600 XT, а не что-то действительно захватывающее.

Игровой опыт Криса уходит корнями в середину девяностых, когда он обманом заставил своих родителей купить «учебный компьютер», который был достаточно мощным, чтобы играть в Doom и Tie Fighter. У него появилась любовь к экстремальному разгону, которая уничтожила его сбережения, несмотря на более дешевое оборудование, предлагаемое благодаря его работе в магазине ПК.


Learn more

Только новые статьи

Введите свой e-mail

Видео-курс

Blender для новичков

Ваше имя:Ваш E-Mail: