Обрезанная видеокарта это как

woman 1853936 1920 Советы на день
Содержание
  1. 12 мифов о видеокартах, про которые пора забыть
  2. Первый миф. Чем больше видеопамяти — тем быстрее видеокарта
  3. Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное
  4. Третий миф. От разгона видеокарты сгорают
  5. Четвертый миф. SLI/Crossfire увеличивают производительность и объем видеопамяти во столько раз, сколько видеокарт подключено
  6. Пятый миф. Профессиональные видеокарты лучше игровых
  7. Шестой миф. Если видеокарта не раскрывается процессором — это плохо
  8. Седьмой миф. Чем уже шина памяти — тем ниже производительность видеокарты
  9. Восьмой миф. Если видеокарта не перегревается, то она работает на максимально возможной для нее частоте в рамках ее теплопакета
  10. Девятый миф. Видеокарты без дополнительного питания хуже аналогов с ним
  11. Десятый миф. Не стоит ставить современные PCIe 3.0 видеокарты на старые платы со слотами PCIe 2.0 или 1.0
  12. Одиннадцатый миф. Разгон видеопамяти не имеет смысла
  13. Двенадцатый миф. С выходом каждой новой линейки видеокарт производители урезают производительность старой
  14. Ноутбучная GeForce RTX 3080 против десктопной: антикризисный вариант или влияние маркетинга?
  15. Содержание
  16. Содержание
  17. Вариант статьи для тех, кому лень читать
  18. Acer Nitro 5 AN515-45-R8FW
  19. Десктопная система с Ryzen 7 5800X и RTX 3080
  20. Ryzen 7 5800X против Ryzen 7 5800H
  21. RTX 3080 против «RTX 3080»
  22. Assassin’s Creed: Valhalla
  23. Cyberpunk 2077
  24. DOOM Eternal
  25. Mafia: Definitive Edition
  26. Metro: Exodus
  27. Project CARS 3
  28. Red Dead Redemption 2
  29. The Outer Worlds
  30. Total War: Three Kingdoms
  31. WarThunder
  32. Заключение

12 мифов о видеокартах, про которые пора забыть

В предыдущих статьях мы поговорили про мифы о процессорах, оперативной памяти и материнских платах, теперь же перейдем к видеокартам, которые уже давно стали обязательной частью любого компьютера.

Первый миф. Чем больше видеопамяти — тем быстрее видеокарта

FjrigQBK4r7r2Gb5bWsCsw

Казалось бы, это логично — в более мощные видеокарты ставится больше памяти: так, GTX 1070 с 8 ГБ памяти быстрее, чем GTX 1060 с 6 ГБ, а GTX 1080 Ti с 11 ГБ быстрее GTX 1080 с 8 ГБ. Однако следует понимать, что видеопамять, конечно, важна, но зачастую различное ПО не использует всю имеющуюся у видеокарты память: так, в большинстве случаев GTX 1060 с 3 ГБ медленнее версии с 6 ГБ всего на 5-10%, и разница в основном идет из-за различного числа CUDA-ядер.

Но есть производители видеокарт, которые решили воспользоваться этим мифом в свою пользу: так, например, на рынке можно найти GT 740 с 4 ГБ GDDR5 памяти. Казалось бы — да у GTX 780 Ti, топовой видеокарты того поколения, всего 3 ГБ памяти — то есть GT 740, получается, лучше? Разумеется нет — на тех настройках графики, где используется столько памяти, эта видеокарта выдает слайд-шоу. Ну а если снизить уровень графики для повышения «играбельности», то окажется, что использовано от силы 1-2 ГБ памяти. Причем такие видеокарты встречаются и в текущих линейках — так, у AMD есть RX 550 с теми же 4 ГБ GDDR5 — с учетом того, что видеокарта выступает приблизительно на уровне GT 1030, очевидно, что использовать столько памяти она сможет в очень немногих задачах:

Так что не стоит судить о производительности видеокарты, опираясь только на объем видеопамяти.

Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное

Опять же, это кажется логичным: если видеокарте памяти не хватило, взять ее больше неоткуда — значит, программы корректно работать не смогут. Однако на деле это, разумеется, не так — любая видеокарта имеет доступ к оперативной памяти, которой обычно куда больше, чем видеопамяти. Конечно, ОЗУ в разы медленнее, а время доступа к ней больше — это может вызвать проблемы с плавностью картинки, но только лишь в том случае, если собственной памяти видеокарте не хватает сильно: например, у нее 2-3 ГБ памяти, а игра требует 4-5 ГБ. Но если не хватает нескольких сотен мегабайт, то обычно это проблем не вызывает: GPU умеют динамически использовать доступные им ресурсы, и в ОЗУ они стараются хранить ту информацию, которая нужна редко или не требует мгновенного отклика.

Третий миф. От разгона видеокарты сгорают

При этом различные производители продают разогнанные с завода версии видеокарт. Разумеется, при разгоне видеокарта может повредиться — но только в том случае, если вы измените «физические» параметры, такие как напряжение. Изменение программных параметров, таких как частоты, никак на «железо» не влияет, так что максимум, что вы получите, это вылет видеодрайвера или BSOD от выставления слишком высокой частоты.

Четвертый миф. SLI/Crossfire увеличивают производительность и объем видеопамяти во столько раз, сколько видеокарт подключено

0TYRnt0SiYaucVraha6z8g

Насчет производительности это, скорее, не миф, а теоретический результат. Увы — на практике, хотя тому же SLI 20 лет, а Nvidia его использует больше 10 лет, в большинстве игр прирост или околонулевой, или вообще отрицательный. Лишь в единичных проектах можно получить прирост хотя бы 20-30% в сравнении с одной видеокартой, что, конечно, смешно, с учетом двукратного увеличения стоимости и серьезных требований к блоку питания. Что касается вычислительных задач, то тут все сложнее: так, профессиональный софт вполне может использовать несколько GPU эффективно, но это уже не домашнее применение.

Что касается видеопамяти, то тут все просто: при использовании DirectX 11 или ниже в видеопамять каждого используемого GPU записывается одинаковая информация, то есть у связки видеокарт будет по сути тот же объем памяти, что и у одиночной карты. А вот в API DirectX 12 есть возможность более эффективно использовать Split Frame Rendering, когда каждая видеокарта готовит свою часть кадра. В таком случае объемы видеопамяти суммируются — пусть и с оговорками.

Пятый миф. Профессиональные видеокарты лучше игровых

xp81W whWR88rc77qXnn4Q

Миф идет от того, что профессиональные видеокарты (такие как Nvidia Quadro или AMD FirePro) стоят обычно сильно дороже пользовательских «игровых» видеокарт — а раз дороже, значит лучше. На практике вопрос только в том — в какой области лучше? С физической точки зрения большая часть профессиональных видеокарт имеют тот же GPU и тот же объем памяти, что и обычные игровые видеокарты, а разница идет только из-за других драйверов, которые больше заточены под профессиональное применение:

С учетом того, что эти драйвера под игры никто специально не адаптирует, то профессиональные видеокарты в играх зачастую будут несколько хуже аналогичных по производительности игровых GPU. С другой стороны, если мы будем сравнивать эти же видеокарты в различных CAD-ах или 3ds Max — перевес будет на стороне профессиональной графики, причем зачастую очень существенный. Так что ответ на миф таков: сравнивать эти видеокарты в лоб не имеет смысла, они «играют» и в разных ценовых сегментах, и в разных сценариях использования.

Шестой миф. Если видеокарта не раскрывается процессором — это плохо

Пожалуй, самый популярный миф, который гласит о том, что если видеокарта не занята на 100% — это плохо. С одной стороны, это кажется логичным: нагрузка ниже 100% означает, что видеокарта частично простаивает и вы недополучаете часть производительности. С другой стороны, многие забывают, что нагрузить GPU на 100% можно практически при любом процессоре. Как так? Очень просто: каждый процессор в каждой игре может подготовить для видеокарты лишь определенное количество кадров в секунду, и чем процессор мощнее — тем больше кадров он может подготовить. Соответственно, чтобы видеокарта была занята на 100%, она должна иметь возможность отрисовать меньше кадров в секунду, чем может дать ей процессор. Как это сделать? Да очень просто: поднять разрешение, поставить более высокие настройки графики, включить тяжелое сглаживание — и вуаля, GTX 1080 Ti в 5К на ультра-настройках графики «пыхтит», выдавая 15-20 кадров в секунду, а поставленный ей в пару двухядерный Intel Pentium едва ли нагружен на половину.

Легко можно получить и обратную ситуацию: взять ту же самую GTX 1080 Ti и запустить на ней игру в HD-разрешении с минимальными настройками графики — и тут даже Core i9-9900K не сможет подготовить для ней столько кадров в секунду, чтобы она была занята на 100%.

Так что тут можно сделать два вывода: во-первых, если видеокарта недогружена несильно, а итоговый fps вас устраивает — всегда можно еще немного увеличить настройки графики, чтобы получить 100% нагрузку на видеокарту с лучшей картинкой и при той же производительности. Во-вторых, собирайте сбалансированные сборки, дабы не было такого, что процессор занят на 100%, а fps в игре 20 кадров.

Седьмой миф. Чем уже шина памяти — тем ниже производительность видеокарты

Очень часто на различных форумах можно встретить посты типа «вот, 8 лет назад у GTX 480 шина памяти была 384 бита, а сейчас у GTX 1080 всего 256, Nvidia экономит». Опять кажется, что это логично — чем шире шина, тем больше данных по ней можно «гонять». Но тут следует помнить две вещи: во-первых, не шиной единой: частоты памяти с того времени выросли в разы, во-вторых — производители GPU постоянно улучшают алгоритмы передачи данных по шине, что позволяет использовать ее более эффективно. Все это приводит к тому, что ширину шины можно безболезненно урезать: так, MX150 (она же GT 1030), имея шину всего в 64 бита (как один канал ОЗУ), способна при этом выдавать производительность уровня GTX 950M со 128-битной шиной, которая еще пару-тройку лет назад считалась среднеуровневой мобильной игровой видеокартой:

NT1UG1CdIYMQoajCeoM8 w

Восьмой миф. Если видеокарта не перегревается, то она работает на максимально возможной для нее частоте в рамках ее теплопакета

Увы — аналогия с процессорами тут не работает: если те действительно удерживают максимальные частоты в рамках TDP вплоть до температуры, с которой начинается троттлинг из-за перегрева, то видеокарты работают хитрее: так, у Nvidia есть технология GPU Boost, которая, с одной стороны, является аналогом Turbo Boost для процессоров — позволяет поднимать частоту выше базовой — а с другой стороны имеет больше ограничений.

Возьмем, для примера, GTX 1080 Ti. Она имеет родную частоту в 1480 МГц, а Boost — 1580. Но стоит нагрузить видеокарту, как частота может подскочить до 1800-1850 МГц — то есть выше Boost: это и есть работа технологии GPU Boost. Дальше — интереснее: критические температуры у видеокарт поколения Pascal составляют порядка 95 градусов — но уже при 85 можно заметить, что частоты снижаются ближе к уровню Boost. Почему так? Потому что Nvidia ввела еще одну опорную температуру, которую называет целевой: при ее достижении видеокарта старается ее не превышать, а для этого сбрасывает частоты. Так что если у вас мощная видеокарта, да и еще с референсным турбинным охлаждением — внимательно следите за температурами, ибо от них в прямом смысле зависит производительность.

Девятый миф. Видеокарты без дополнительного питания хуже аналогов с ним

В продаже можно встретить видеокарты уровня GTX 1050, 1050 Ti и AMD RX 550 без дополнительного питания — то есть, как в старые добрые времена, достаточно поставить их в слот PCIe и они готовы к работе. При этом также есть версии 1050 и 1050 Ti с дополнительным питанием 6 pin, из-за чего некоторые пользователи делают вывод, что раз дополнительное питание есть — значит с ним видеокарты будут работать лучше.

На деле это не совсем так: слот PCIe способен дать видеокарте до 75 Вт, и этого вполне хватает, чтобы даже 1050 Ti работала на указанных на официальном сайте Nvidia частотах. Но если вы нацелены на разгон — да, тут питания от PCIe видеокарте может уже не хватить, так что дополнительные 6 pin от блока питания позволят достичь больших частот, однако разница в любом случае не превысит 10%.

Десятый миф. Не стоит ставить современные PCIe 3.0 видеокарты на старые платы со слотами PCIe 2.0 или 1.0

Все опять же логично — так, пропускная способность PCIe 2.0 x16 вдвое ниже, чем у 3.0 x16, а, значит, современные видеокарты через более старую шину PCIe будут работать медленнее. На деле это опять же не так — пропускная способность PCI Express 3.0 x16 даже для топовых современных видеокарт оказывается избыточной:

Хорошо видно, что разница между 3.0 x16 и 2.0 x16 составляет всего 1%, то есть погрешность, и даже если спуститься до PCIe 1.1 — то есть к материнским платам почти десятилетней давности — падение производительности оказывается всего лишь 6%. Так что вердикт тут прост — версия PCIe практически не влияет на производительность видеокарты, соответственно можно смело к Xeon с PCI Express 2.0 брать GTX 1080.

Одиннадцатый миф. Разгон видеопамяти не имеет смысла

Конечно, наибольший прирост дает разгон ядра видеокарты — тут прирост производительности близок к линейному (то есть увеличили частоту на 10% — получили прирост производительности на 10%). Однако не стоит сбрасывать со счетов видеопамять, особенно в слабых видеокартах: зачастую в них ставят те же чипы памяти, что и в более мощные решения, но при этом сильно снижают частоту. Это дает возможность ее достаточно сильно разогнать, зачастую на 20-40%, что может прибавить к общей производительности графики еще 10-15% — для слабых видеокарт это лишним, разумеется, не будет:

Двенадцатый миф. С выходом каждой новой линейки видеокарт производители урезают производительность старой

Достаточно популярный миф, основанный обычно на том, что на одних (обычно более старых) версиях драйверов видеокарта работает лучше, чем на других (обычно более новых). Разумеется, никакого реального основания он не имеет: если бы Nvidia и AMD на самом деле хотели заставить пользователей обновить видеокарты, они бы прекращали их поддержку как производители смартфонов на Android, через пару лет после выхода. Однако на деле даже решения 600-ой линейки от Nvidia, вышедшей более 6 лет назад, до сих пор получают новые драйвера наравне с более новыми видеокартами, причем со всеми программными «плюшками» типа DirectX 12.

Но почему тогда есть разница в производительности между драйверами? Потому что ничто в нашем мире не идеально, и какие-то драйвера, улучшая производительность в новых играх, могут испортить производительность в более старых или привести к различным ошибкам. Обычно через некоторые время выходят исправленные драйвера, и все возвращается на круги своя.

Если вы знаете еще какие-либо мифы — делитесь ими в комментариях.

kkSNnpFai34RbBX5rFPwg

c3V6YXH mrm3js8HrEQewA

sVb9t2a73i2jJPDS9oEQsw

6GVcY XY8ySL5wDmPdMVCA

6Lm6JKFSNYbUN yjhkHYvg

Ещё один миф. С выходом новой линейки видеокарт, старые дешевеют. Нвидиа это успешно опровергала, просто накрутив цену на новые карты))

6GVcY XY8ySL5wDmPdMVCA

Соответственно, чтобы видеокарта была занята на 100%, она должна иметь возможность отрисовать меньше кадров в секунду, чем может дать ей процессор. Как это сделать? Да очень просто: поднять разрешение, поставить более высокие настройки графики, включить тяжелое сглаживание — и вуаля, GTX 1080 Ti в 5К на ультра-настройках графики «пыхтит», выдавая 15-20 кадров в секунду, а поставленный ей в пару двухядерный Intel Pentium едва ли нагружен на половину.

А может быть, ВНЕЗАПНО, стоит поставить более быстрый процессор, и FPS будет выше за счёт простаивавших мощностей GPU?

6GVcY XY8ySL5wDmPdMVCA

Более половины всех мифов правда.

sSy2xWAIAF8 62eKOsnKhw

cPSFAZCw igPjVFhOE5cdg

Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное

Фризы тебе точно гарантированы,и естественно это не миф,попробуй запустить RE7 или Rise of the Tomb Raider с максимальными текстурами на видяхе с 4 гагами памяти,и получишь гарантированные фризы,собственно это мои случаи когда у меня ещё была GTX980,стоило снизить текстуры на один пункт и фризы естественно прекращались.

9XjN Oe389HImpvF5vwKsA

saa0891 DDR4 более чем достаточно, чтобы по крайней мере не было фризов, так что если не хватает VRAM можно просто добавить воды. gennaz Eh. Евгений Кондратенко Да лучше уж 970 по дешевке ищет и не будет парится в новых игорях.

QXQcM9oho3yrVavMchvqhA

бестолковые блоги для получения бонусов

Did4U2AAHtVWBZGbe2vwYw

Еще один миф. С выходом новой линейки старые должны дешеветь. Это широко распространенный миф. Ибо рынок живет по другим законам. Если конкуренты не могу предоставить даже на старую линейку достойной конкуренции. С чего это новая линейка более быстрая должна быть по той же цене что и старая. И уж тем более еще более быстрые карты должны быть по аналогичной цене старой линейки аналогов конкурента. Проще говоря если бы АМД представяла конкурирующие решения на старую линейку то новая линейка Нвидиа была бы дешевле. А так скажите спасибо АМД за ее технологическую импотенцию.

Однако на деле даже решения 600-ой линейки от Nvidia, вышедшей более 6 лет назад, до сих пор получают новые драйвера наравне с более новыми видеокартами Перед тем,как писать данную статью,автору стоило бы зайти на сайт нвидиа и убедиться,что сейчас поддерживаются видеокарты от 700 серии и выше.

9ClZnv7CLVEY8SXEqh4vwQ

gennaz Чувак, помоему это следовало сделать тебе, прежде, чем писать эту дичь.

5L9IdW Aeleol bqoHycMg

Евгений Кондратенко Хм, думаешь я не посмотрел,прежде чем писать?))) Это «поддержка» только на бумаге,а на деле вот так

OthUFtzWciEjwdo9KrFiEw

2TTc7U5eFlmdvZTVnvRy5A

gennaz Т.е. ты запустил на gt630 новую ларку и ждёшь 60фпс в 4к? А если нет то это драйвера плохие? Ты вообще адекватный.

9ClZnv7CLVEY8SXEqh4vwQ

gennaz Чувак, не страдай фигней и не выставляй себя дураком. Купи себе на авито хотя бы GTX 770 и будешь нормально играть. Такие карты стоят на авито 6000-7000р, зато на них не будет такого ахтунга, как у тебя на скриншоте. Да и сама по себе 770 отличная карточка, всё-таки предтоповая семисотка.

erkins007 Дело не в низком фпс,а в графических артефактах в этой игре на карте 600 серии.Евгений Кондратенко Сам себе купи такое фуфло! Да и достаточно было заглянуть в профиль,чтобы не предлагать покупать всякое старьё,у меня любые игры идут отлично, на достаточно приличных настройках.

Источник

Ноутбучная GeForce RTX 3080 против десктопной: антикризисный вариант или влияние маркетинга?

q93 4af3047f281abd377c3b5cf547578094733f85c10dc751d8a6d7ef8faf8b75c4

q93 49a3a549f5ffe309cc51e757c1f8acc9d5b5f2fecca2b0308db37a61f87ecfc3

Содержание

Содержание

Нет смысла в очередной раз описывать ситуацию с ценами и доступностью игровых видеокарт в продаже. В новостях время от времени мелькают заголовки про снижение цен и скорый конец дефицита, но стоит зайти в любой реальный магазин – и окажется, что большинства моделей просто нет в продаже. А те, что есть – «радуют» ценой в два-три раза выше рекомендованной.

Разумеется, при любой кризисной ситуации есть люди, которые точно знают, как эту ситуацию разрешить. Поэтому обзорщики разного калибра, часто советуют при отсутствии видеокарт, смотреть в сторону игровых ноутбуков.

Не можете купить GeForce RTX 3080 за 160-180 тысяч для своего игрового десктопа?
Ну так за эту же цену можно купить ноутбук, в котором будет и вожделенная видеокарта, и полноценный компьютер вокруг нее. Да еще и выискивать ноутбуки не надо: они всегда есть в продаже и в ассортименте. Никаких «ограниченных партий» в магазинах, «последних экземпляров в городе» у перекупов – просто бери и играй!

Но если в отношении цены эти советы действительно правдивы: ноутбуки с мобильной RTX 3080 стоят примерно столько же, сколько и десктопные видеокарты с тем же индексом, то игровые возможности мобильного железа «немного» отличаются от аналогов для настольных ПК.

Хотите узнать, насколько именно?

Вариант статьи для тех, кому лень читать

Acer Nitro 5 AN515-45-R8FW

Для целей тестирования был выбран ноутбук Acer из линейки Nitro 5. И причин тому несколько.

Во-первых — это цена. На момент публикации статьи в магазинах сети ДНС Санкт-Петербурга этот ноутбук можно было приобрести по скидке за 158 тысяч рублей. Десктопная GeForce RTX 3080, к примеру которой автор будет обращаться далее, стоила 145 тысяч.

Правда «стоила» — в данном случае, весьма относительное понятие: в реальной продаже карты попросту не было.

Тестовый ноутбук – не топовая модель в линейке, но близкая к такому статусу. Есть более дорогие модели Nitro 5 с похожей конфигурацией, но они отличаются либо диагональю экрана, либо количеством и типом накопителей.

А дорогостоящий ноутбук был необходим потому, что в нём меньше шансов найти версию видеокарты, которая ранее носила бы суффикс Max-Q. И действительно: если обратиться к характеристикам тестовой модели, то единственной пометкой относительно видеокарты там будет «для ноутбуков».

Хотя есть отдельный акцент на объеме видеопамяти в 8 гигабайт (у десктопной RTX 3080 их 10).

Так или иначе, конфигурация ноутбука выглядит вполне достойно. Помимо RTX 3080, он может похвастаться восьмиядерным ЦПУ Ryzen 7 5800H, 16 гигабайтами памяти, работающей в двухканальном режиме на частоте в 3200 МГц, и SSD объёмом в 1024 Гб в качестве основного и единственного накопителя.

Казалось бы, можно говорить о полноценном аналоге игрового десктопа, но на самом деле, не совсем так.

q93 3cb24f9ded9a5ceb24d1f3e36f65f88743df0f5afe865e9d33bd6cd90a17b48f

Вполне очевидно, что мощную систему охлаждения в такой габарит попросту не уместить.

Acer постарались решить вопрос охлаждения, разместив решетки для выброса горячего воздуха не только на задней панели устройства, но и по его краям. Однако, это может помочь охлаждению типичного мобильного железа, но не чипов с уровнем энергопотребления десктопных Ryzen 7 5800X и в особенности GeForce RTX 3080.

Однако более явным аргументом выступает штатный блок питания ноутбука. Выходная мощность устройства составляет всего 180 ватт – тут уже не нужно быть гением математики чтобы понять, что десктопный Ryzen 7 с лимитом на 145 ватт и десктопную RTX 3080, поедающую три с лишним сотни ватт, запитать таким устройством никак не получится.

Следовательно, мобильное железо должно обладать совершенно иными параметрами по сравнению с десктопными аналогами.

Десктопная система с Ryzen 7 5800X и RTX 3080

Чтобы понять, насколько именно другими – производительность тестового ноутбука будет сравниваться с уже знакомым читателям компьютером. Да, это все тот же системный блок на базе Ryzen 7 5800X, который вы могли наблюдать в предыдущем обзоре процессоров. Его подробная конфигурация приведена ниже:

Процессор и видеокарта в данном случае работали в штатном режиме – точнее, с работающими механизмами динамического разгона для ЦПУ и с заводским разгоном для ГПУ. К последнему мы обязательно вернёмся в соответствующем разделе.

Частота и тайминги памяти на платформе socket AM4 остались теми же, что ранее были показаны в обзоре данного комплекта, и в обзорах процессоров Ryzen 5000. Ведь это биос ноутбука не предоставляет никаких инструментов для разгона оперативной памяти. А на десктопе – никто не запрещал выставлять 3800 МГц с пониженными от штатных таймингами.

Все тесты были выполнены из-под ОС Windows 10 20H2. Для чистоты результатов приостанавливались обновления ОС, а все фоновые приложения, за исключением антивируса Windows Defender и лаунчеров, необходимых для запуска конкретных игр отключались на время тестов. Дополнительные программные твики для ОС не использовались, обе системы работали в штатном режиме.

Запись экрана производилась средствами утилиты Nvidia ShadowPlay и за счет ресурсов видеокарты.

Ryzen 7 5800X против Ryzen 7 5800H

Перед тем как переходить к основной теме, стоит сказать пару слов и о процессорах: они ведь тоже влияют на производительность.

Вычислительным центром тестового ноутбука выступает Ryzen 7 5800H. И формально он мало чем отличается от десктопного R7-5800X. Те же 8 ядер и 16 потоков на архитектуре Zen 3, тот же техпроцесс, те же наборы инструкций.

Объем кэш-памяти третьего уровня у мобильного процессора вдвое меньше – но это в принципе характерно для APU, если сравнивать их с ЦПУ Ryzen того же поколения. И да: R7-5800H это именно APU, то есть в нем есть встроенная графика Vega 8, которая в данном случае используется только в 2D-режиме.

Но если нет явной разницы по конструктивным параметрам – это еще не значит, что нет разницы по реальным рабочим характеристикам.

Как можно вспомнить из обзора десктопного Ryzen 7 5800X, его частота при загрузке всех ядер составляет около 4500 МГц. При этом даже без стресс-тестов энергопотребление процессора достигает штатного программного лимита в 145 ватт.

В однопоточном режиме на одном загруженном ядре можно увидеть паспортные 4800 МГц и даже чуть больше, но и в этом случае энергопотребление процессора в пике достигнет 59 ватт.

И нельзя сказать, что это много по меркам десктопных процессоров, ведь есть модели, которые в тех же условиях едят гораздо и гораздо больше. Однако, уже без всяких дополнительных пояснений понятно, что запихнуть процессор с такими параметрами в ноутбук если и возможно в принципе – то только при условии наличия более мощной системы охлаждения, чем установленная в тестовой модели.

Поэтому мобильный Ryzen 7 5800H очевидно должен обладать меньшим лимитом энергопотребления – а, следовательно, и заметно пониженными частотами.

И это действительно так: при загрузке всех ядер частота мобильного процессора достигает чуть менее 3600 МГц. Пиковое энергопотребление – 58,5 ватт, что позволяет говорить о программном лимите в 60 ватт.

Да, по мере дальнейшего нагрева частоты и энергопотребление ещё сильнее снижаются – до 3400 МГц и 45 ватт соответственно. Однако не стоит спешить обвинять в этом ноутбук – просто в квартире у автора температура держалась на отметке в +35 градусов, и компьютерное железо – далеко не единственное, что в таких условиях перегревалось.

Если же исключить фактор температур – то 3600 МГц и 60 ватт вполне похожи на штатные параметры работы процессора.

В однопоточной же нагрузке частота мобильного процессора составляет около 4200 МГц, а пиковое энергопотребление — не превышает 18 ватт. Причём эти параметры уже стабильны в течение всего теста.

Проще говоря – вполне очевидно, что мобильный Ryzen 7 будет однозначно медленнее десктопного процессора с похожим индексом. Тесты производительности это явно подтверждают.

Если Ryzen 7 5800X в синтетических тестах выдаёт результаты, которые вы уже могли видеть в его обзоре, то результаты мобильного Ryzen 7 5800H уже заметно ниже:

Если свести полученные данные в наглядную таблицу, то окажется, что мобильный процессор в среднем на 25% медленнее своего десктопного собрата:

q93 040d3ee0e513d9e1f427723ae7a66a29b03c6aba8c08e3319b6ee0cc317ba58e

Причём – не только в синтетике, но и в более реальных задачах вроде тестов трёхмерного рендеринга:

q93 017ddaead0cb4095d52de829abb7931ded4165a0b6c69e72ab23abec40eae993

Однако, с Ryzen 7 5800H всё более-менее понятно ещё на этапе изучения его паспортных характеристик. Да и имитировать десктопный Ryzen 7 5800X он даже не пытается.

А вот что из себя представляет мобильная видеокарта – это вопрос уже куда более интересный.

RTX 3080 против «RTX 3080»

В отличие от процессора, видеокарта в тестовом ноутбуке не стесняется прописать в своём паспорте чужое имя и отхватить частичку славы старшего родственника. Тем не менее, если вы знакомы с энергопотреблением десктопных версий RTX 3080, то без всяких дополнительных пояснений знаете, что такой чип запросто превратит любой ноутбук в электроплитку.

Следовательно, мобильная RTX 3080 не может иметь ничего общего с десктопной картой под тем же названием.

Собственно… она и не имеет!

Во-первых, если десктопная карта использует старший чип GA102, то мобильная собрана на более младшем GA104 – а значит, здравствуй 256-битная шина памяти и меньшее количество исполнительных блоков.

Однако основное отличие кроется даже не в характеристиках чипов и памяти, а в рабочих частотах мобильной видеокарты.

Опять же, если вернуться к примеру десктопной RTX 3080 от Gigabyte, то можно заметить, что частота её ГПУ и в стресс-тестах, и в реальных играх чаще всего находится на отметке в 1950 МГц, отклоняясь в обе стороны не более чем на 30 МГц.

Но, естественно, достигается это за счет энергопотребления, которое ограничено лишь возможностями штатной системы охлаждения видеокарты. И в тесте Unigine Superposition – легко пробивает планку в три сотни ватт, что прекрасно видно на графике выше.

Для мобильной RTX 3080, даже если она не носит суффикс Max-Q после названия модели, следует ожидать гораздо меньших значений.

И карта в этом плане не разочаровывает: частота ГПУ на старте бенчмарка Unigine Superposition составляет 1320 МГц, но по мере нагрева быстро падает до 1245 МГц. Пиковое энергопотребление при этом составляет 86 ватт – что является уже вполне реальным показателем для видеокарт в ноутбуках.

В принципе, уже на одном этом можно сделать однозначный вывод касательно возможностей мобильной RTX 3080, но без тестов в играх обзор будет выглядеть неполным.

Поэтому – переходим к ним!

Assassin’s Creed: Valhalla

q93 12d312c18c9de9301e9359edb56a62bc84d4d043aea533928d474de312990c3a

Результаты десктопной системы с Ryzen 7 5800X и RTX 3080 вы уже могли видеть в предыдущем обзоре. Если же их резюмировать – производительности более чем достаточно, и даже редкие события не проседают ниже 60 кадров в секунду — это говорит о том, что есть внушительный запас на повышение разрешения или настроек графики.

С тестовым ноутбуком все совсем не так позитивно.

Да, показатели среднего и минимального фпс близки к комфортным 60 кадрам, да и просадки до 40 кадров по редким событиям не выглядят как серьёзное препятствие для того, чтобы пройти игру именно на этих настройках графики.

Тем не менее, тут уже очевидно, что повышать настройки попросту некуда, а переход к более высоким разрешениям будет возможен только за счёт понижения настроек.

Но даже не это наиболее показательно! Производительность мобильной системы, а именно показатель среднего фпс, буквально заканчивается там, где только начинается производительность десктопа.

Тут уже какие-то дополнительные комментарии попросту излишни.

Cyberpunk 2077

q93 aa9ef08c589b7f465a9245095c416b0edcff564fd149538b7a767c58b4f8ff17

Десктопная система здесь снова выдает за сотню кадров по показателю среднего фпс. Хоть просадки по редким событиям здесь серьезней, чем в первой игре из подборки, но серьёзных неудобств это не создаёт.

А вот с ноутбуком ситуация даже более наглядна, чем в предыдущем тесте.

Да, средний и минимальный фпс не выглядит какой-то катастрофой, играть при 45-60 кадрах вполне возможно. Но вот просадки по редким событиям пробивают отметку в 30 кадров. Это уже заметно без всякого мониторинга, и очень ощутимо при геймплее.

Для комфортной игры в Киберпанк на мобильном железе настройки графики надо снижать, даже если вы иcпользуете только FullHD.

DOOM Eternal

q93 e67fc08c947e83336c254da82d35080af8b386bcdf2407d8f5d7963fd0ba9c3c

Комментировать результаты десктопной системы тут просто не имеет смысла: кадров настолько много, что даже показатель 0,1% редких событий постоянно показывает трехзначные числа. То есть, не меняя настроек графики, можно играть в QuadHD и, вероятно, в 4К, при этом ничуть не теряя в комфорте.

Да, производительность все равно более чем достаточна для комфортной игры в FullHD, но перейти к более высоким разрешениям без понижения хотя бы части настроек графики уже не получится.

Mafia: Definitive Edition

q93 1f47612ee5fd6857da23cd615f615d14e79909549c293096eb0ae12620e228b5

Производительность десктопной системы по-прежнему оставляет огромный запас для повышения разрешения экрана, и даже редкие события не проседают ниже 60 кадров в секунду.

С мобильной платформой не все так позитивно. Играть в FullHD еще можно, просадки по 0,1% редких событий до 45 кадров картину особо не портят. Но вот переход к QuadHD явно потребует подбора оптимальных настроек.

Metro: Exodus

q93 b5d5d5ab83b27082eea029b609def1538ba5a66204521a482f02981607200bc2

Тест на выбранных настройках оказывается одним из самых тяжелых. Даже десктопная система хоть и выдает хорошие значения по показателям среднего и минимального фпс, но все же демонстрирует просадки ниже 60 кадров по редким событиям. Хотя 48 и 55 кадров – не такая уж катастрофа.

А вот мобильному компьютеру приходится гораздо сложнее. 60 кадров по среднему фпс он все-таки набирает, но 34 кадра по минимальному фпс и просадки ниже 30 кадров по редким событиям заставят владельца ноутбука думать скорее о подборе оптимальных настроек графики, чем о повышении разрешения экрана.

Project CARS 3

q93 7bf9792728de4a55546b46c61b9625130c065e45c05ef3a96591f417eb723d6e

Производительности десктопной системы, опять же, более чем достаточно, и даже редкие события не понижаются до 60 кадров.

Ноутбук же справляется хуже: играбельный фпс на этих настройках он выдает, и геймплей остаётся комфортным, несмотря на то, что все параметры выставлены на максимум. Но это – явно предел возможностей мобильной системы, и для QuadHD уже придется понижать настройки графики.

Red Dead Redemption 2

q93 6c58999f689ad25206531e1d77f47f213d48c79e903c9676cf12d92a8ad953d2

На выбранных настройках встроенный бенчмарк становится сложной задачей даже для десктопа, где показатель 0,1% редких событий проседает ниже 40 кадров, хотя в целом игра остается комфортной.

А вот для ноутбука все намного, намного хуже.

Даже по показателям минимального и среднего фпс мобильная система набирает чуть более 40 кадров, а вот просадки по редким событиям и микрофризы, заметные по постоянным скачкам на графике времени кадра, делают RDR 2 на этих настройках графики абсолютно неиграбельной.

Для получения комфортной производительности на ноутбуке настройки графики придется понижать, и явно серьезно.

The Outer Worlds

q93 0df9d360762d8caf9b3593ec495bc75f6a3d35bb862c8ceeb330a3022aa91ec5

Десктопная система снова выдает трехзначные числа по всем параметрам. Запас на повышение разрешения экрана хоть и поменьше, чем в DOOM Eternal, но все же остается существенным.

Ноутбуку, что уже ожидаемо, здесь вдвое сложнее. Как и в DOOM, даже редкие события не проседают ниже 60 кадров, однако если вы захотите повысить разрешение хотя бы до QuadHD, то потребуется более точный подбор настроек.

Total War: Three Kingdoms

q93 a8b93b6d3a50abe8f870e9554ee8bd4cfe998c7b654ae665645db7cf8cb9e188

Производительности десктопной системы вновь более чем достаточно. Даже редкие события не падают ниже 80 кадров, и говорить о нехватке фпс попросту не приходится.

А вот для ноутбука такие настройки оказываются буквально пределом возможностей, поскольку и минимальный фпс, и редкие события проходят отметку в 60 кадров. То есть – на выбраных настройках играть будет по-прежнему комфортно, но никакого запаса попросту нет.

WarThunder

q93 96a8db7c11f39a22af3aa0b39ce38f4bcf1d79f46fe2effbfd409936e3b5a1d8

Десктопная система словно бы не замечает тяжелых настроек графики. Даже редкие события приближаются к отметке в 100 кадров, так что даже не стоит добавлять к этому какие-то комментарии.

Ноутбук, что ожидаемо, справляется гораздо хуже, и по некоторым параметрам разница с десктопом оказывается более чем двухкратной. Формально, производительность на этих настройках остается комфортной, однако запаса на повышение разрешения экрана попросту нет.

Заключение

Но вот с RTX 3080 такой фокус уже не пройдёт просто потому, что этой карте в её десктопном виде нужно гораздо больше ватт, чем могут обеспечить стандартные внешние блоки питания, и гораздо более серьёзная система охлаждения, чем может вместить в себя обычный ноутбук.

А чтобы не класть в комплект к ноутбуку полукиловаттный БП и систему водяного охлаждения в отдельном корпусе – производителям приходится идти на ухищрения и изменять характеристики железа.

В самом этом факте ничего плохого нет. Ноутбуки всегда, на протяжении всей своей истории искали компромисс между производительностью, компактными размерами, акустическим комфортом и временем автономной работы. И производителям всегда приходилось жертвовать одним или несколькими пунктами из этого списка, чтобы другие оставшиеся пункты стали преимуществами конкретного устройства.

Нет по сути ничего плохого и в факте существования мобильной RTX 3080 в том виде, в каком она представлена сейчас. Возможность играть в актуальные игры AAA-класса при 60 кадрах в FullHD и с настройками, близкими к максимальным – это без шуток, отличный результат.

Покупая устройство, на котором написано «RTX 3080», вы реально рассчитываете всего лишь на комфортную производительность в FullHD на высоких настройках, да и то не во всех новых играх? Или вы все-таки хотите играть в QuadHD или 4К, да еще и иметь некоторый запас производительности, чтобы через год-два не захотелось менять видеокарту?

Мобильная RTX 3080 вам этого не даст, как и ноутбук не даст и возможности апгрейда видеокарты.

Тот уровень производительности, который может обеспечить мобильная RTX 3080, вам обеспечат и более дешевые дискретные видеокарты актуальных поколений, и модели предыдущих сезонов, которые на вторичном рынке будут стоить далеко не 150, и даже не 100 тысяч.

Какой бы ни была ситуация, приобретать игровой ноутбук стоит лишь в том случае, если именно игровой ноутбук вам и нужен. То есть – если вы планировали его купить без всякой оглядки на дефицит десктопных видеокарт. Как альтернативу десктопу, но не как его вынужденную замену.

Источник

Оцените статью
Добавить комментарий

Adblock
detector