Калибровка монитора lg 27ul650
Монитор этот, скажем так, универсальный, хоть и с игровыми функциями. У меня рука не поднимается обозначить его полноценно игровым. Да, у LG 27UL500-W есть настройка времени отклика, FreeSync и стабилизация черного, а также предустановки FPS и RTS. Но 60-герцовый монитор не может быть по-настоящему игровым и всё тут. Я это точно знаю. У меня есть действительно игровой ViewSonic VX2268wm, место которого сейчас занял этот LG, так там 120Hz и время отклика 2.2 мс GTG, не считая того, что он 3D.
ViewSonic VX2268wm очень хорош в играх, но пользоваться только им в современных реалиях не очень правильно. Всё-таки он 22", 1680х1050 и TN+Film. Для игр небольшое разрешение даже хорошо - не надо сильно мощной видеокарты для достижения приемлемой частоты кадров. Размер 22" при 1680х1050 дает примерно 90 PPI - столько же, сколько у 24" монитора 1920х1080 и это как бы стандарт. Но физически VX2268wm маловат. Это главный его минус. А следующий по важности недостаток - матрица. Цветопередача у этого монитора для TN+Film неплохая, бывают и IPS хуже, но у TN+Film есть целая куча других минусов.
Я планирую оставить ViewSonic VX2268wm, прикрепить на кронштейн вторым монитором и использовать то один, то другой монитор, в зависимости от задач. Но сейчас место за моим столом занимает только новый LG 27UL500-W.
Вообще 27" - это максимальный размер, комфортный для использования перед мордой на столе. У меня на работе есть 30" и их уже многовато - приходится крутить башкой. Дома стоит на кухне BenQ M2700HD, где 27", 1920х1080 и 84 PPI. В 2010 году он производил фурор своей диагональю, но пиксели на нем размером со слона. Минимальное нормальное разрешение для 27-дюймового монитора - 2560x1440. Я чуть было не купил такой Samsung, с VA матрицей и 144Hz. Но вовремя опомнился. Дело в том, что, при прочих равных, на 22" 1680х1050, 24" 1920х1080 и 27" 2560x1440 плотность картинки будет примерно одинаковой. Это значит, что вы увидите то же самое, только физически большего размера. Уплотнения не произойдёт. Но весь смысл сверхвысоких разрешений именно в нём. Получается, что FPS в играх понизится, из-за увеличения разрешения, а визуально почти ничего не изменится. Именно поэтому я не менял 22" и 1680х1050 на 24" и 1920х1080. Короче, Samsung был полноценно игровым, манил своими 144Hz, но проиграл 4K монитору.
Со 120-герцовым ViewSonic VX2268wm, я вообще ничем не запаривался. Разрывы изображения были заметны только на огромных значениях FPS - под 200 к/с. В этих редких случаях, я включал Vsync и даже не думал о том двойная в игре буферизация или тройная, потому что игра, умеющая выдать более 120 к/с, уж точно не упадет ниже 60 к/с. То есть, если частота кадров станет ниже 120, то Vsync в самом худшем случае убавит её до 60, что меня тоже устраивает. Если же игра не дотягивала до 120 к/с, то мне было тем более всё равно, потому что на 120 Hz, даже при самой низкой FPS, никаких артефактов не заметишь.
На 60 Hz подобная дрянь видна очень хорошо. Можно конечно тоже включить Vsync, но вот в чём засада - как только FPS упадет ниже 60 к/с, например, до 47 к/с, Vsync с двойной буферизацией уронит её до 30 к/с, а с тройной буферизацией - до 40 к/с. Артефактов не будет, но реальная FPS будет меньше выдаваемой видеокартой, кроме того, может появиться input lag. Если видюха в игре стабильно не дотягивает до 60 к/с, можно попытаться забить на Vsync и не включать его. Артефакты совсем не исчезнут, потому что из-за плавающей частоты кадров, выдаваемой видеокартой, картинка на мониторе всё равно может обновиться в момент смены значений буфера, но их будет меньше и исчезнет input lag. В итоге, если игра не меньше чем в 2/3 игрового времени выдаёт больше 60 к/с, Vsync хорошо бы включить. Если же наоборот - в основном не дотягивает до 60 к/с, смотрите часты ли артефакты на экране. Редко - Vsync не нужен. Часто - лучше включить.
Существует еще один вариант. Vsync не включаем, а вместо этого ограничиваем частоту кадров видеокарты. Есть игры, где это легко сделать прямо из меню настроек графики. Или же можно воспользоваться сторонней программой. Для Nvidia подходит NVidia Profile Inspector. Выставляем "60 FPS" или "30 FPS", в зависимости от ситуации, и радуемся.
Далее мы плавно подходим к адаптивной синхронизации, а именно к пресловутым G-Sync и FreeSync. Они хороши и на 144 Hz мониторах, и на 240 Hz. Но для 60 Hz - это реально спасение. Суть этого дела очень проста. Если Vsync подстраивает FPS видеокарты под частоту обновления монитора, то G-Sync и FreeSync наоборот подстраивают частоту обновления монитора под FPS видеокарты. То есть, если видюха в игре выдаёт 46 к/с, монитор с G-Sync или FreeSync будет работать в 46 Hz, если FPS понизится или повысится, монитор соответственно повысит или понизит частоту обновления. Фича называется VRR (variable refresh rate).
G-Sync от Nvidia - самая крутая её реализация. В монитор ставится специальный чип, который стоит денег, а общие отчисления таковы, что G-Sync делает мониторы дороже в среднем на $100. Справедливости ради, надо сказать, что G-Sync оправдывает свою цену беспроблемной (во многом именно за счет проприетарности) работой на частоте от 30 Hz до максимально поддерживаемой монитором, LFC (Low Framerate Compensation) и другими дополнительными плюшками.
FreeSync от AMD несколько проще. Эта технология основана на VESA Adaptive-Sync - заложенной в спецификацию DisplayPort, и не требует ни дополнительного проприетарного железа в мониторе, ни каких либо выплат, то есть бесплатна для производителей мониторов. FreeSync работает через DisplayPort 1.2a и через HDMI последней версии - 2.1. На самом деле, простота технологии не от того, что FreeSync не способна на то, что может G-Sync. Дело в том, что, из-за отсутствия жестких правил реализации, производители мониторов встраивают FreeSync в свои модели как получится. Например, диапазон рабочих VRR частот может быть очень разным. Зато мониторов с поддержкой FreeSync на порядок больше, чем с поддержкой G-Sync.
До текущего 2019 года, видеокарты Nvidia поддерживали только G-Sync мониторы, а видеокарты AMD - только FreeSync мониторы. Но в этом году всё изменилось. Nvidia в начале года внесла в драйвера своих видеокарт поддержку VESA Adaptive Sync, что означает и поддержку FreeSync. Таким мониторы были названы G-Sync совместимыми, то есть на полную катушку они G-Sync не поддерживают, потому что никак не могут этого сделать без специального чипа, но видеокарты Nvidia теперь умеют ими управлять. Официальный список FreeSync мониторов, совместимых с G-Sync небольшой, но это только те, что были проверены самой Nvidia. На самом деле, FreeSync мониторов, работающих с видеокартами Nvidia, гораздо больше. Бывает, правда, что некоторые связки оказываются глючными и соответственно нерабочими. Или рабочими, но требующими некоторого колдовства с настройками.
Купленный мной LG 27UL500-W паспортно поддерживает FreeSync в диапазоне VRR от 40 до 60 Hz. Но видеокарта у меня Nvidia GeForce RTX 2070. Как я уже писал, для 60 Hz мониторов, адаптивная синхронизация - настоящее спасение игровых возможностей. Поэтому я изучил кунг-фу методику спаривания G-Sync видюх с FreeSync мониторами и поделюсь ею с вами.
Первым делом необходимо включить FreeSync в самом мониторе. Делается это через меню.
После включения FreeSync в мониторе, видеокарта должна увидеть эту фичу и отобразить в "Панели управления NVIDIA" пункт "Настройка G-SYNC".
Ставим "галочки" так, как указано на картинке, не обращая внимания на надпись "Поддержка G-SYNC этим дисплеем не подтверждена". Нажимаем "Применить" и функция должна включиться. Экран может моргнуть, а Windows блямкнуть, как во время подключения устройства. Если что-то пошло не так, попробуйте перезапустить монитор, или перезагрузить компьютер, или выбрать "Включить в полноэкранном режиме" вместо "Включить в оконном и полноэкранном режиме".
Далее качаем программу от Nvidia под названием G-SYNC Pendulum Demo. Это не просто демка технологии, но также и тестовый инструмент, на котором мы будем проверять качество работы G-Sync на FreeSync мониторе.
Простая 3D сцена показывает качающийся в беседке маятник. В левом нижнем углу можно включить отображение слайдеров для регулировки "окна" между минимальной и максимальной FPS.
Для этого нужно нажать на "FPS sliders". Однако появляются слайдеры слева вверху, под меню выбора режимов.
Есть режимы: Vsync, вообще без синхронизации и G-SYNC. Ниже дан выбор между симуляцией 60 к/с, 50 к/с, 40 к/с и плавающей FPS в диапазоне от 40 до 60 к/с. "Focus on pendulum" - это отображение только маятника. "Orbit camera" - облёт камеры вокруг беседки. Еще ниже есть возможность выставления скорости облёта и включение масштабирования мышью. На самом деле, достаточно будет одного маятника. Главным нашим инструментов будет окошко со слайдерами "Framerate Min/Max". Включаем режим G-SYNC и начинаем играть со слайдерами. Цель исследования - найти диапазон FPS, в котором маятник будет качаться без разрывов кадра и исключительно плавно, а экран не будет моргать, по нему не будут идти никакие полосы или появляться какие-нибудь артефакты. Если найденный диапазон VRR совпадает с паспортным монитора - вам повезло и спаривание G-SYNC видеокарты с FreeSync монитором прошло как по маслу. Впрочем, рабочий диапазон может немного отличаться от паспортного. Точнее, ближе к его верхнему и нижнему краю, за 2-3 FPS от предельных значений, уже могут появляться разрывы. Такое поведение нормально и свойственно даже для G-SYNC мониторов. Хуже если на каких-нибудь значениях FPS появятся дёрганья, моргания экрана и прочая хрень. Тогда безглючный диапазон может получиться меньше паспортного. В этом случае, "окно" VRR следует перенастроить - ограничить с помощью программы Custom Resolution Utility (CRU).
Нажимаем на отмеченную красной стрелкой кнопку "Edit.." возле названия монитора. Появляется еще одно окно. В области, отмеченной зелёным, выставляем новый диапазон, затем два раза нажимаем "ОК".
Но это еще не всё. Из папки, где лежит программа, нужно запустить специальное приложение для применения настроек - restart.exe или restart64.exe, в зависимости от разрядности оси. Только после этого изменения диапазона сохранятся.
Программа CRU может также создавать кастомные разрешения экрана, да еще и с внештатной частотой обновления монитора. Дело в том, что многие мониторы получится разогнать. Например, по паспорту он 60 Hz, но может нормально работать и на 75 Hz. Часто ограничение частоты - это вообще маркетинг. Кроме разгона, можно попытаться увеличить диапазон VRR. Я читал, что кто-то сумел разогнать 60 Hz монитор до 75 Hz и увеличить "окно" VRR с 40-60 Hz до 30-75 Hz, что очень круто.
Кстати, у видеокарт Nvidia возможность разгона мониторов встроена в драйвер. То есть, утилита CRU может потребоваться только для изменения "окна" VRR. А для разгона лучше пользоваться официальным ПО.
В "Панели управления NVIDIA" выбираем пункт "Изменение разрешения" и нажимаем на "Настройка.."
В появившемся окне нажимаем "Создать пользовательское разрешение. ".
В следующем окне, можно экспериментировать с разрешениями и частотой обновления монитора. Лучше поднимать герцовку небольшими шагами, по 2-3 Hz. Нажатием на "Тест" проверяем работу режима. Если не подтвердить изменения, через несколько секунд происходит откат к предыдущим значениям. В случае появления серьёзных глюков, это очень удобно.
Разумеется, разгон монитора и увеличение "окна" VRR производятся на свой страх и риск. Но обычно все возможные глюки вычисляются уже на этапе тестирования. А бонус от подобных действий очень большой. Если у вас мощная видеокарта, способная выдавать FPS в играх выше 60 к/с, то на 75 Hz мониторе она раскроется больше. Увеличение диапазона VRR, в свою очередь, даст плавность движений на больших или меньших значениях FPS.
На самом деле, всё написанное мною о тестировании адаптивной синхронизации и включении нештатных режимов справедливо не только для Nvidia, но и для AMD. Это работает и в случае видеокарт Nvidia с FreeSync мониторами, и в случае видеокарт Nvidia с G-SYNC мониторами, и в случае видеокарт AMD с FreeSync мониторами. Единственное, для G-SYNC мониторов вряд ли понадобятся какие-нибудь перенастройки и разгоны, так как там обычно и без этого всё хорошо, а видеокарты AMD реже будут глючить совместно с FreeSync (что, как ни странно, не гарантирует полное отсутствие глюков, ведь бывают такие кривые реализации FreeSync, что их работа даже на видеокартах AMD вызывает душевную боль). У AMD есть своя тестовая программа, с ветряком вместо маятника, а разгонять мониторы можно с помощью той же утилиты CRU, ведь в драйверах видеокарт AMD возможностей такого разгона нет.
Сам я монитор не разгонял и диапазон VRR не увеличивал. Я, знаете ли, апологет штатных режимов и вообще за стабильность. На моем LG 27UL500-W, G-SYNC без проблем подружился с FreeSync, заработав с паспортным диапазоном - 40-60 Hz. Вернее, разрывы полностью отсутствуют в диапазоне от 42 до 58 к/с, что, как я уже писал, нормальная ситуация.
Итак, вы включили G-SYNC на FreeSync мониторе, разогнали что вам надо, увеличили, что вам надо, и определили свой рабочий диапазон VRR. Думаете, вы уже сядете играть и сразу без глюков? Как бы не так! Вы запускаете игру и, предположим, диапазон FreeSync у вас, как у меня, 42-58 Hz. Но игра оказывается не сильно требовательной и FPS в ней скачет от 48 до 70 к/с. Как только FPS поднимется выше 60 к/с, G-SYNC выключится и появятся те же самые отвратительные разрывы. Когда FPS вернется назад в рабочий диапазон, G-SYNC включится и снова наступят плавность и красота. Если же видюха плохо тянет игру и FPS составляет, например, от 25 до 45 к/с, то рвань, наоброт, появится ниже 42 к/с. В обоих случаях, нормально играть невозможно, поэтому продолжаем настройку.
Настало время привести главное правило игры на ЖК мониторах - нормально играть на них, с FPS выше максимальной частоты обновления, невозможно. Хотите больше FPS? Покупайте монитор с большей герцовкой. Смиритесь с тем, что если ваш монитор 60 Hz, то выше 60 к/с будут разрывы. Поэтому понятно, что следует ограничить FPS, выдаваемый видеокартой, до 60 к/с. Первый способ - включение Vsync. О его плюсах и минусах я уже писал. А что если попробовать включить Vsync совместно с G-SYNC? Тогда теоретически в диапазоне VRR монитора будет работать G-SYNC, а ниже его и выше 60 к/с - Vsync. Тестовая программа с маятником включить одновременно две фичи не даст, поэтому снова идём в "Панель управления NVIDIA".
В "Управлении параметрами 3D" включаем "Вертикальный синхроимпульс". (Не забудьте, что теперь в играх нельзя включать встроенные в саму игру вертикальную синхронизацию, тройную буферизацию и прочие синхро-штуки). Далее запускаем "Маятник" в режиме G-SYNC и любуемся, что же будет. В моём случае, всё получилось как положено - ниже 42 к/с и выше 60 к/с работает Vsync, а от 42 до 60 к/с - G-SYNC. Единственный минус - везде, где работает Vsync, мы получим input lag в 2-3 кадра. Поэтому рекомендуется вообще запретить Vsync включаться на 60 к/с. Для этого, с помощью сторонних программ, FPS видеокарты ограничивается до 58 к/с. Можно воспользоваться RTTS, встроенной в MSI Afterburner, или, как я, NVidia Profile Inspector.
Выставляем в месте, указанном стрелкой, 58 FPS, затем нажимаем в правом верхнем углу "Apply changes" и закрываем программу. Всё. Теперь FPS в играх не поднимется выше 58 к/с.
В итоге, при FPS в игре ниже 42 к/с у меня работает Vsync, от 42 до 58 к/с работает G-SYNC, а выше FPS вообще не поднимается, потому что на 60 Hz мониторе это ни к чему. И я вам скажу, что со включенной адаптивной синхронизацией, даже 42 к/с выглядят почти как 60 к/с. Есть, конечно, разница, но очень небольшая. Может и сам монитор еще что-то слегка уплавняет. Я не обязательно прав, но запись игрового процесса стандартным захватом Nvidia точно выглядит менее плавно, чем реальные ощущения от игры на мониторе.
Так что G-SYNC и FreeSync - не просто не бесполезные технологии, но в некотором роде прорыв, и гораздо лучше с ними, чем без них.
Если мой материал помог кому-нибудь понять суть явления и настроить свои монитор и видеокарту - буду очень рад.
Читайте также: