Как синхронизировать фпс и герцовки монитора
Всех ПК-геймеров планеты Земля, да и консольных игроков тоже, объединяет одна проблема — вертикальные разрывы изображения. И вроде бы есть куча технологий которые решают эту проблему:
- V-Sync,
- G-Sync,
- FreeSync
- А ведь еще есть Adaptive Sync
- А в HDMI 2.1 недавно добавили VRR.
Давайте сегодня раз и навсегда разберемся в технологиях адаптивной синхронизации изображения.
Для тех кто не в курсе. А в чём собственно проблема?
Чтобы изображение появилось на экране, должно произойти, как минимум, две вещи:
- графический процессор должен подготовить кадр и передать его на монитор,
- ваш монитор должен показать этот кадр.
Обычные мониторы работают на частоте 60 Гц, то есть способны выводить 60 кадров в секунду, а игровые на 144 Гц и выше.
А вот графический процессор живет в совершенно ином мире. В играх постоянно всё меняется: колышется листва, журчит ручеёк, враги выпрыгивают из-за угла. Каждый кадр отличается по своей сложности, поэтому на их просчет уходит разное количество времени.
Иными словами, у монитора частота кадров постоянная, а у видеокарты переменная.
Вот и выходит, что за один цикл обновления монитора видеокарта может подготовить больше одного кадра или меньше.
Из-за этого мало того что страдает плавность картинки, так еще и появляются артефакты в виде вертикальных разрывов изображения. Кстати, при просмотре фильмов тоже могут появляться такие артефакты, потому что кино снимают в 24 к/с.
V-Sync
Очевидно проблема требовала решения, и еще на заре компьютерных игр оно появилось! Название у этого решения — вертикальная синхронизация или V-Sync. Наверняка вы встречали такую опцию как в настройках видеокарты, так и в играх.
Работает эта штука достаточно топорно. Фактически она просто принуждает видеокарту выводить кадры с частотой кратной частоте обновления экрана. Например, если у вас монитор 60 Гц, то максимальное количество кадров в секунду тоже будет 60, даже если ваша видеокарта способна на большее. И в общем-то часто такое ограничение вполне уместно, если у видеокарты хватает мощи и нет просадок ниже 60 к/с, но если они есть — начинаются проблемы.
При включенной вертикальной синхронизации, следующее кратное значение — это 30 к/с. Поэтому даже если ваш фреймрейт просел фактически всего на пару кадров, вы всё равно увидите падение до 30 к/с. Такой перепад мало того, что большой и очень визуально ощутимый, так ещё и будет происходить с небольшим лагом. Поэтому если стабильного FPS в 60 к/с или 30 не достичь, то включать V-Sync вообще нет никакого смысла.
Справедливости ради, чем выше герцовка монитора, тем больше мы имеем кратных значений, на которых может работать синхронизация. Поэтому на игровых мониторах V-Sync работает куда лучше.
Но история с кратными значениями — не самая главная проблема технологии. Есть другой неочевидный недостаток: вертикальная синхронизация — увеличивает задержку ввода, то есть создаёт Input Lag.
Игра медленнее реагирует на ваши действия, всё происходит с задержками и как-то плывёт в молоке, поэтому прицелиться становится гораздо сложнее. Почему так происходит?
Это интересно, смотрите! Каждый кадр рассчитывается и выводится на экран через один и тот же конвейер. Упростим его до трёх этапов.
- Каждое ваше действие, например щелчок мышки надо как-то интерпретировать и обновить состояние игры. За это отвечает центральный процессор (синяя полоса на картинке ниже). Центральный процессор подготавливает кадры для графического процессора и помещает их в очередь рендеринга графического процессора.
- Затем графический процессор (зелёная полоса) берет эти подготовленные кадры из очереди и рендерит их.
- Только потом эти кадры выводятся на дисплей (серая полосочка на картинке).
Ну и в чём проблема, спросите вы? Дело в том, что ЦП не берется за подготовку следующего кадра, пока предыдущий не будет выведен на экран. Поэтому ограничивая количество выводимых кадров в угоду синхронизации с дисплеем, мы фактически увеличиваем задержки с которыми обновляется состояние игры! И если в каких-то простеньких играх типа пасьянса такие вещи допустимы, то в соревновательных играх вертикальная синхронизация может стать серьёзной помехой.
G-Sync
Но переживать не стоит, так как решение появилось еще в 2013 году. Именно тогда компания NVIDIA представила свою технологию адаптивной синхронизации — G-Sync. В отличие от старой технологии, G-Sync позволяет подстраивать не видеокарту под частоту обновления монитора, а наоборот заставляет монитор менять свою частоту под видеокарту!
Представляете? Так тоже можно было!
В результате мы получаем потрясающе плавную картинку без вертикальных разрывов и задержки ввода! Просто сказка! G-Sync также работает в огромном диапазоне частот. Изначально это было от 30 до 144 Гц, а сейчас уже есть поддержка до 360 Гц и может даже выше, тут скорее всё зависит от монитора.
А если фреймрейт падает ниже 60 Гц G-Sync умеет дублировать пропущенные кадры.
Получаются сплошные плюсы и проблема решена еще в 2013 году? Так почему же мы до сих пор об этом говорим?
Ну как сказать. Во-первых, эта технология закрытая, соответственно, G-Sync работает только с карточками NVIDIA, но это пол беды.
Все волшебные функции G-Sync стали возможны благодаря специальному чипу, который необходимо встроить в монитор. Естественно, эти чипы производит тоже NVIDIA и стоят они недешево. Поэтому мониторы с поддержкой G-sync в среднем стоят на 250-300$ дороже и таких моделей очень мало. То есть получилась классная, и для 2013 года революционная технология, но не универсальная и дорогая.
VESA Adaptive Sync
Поэтому уже спустя год, в 2014, Ассоциация стандартизации Video Electronics Standards Association или VESA представила открытую технологию Adaptive Sync, которая умеет, в принципе, всё то же самое, что и G-Sync, но без дорогостоящих чипов и работает на частотах от 9 до 240 Гц! Неплохо да?
Но для внедрения технологии нужно, чтобы её поддержку внедрили в прошивку и драйвер монитора, драйвер видеокарты, операционной системы и в игры!
А также необходимо наличие DisplayPort версии не ниже 1.2a, так как технология стала частью именно Display Port. Как видите, чтобы технология взлетела, нужно было проделать много работы. И этой работой занималась компания AMD.
AMD FreeSync
В 2015 году AMD внедрили Adaptive Sync в драйвера своих видеокарт и назвали технологию FreeSync. Реализация от AMD быстро получила очень широкое распространение. Добавить поддержку FreeSync в монитор оказалось настолько дешево, что сейчас сложнее найти игровой монитор без этой фичи, чем с ней.
Но AMD не остановились на просто внедрении стандарта от VESA. Также они добавили поддержку HDMI, начиная с версии 1.4. А в 2017 выпустили FreeSync 2, в который добавилась поддержка HDR и компенсацию низкой частоты кадров, как в G-SYNC.
Кстати, чуть позже, FreeSync 2 переименовали в более элитное FreeSync Premium Pro, а обычный FreeSync для мониторов с частотой 120 Гц и выше стали называть FreeSync Premium. Хотя такие маркетинговые финты я не одобряю, но в остальном сплошной респект AMD за популяризацию стандарта.
Кстати, NVIDIA также в 2017 году добавила поддержку HDR и назвала это всё G-Sync Ultimate.
И вроде бы всё классно, в команде у красных и у зеленых есть по своей шикарной технологии. Но что делать, если у тебя видеокарта от NVIDIA, ты хочешь нормальную поддержку G-Sync, но покупать дорогущий монитор с этой технологией совсем не хочется? Или наоборот — не покупать же Radeon только потому что у тебя монитор с FreeSync?
До недавнего времени выбора не было никакого. Хочешь подешевле и побольше выбор мониторов - покупай Radeon. В другом случае, придется раскошелиться.
G-Sync Compatible
Но в 2019 году NVIDIA пошли навстречу покупателям и добавили поддержку стандарта VESA Adaptive Sync в драйвера для своих видеокарт серии RTX, а также для карточки GTX 1080. А значит теперь можно легко насладиться лучшим из двух миров: взять себе карточку от NVIDIA и монитор с FreeSync по вкусу. Вот только есть проблема. Если на FreeSync мониторе не написано G-Sync Compatible — значит он не был протестирован NVIDIA на совместимость и никаких гарантий, что всё будет работать нормально, вам никто не даёт. А NVIDIA тестирует далеко не все, и далеко не самые доступные модели.
Поэтому инициативу по тестированию в свои руки взяло интернет-сообщество. Они составили табличку с огромным списком протестированных пользователями мониторов.
С мониторами, кажется, разобрались. Но как быть, если хочется поиграть на большом экране телевизора через консоль или ПК. Будет ли работать адаптивная синхронизация? Спешу вас порадовать — будет! При условии что ваш ТВ оснащен портом HDMI версии 2.1, в который добавили технологию переменной частоты обновления VRR - Variable Refresh Rate.
Причём всё будет работать и с видеокартами от NVIDIA и с Radeon. Всё потому, что VRR — это та же самая технология VESA Adaptive Sync, но теперь она стала ещё и частью стандарта HDMI 2.1. Именно таким образом адаптивная синхронизация реализована в консолях нового поколения. А также, вы удивитесь, в Xbox One S и One X. Да, в коробки текущего поколения от Microsoft VRR завезли даже раньше, чем HDMI 2.1.
Итоги
Что, в итоге спустя 6 лет после своего появления, технология Adaptive Sync стала фактически отраслевым стандартом. Захватив видеокарты от AMD и NVIDIA, телевизоры и даже интегрированная графика от Intel в 11-м поколении процессоров теперь поддерживает эту технологию. А это значит, что в светлом будущем мы будем жить без единого разрыва, по крайней мере, вертикального!
- Если у человека железо меньше выдает fps чем на мониторе герц. будет лагать игра или нет?
- И есть ли смысл покупать с начало такой монитор допустим 144 герц или лучше с начало приобрести по мощнее видеокарту?
1) Где-то будет, где-то не будет. Точнее везде будет, но не везде твой глаз будет это замечать
2) Видеокарту
1) Где-то будет, где-то не будет. Точнее везде будет, но не везде твой глаз будет это замечать
2) Видеокарту
А если включить G-sync исправит ситуацию с более низким Fps и высокой герц. или все равно могут быть лаги?
А если включить G-sync исправит ситуацию с более низким Fps и высокой герц. или все равно могут быть лаги?
Я не знаю что такое G-sync. Предпологаю что это тупа другой метод синхронизации. Если моник не умеет переключаться в 60 или 30 кадров - от лагов тебя ничего не застрахует. Сейчас есть методы половинной синхронизации, что иногда спасает при слабом железе, но это скорее костыль.
Ты бы почитал вообще что такое герцовка и для чего нужна синхронизация кадров
Смысол тебе от видяхи если моник 60 герц не выдаст тебе больше 60+фпса.
Я бы пробовал взять и видяху среднюю и моник скажем хотя бы 120герц
Я не знаю что такое G-sync. Предпологаю что это тупа другой метод синхронизации. Если моник не умеет переключаться в 60 или 30 кадров - от лагов тебя ничего не застрахует. Сейчас есть методы половинной синхронизации, что иногда спасает при слабом железе, но это скорее костыль.
Ты бы почитал вообще что такое герцовка и для чего нужна синхронизация кадров
А если понизить герц. на время улучшит ситуацию?
- И есть ли смысл покупать с начало такой монитор допустим 144 герц или лучше с начало приобрести по мощнее видеокарту?
да, не слушаешь мамкиных экспертов, которые ни разу в жизни не видели 100+ герц и покупаешь моник на 144гц и оргазмируешь от плавной картинки.
- Если у человека железо меньше выдает fps чем на мониторе герц. будет лагать игра или нет?
нет, лаги завязаны на производительности процессора и видеокарты, а не на герцовке монитора. Более высокогерцовый монитор просто будет дублировать недостающие кадры.
А если понизить герц. на время улучшит ситуацию?
Герцовку монитора? Ну если он умеет 60 герц то будет как на обычном монике, правда я хз они вообще умеют так (вроде нет)
Нет разницы между 60 фпс на 60 герц мониторе и 60 фпс на 144 герц мониторе.
- Если у человека железо меньше выдает fps чем на мониторе герц. будет лагать игра или нет?
- И есть ли смысл покупать с начало такой монитор допустим 144 герц или лучше с начало приобрести по мощнее видеокарту?
1 Если у тебя включена вертикальная синхронизация то подлагивать будет, если не включена то никакой разницы не будет
2 Лучше взять мощнее видеокарту
- Если у человека железо меньше выдает fps чем на мониторе герц. будет лагать игра или нет?
- И есть ли смысл покупать с начало такой монитор допустим 144 герц или лучше с начало приобрести по мощнее видеокарту?
1) Зависит только от наличия и типа синхронизации, и от того что ты понимаешь под лагами. Допустим моник у тебя 60гц, игра выдает около 55. Варианта два: ты либо синхронизируешь картинку и тогда у тебя будут микростаттеры (ибо когда монику будет нехватать кадров он будет дублировать старый, у тебя будет 5 фреймов длиной в 32мс вместо стандартных при 60гц 16мс), либо будет тиринг (разрыв картинки ибо вк неуспела дорисовать цельный кадр).
Чем ниже будет твой фреймрейт при тех же 60гц (например 40-45) - тем больше статтеров будет, проще будет залочить на 30 кадрах и играть как консольщики
2) офк видяху, моник лишь выводит то, что нарисовала карта. Если она ничего не нарисовала - не важно что за мон будет.
А если включить G-sync исправит ситуацию с более низким Fps и высокой герц. или все равно могут быть лаги?
Жсинк устраняет обе проблемы, но стоит слишком дорого чтоб думать о нем в бюджетном сегменте.
Т.е с жсинком я например могу спокойно играть при 50фпс, при 45 и тп, но лучше офк вложиться в карту мощнее.
Если моник не умеет переключаться в 60 или 30 кадров
Это какая то феерическая чушь. Моник либо пашет на своей, либо поддерживает адаптивку. Свитч между 30-60 это вертикалка
да, не слушаешь мамкиных экспертов, которые ни разу в жизни не видели 100+ герц и покупаешь моник на 144гц и оргазмируешь от плавной картинки.
без нормальной видяхи он будет оргазмировать только от своей глупой траты денег
Нет разницы между 60 фпс на 60 герц мониторе и 60 фпс на 144 герц мониторе.
тащемто есть, ибо 60 на 144 не делится
1) Зависит только от наличия и типа синхронизации, и от того что ты понимаешь под лагами. Допустим моник у тебя 60гц, игра выдает около 55. Варианта два: ты либо синхронизируешь картинку и тогда у тебя будут микростаттеры (ибо когда монику будет нехватать кадров он будет дублировать старый, у тебя будет 5 фреймов длиной в 32мс вместо стандартных при 60гц 16мс), либо будет тиринг (разрыв картинки ибо вк неуспела дорисовать цельный кадр).
Чем ниже будет твой фреймрейт при тех же 60гц (например 40-45) - тем больше статтеров будет, проще будет залочить на 30 кадрах и играть как консольщики
2) офк видяху, моник лишь выводит то, что нарисовала карта. Если она ничего не нарисовала - не важно что за мон будет.
Жсинк устраняет обе проблемы, но стоит слишком дорого чтоб думать о нем в бюджетном сегменте.
Т.е с жсинком я например могу спокойно играть при 50фпс, при 45 и тп, но лучше офк вложиться в карту мощнее.
Это какая то феерическая чушь. Моник либо пашет на своей, либо поддерживает адаптивку. Свитч между 30-60 это вертикалка
без нормальной видяхи он будет оргазмировать только от своей глупой траты денег
тащемто есть, ибо 60 на 144 не делится
Тоесть если моник будет g-sync то можно будет на нем поиграть со старой видеокартой пока не куплю новую видюху? Лагов с g-sync не будет? Просто покупал недавно видюху нехотелось опять покупать.
Добрый день. Не до конца понимаю концепцию, поэтому решил уточнить пару моментов. Если частота обновления монитора 60Hz, а fps например 40 - то появляются заметные лаги, отставание картинки, желе.
Недавно появился экран 120Hz и в 2к разрешении 120 fps в большинстве современных тайтлов компьютер не выдаёт. Он крутится в районе 90-100. И кажется, что это не 90-100, а те же 40. Картинка также не плавная. Вопрос - что я делаю не так? Есть ли из этой ситуации какой-то выход? Или для плавной картинке на экране со 120Hz обязательно нужно стабильные 120 fps? Спасибо.
Вопрос - что я делаю не так? Есть ли из этой ситуации какой-то выход?
Freesync
А разве имеет смысл его включать, если фпс меньше герцев?
Его именно для этого и имеет..
Погуглил.
Ну, бум знать, я знал что это для синхронизации частоты без разрывов и потери производительности (как в простой вертикалке), но думал что фпс должен быть больше или равен герцам, чтобы это работало ¯\_(ツ)_/¯
Продолжаем просвещать тебя: амд фрисинк работает и на видеокартах нвидиа (паскали и выше, при подключении через дисплейпорт).
Серьезно? Без танцев с бубном? Чем подключение через display порт хуже\лучше, чем через hdmi?
Просто еще один проприетарный порт.
Лучше тем что он открытый, и позволяет передавать больше информации(ну в зависимости от версии, но последние дисплей быстрее последнего hdmi). и фрисинх сейчас официально часть спецификации дисплей-порта
Через дп не передается звук
Не всегда и не везде как надо.
Эт я давно в курсе, но моник у меня не поддерживает, к сожалению. Поэтому особо и не интересовался.
Он для этого случая и существует
У меня Nvidia и экран без поддержки G-sync
Если у тебя монитор поддерживает freesync, то на свежих дровах включить g-sync можно в панели управления нвидия ред.
Да, у меня на телевизоре есть поддержка freesync. Для этого надо по дисплей порту подключиться же ? Я что-то теряю, в сравнении с hdmi?
но его всегда можно вывести отдельно через hdmi же. или нет ?
Звук по DP тоже передается.
Я думаю что нет
Ах если бы все было так просто.
Я дал человеку направление куда копать, расписывать ньюансы считаю плохой идеей, вон я уже с дисплей портом лажанул.
Если частота обновления монитора 60Hz, а fps например 40 - то появляются заметные лаги, отставание картинки, желе.
Дело не в разнице частоты монитора и фпс.
А в резких скачках фпс и фреймтайме.
На правах мимокрокодила, сам не смотрел. ред.
То есть, имеет смысл покупать 120+гц моник, если фпс будет стабильным на уровне 80 или 90?
На счет смысла хз, но будет лучше чем 80 фпс на 60 герцовом монике. В теории.
Но как я сказал выше, сам я никогда с этим не сталкивался и даже не видел.
Ситуация, как ты написал. Моя 2080 не вытягивает 144 фпс в 2к в ААА играх, но играется с i9 и памятью 3600 МГц все идеально плавно, без рывков и фризов. ред.
У меня 2080ti с i7 + 3300 и в 2к с 100фпс при 120 герц хуже, чем в 1080 с 60 герц и 60 фпс. Вот я и думаю, что я что-то делаю не так.
Тут даже наверное слишком низкий фпс для 2080ти (но это не точно). Какой i7 стоит? Какие тайминги у памяти? XMP в биосе включить не забыл? Опять же, чекни фреймтайм, по нему будет хотя бы понятно, куда копать. Подобной фигни быть не должно. ред.
i7-9700k, Тайминги точно сейчас не вспомню, но выставлял по инструкции с умных сайтов. XMP включен. Что такое фреймтайм и как его чекнуть? Спасибо.
Фреймтайм - время, затрачиваемое на генерацию кадра. Если он скачет, то даже при высоком фпс картинка будет рваной. Качаешь Msi afterburner, там в настройках врубаешь мониторинг фреймтайма в виде графика и смотришь, какие у него значения, как часто он скачет и как сильно. В норме на твоей системе он должен быть плавным с редкими небольшими скачками. Если фреймтайм не очень, то попробуй вернуть память к обычным значениям XMP, возможно что-то не то накрутил там.
Не знал, что у Afterburner есть мониторинг фреймтайма, спасибо.
Может стоит тебе всё скинуть на сток и не экспериментировать? Видно что ты не понимаешь что делаешь, при этом любя почитать всякую дичь. От того и проблемы.
Хороший совет, но сомневаюсь что всё равно удастся добиться стабильныз 120 фпс этим.
Стабильные 120 фпс это только для киберкотлетных дисциплин.
А где ты их добиться хочешь? И ты понимаешь, что люди ради фпс понижают графику? Сильно понижают.
Я сейчас в такой же ситуации. Думаю брать 1440р 144гц.
Думаю смысл есть, так как в любом случае Моник переживет комп
Есть одно наглядное видео про фпс герцовку и фрисинк
Надо лочить стабильные фпсы. Плюс мониторы как правило могут менять герцовку, игра не выдает 120 фпс? Ну тогда меняешь на 60гц. ред.
к сожалению на 2к разрешении мой экран ( это телевизор ) может только 120Hz по какой то нелепой причине. в 4к или в 1080 - пожалуйста, 60.
Залоч макс фпс на 80 или 90, оставь 120герц, включи фри синк, если он в твоём монике есть. Настройки графики понизь.
у меня на 144гц 90-100 фпс конечно менее плавно чем 144 выглядят, но все равно ощутимо плавнее 60, никакими 40 там уж точно не пахнет, у тебя видимо какие-то лютые проблемы с фреймтаймом
Или для плавной картинке на экране со 120Hz обязательно нужно стабильные 120 fps
Естественно. Что за приколы?
Что за приколы?
Сложные.
Насколько загружен процессор, и есть ли резкие просадки в Frametime'e?
+ какой процессор и частота памяти ред.
Что такое frametime? Как его проверить? Резких просадок нет. i7-9700k, 3300
Представь, что у тебя 119 кадров рендерятся по 7 миллисекунд, а на 120-м процессор резко решил подгрузить локацию, в которую ты переходишь, поэтому на быстрый рендер ресурсов не хватило и он занял аж 167 миллисекунд. Если смотреть на это с точки зрения FPS, то компьютер за эту секунду выдал ровно 120 кадров, просадка не замечена. Но был лаг, который не заметить невозможно. Чтобы такое отлавливать, нужно смотреть на frametime — сколько времени рендерились кадры.
Если у тебя процессор слишком слаб для видеокарты, подобные просадки неизбежны, я тоже в первую очередь про это подумал. Но 9700k должно хватать на любую видеокарту, по идее.
Установи любую прогу для мониторинга данных системы во время игры, к примеру MSI Afterburner + Riva tuner statistic server, там будут указаны данные включая фреймтайм, если не поймешь в чем проблема кинь сюда скриншот статистики.
Или для плавной картинке на экране со 120Hz обязательно нужно стабильные 120 fps?
Гц = 1/sec
Фпс = frames/sec
По-поводу что делать - выше ответили. Freesync, G-sync.
+ желательно замерить фреймтаймы афтербёрнером.
Если значения на графике фреймтайма скачут:
Подумай о разгрузке проца или покупке более быстрой памяти(для райзен) или памяти с меньшими таймингами (для интела).
Все началось с того момента, когда я просто установил Skyrim SE на Windows 10. Вместо игры пришлось лазить по форумам, какого Довакина 60 FPS-то при 144 Гц. Про то, что высокий FPS приводит к багам, я не знал. Но тем не менее, пришлось разобраться в вопросе. При 110 FPS вроде как глюки с движком отсутствуют, телеги в начале не летают. Итак, для удобства понимания, составим таблицу опций (она ниже) для перебора настроек. Опции 1 и 2 находятся в Панели Nvidia. Номер 3 это сам файл игры (в папке "*:\SteamLibrary\steamapps\common\Skyrim Special Edition\"). Файлы 4 и 5 в директории "*:\***\Documents\My Games\Skyrim Special Edition\". Получился этакий квест, который надеюсь поможет.
Надо сказать я перепробовал все варианты из форумов и ничего не помогло. Все равно было 60 FPS и 60 Гц. Что изменило ситуацию станет ясно позже.
Все 5 пунктов выставлены по дефолту, а если точнее, все варианты по дефолту б):
1 Предпочтительная частота обновления: а) Высшая доступная;
б) Управление от приложения;
2 Вертикальный синхроимпульс: а) Выкл;
б) Управление от приложения;
3 Свойства Совместимость SkyrimSE.exe: а) Отключить оптимизацию во весь
экран(флажок);
б) Оставить как есть(без флажка);
4 SkyrimPrefs.ini: а) iVSyncPresentInterval=0;
б) iVSyncPresentInterval=1;
5 Skyrim.ini: а) Добавление в раздел [Display] строки
bLockFramerate=0;
б) Без строки bLockFramerate=0.
Допустим у вас монитор 144 Гц (как у меня).У меня значения частоты кадров показывает MSI Afterburner, а аппаратное значение частоты монитора - его встроенная функция. Без нее настроить по гайду, конечно, будет можно (если у кого вдруг нет такой опции в мониторе "показывать частоту кадров"), но проверять придется только по визуальным ощущениям. Рассмотрим все для ПОЛНОЭКРАННОГО режима, НЕ оконного. И при условии, что видеокарта вытягивает с запасом FPS больше, чем частота монитора или больше, чем 60 (иначе нет смысла в танцах с бубном).
Начнем с того, что FPS в игре и аппаратная частота на мониторе никак не связаны, если нет искусственных условий (типа вертикальной синхронизации). То есть FPS в игре будет, например, 1000 (меню), а рабочая частота монитора 144 Гц,- они могут работать независимо. Но нам важны и нужны всего ДВА варианта:
1) Частота монитора 144 Гц, а FPS в игре ограничен любым значением (способ не важен), при условии - БЕЗ вертикальной синхронизации. И тут есть два пути:
а) если ограничить FPS менее 144, то и аппаратно на мониторе будет та же частота (Например 90 FPS заставят монитор работать на 90 Гц). Такой вариант рузумен, если видеокарта тянет больше 60 FPS, но не выдает нужные максимальные 144 FPS.
б) если ограничить FPS больше 144, то монитор так и будет пахать на 144 Гц, а FPS будет каким его задали.
2) Частота монитора 144 Гц, FPS синхронизирован с монитором, то есть тоже 144 FPS.
Остальные варианты не важны, да и бессмысленны.
Чтобы перебрать все комбинации из таблицы, можно рехнуться, нужно исходить из логики.
К тому же, к примеру вариант 2а) равносилен 2б)+4а). Итак, по порядку: мы имеем 60 FPS и 60 Гц. Далее:
1.Для начала нужно отключить вертикальную синхронизацию, чтобы "отвязать" FPS от герцовки монитора, то есть или 2а) или 2б)+4а). Получаем 60 FPS и 60 Гц.
2.Теперь нужно разблокировать FPS в игре. Включаем опцию 5а). Получаем over>144 FPS и 60 Гц. Почему все еще 60? - Потому что установлена опция 1б).
3.Меняем на 1а). Получаем over>144 FPS, 60 Гц. Почему же опять так. А потому что установлена по дефолту опция 3б). А вот это как раз та самая засада Win10, которая мешала мне получить желаемый результат.
4.Ставим флажок 3а). Получаем over>144 FPS, 144 Гц. Бинго!
Так вот, верт. синхронизацию отключали вначале, чтобы отсеять непонятные ситуации.
5.Теперь ее можно (и нужно) включить, чтобы получить РОВНО 144 FPS, 144 Гц. Какими опциями, - уже описано выше. Если у вас нет функции G-Sync в мониторе, то этот пункт вам нужен, разрывов изображения не будет.
6.А если у вас есть G-Sync и при этом хотите больше, чем 144 FPS при 144 Гц, то просто ограничиваете частоту кадров любым способом. Либо Нвидиа инспектор, либо MSI Afterburner+RivaTunerStatisticServer. Гугл вобщем.
Отдельно стоит отметить вариант оконный без рамки. Тут вообще минимум заморочек. Можно выбросить пункты 3. и 4.Важным останется выполнить только п2.: если отключить верт. синхронизацию (п1.) получим over>144 FPS, 144 Гц; если включим (п5.), получим 144 FPS, 144 Гц. А если не выполнить и п2.(значение верт. синхр. не важны), получиться весьма интересная ситуация 60 FPS и 144 Гц, что невозможно получить в полноэкранном режиме, потому что в оконном режиме монитор работает с частотой рабочего стола и на его герцы не влияет ничего.
P.S. Долго и муторно, зато разобрались))). Подобное можно проворачивать и с другими играми, где встретятся такие проблемы. В частности "Отключить оптимизацию во весь экран"
Дополнение к гайду.
А теперь самое важное. Я не сразу это выяснил при написании того, что выше.
Чтобы избежать багов физики движка нужно в файл Skyrim.ini добавить пункт:
0.0069 это значение для 144 FPS.
fMaxTime=0.0333 is for 30fps
fMaxTime=0.0166 is for 60fps
fMaxTime=0.0133 is for 75fps
fMaxTime=0.0111 is for 90fps
fMaxTime=0.0083 is for 120fps
fMaxTime=0.0069 is for 144fps
fMaxTime=0.0042 is for 240fps
При проверке работы сего гайда, я не выяснил, что делает эта функция. Теперь же нет вообще никаких ограничений для мониторов с любой частотой.
Никаких лагов теперь нет. Проверил и с включенными модами и без них.
Все работает.
У меня.
Впечатление от частоты выше 60Гц на Скайриме отражаются круто, все более живое, и кстати указатель мыши становиться не ватным.
Читайте также: