Что такое AMD FreeSync и Nvidia G-Sync



Мы уже давно привыкли к тому, что мониторы имеют фиксированную частоту развертки изображения — обычно 60 Гц. Фиксированная частота пошла еще с ЭЛТ-телевизоров, когда видеоряд имел четко заданное количество кадров в секунду — обычно 24. Но вот в играх частота кадров не является постоянной — она может изменяться в очень широких пределах, и из-за того, что частота развертки не совпадает с частотой рендеринга кадров видеокартой, в итоге и появляются разрывы изображения, что мешает комфортному игровому процессу. Это происходит из-за того, что изображение выводится на дисплей даже в том случае, если вывод части предыдущего кадра ещё не закончен полностью — оставшаяся часть буфера приходится на текущее обновление экрана. Именно поэтому каждый выведенный на монитор кадр при несовпадении частот, указанных выше, будет по сути состоять из двух кадров, отрендеренных видеокартой.

Вертикальная синхронизация

Самый простой метод решения проблемы — включение вертикальной синхронизации. Что она делает? Она выводит изображение на монитор только тогда, когда кадр полностью готов. Соответственно, если у вас монитор с 60 Гц, и видеокарта выдает больше 60 fps — вы получаете плавную картинку без единого разрыва и артефакта (при этом видеокарта не будет нагружена на 100%). Но тут уже появляется другая проблема — задержка при выводе изображения. Если монитор обновляется 60 раз в секунду, то на один кадр тратится 16.7 мс, и даже если видеокарта подготовила кадр за 5 мс — монитор все равно будет ждать оставшиеся 11 мс:



Поэтому управление становится «вязким» — при движении мышью отклик на мониторе происходит с небольшой задержкой, поэтому становится труднее позиционировать прицел в шутерах и прочих динамических играх. Еще хуже, если видеокарта не способна выдать в игре 60 fps — к примеру, если fps 50, и включена вертикальная синхронизация, то каждую секунду будет 10 кадров, в которые на экран не будет выведена новая информация, то есть каждую секунду будет 50 кадров с задержкой до 16.7 мс, и 10 кадров с задержкой в 33.4 мс — в итоге картинка будет дерганной, и играть будет невозможно. 

Поэтому до недавнего времени у игроков было три варианта — или включать вертикальную синхронизацию (если fps выше 60) и мириться с не самым удобным управлением, или отключать синхронизацию, и терпеть артефакты изображения.

AMD FreeSync и Nvidia G-Sync

Разумеется, крупные компании нашли решение проблемы — они придумали принудительную синхронизацию частоты развертки и рендеринга кадра видеокартой. То есть если видеокарта сделала кадр за 5 мс — монитор выведет предыдущий кадр на 5 мс, ничего не ожидая. Если следующий кадр был отрендерен за 20 мс — монитор опять же будет держать предыдущий кадр на экране 20 мс:



Что это дает? Во-первых, так как монитор выводит полностью готовые кадры и они синхронизированы с частотой развертки, нет никаких артефактов. Во-вторых, так как монитор выводит кадр сразу же, как он был готов, ничего не ожидая, нет никакой «вязкости» управления — изображение на мониторе меняется сразу же, как только вы пошевелили мышью. 

Различия между FreeSync и G-Sync

Каждый из вендоров пошел своим путем: у AMD частота развертки контролируется самой видеокартой, а монитор должен быть подключен через DisplayPort. С одной стороны, это плохо — если видеокарта не имеет аппаратной поддержки FreeSync, то вы не сможете им воспользоваться. С учетом того, что эту технологию поддерживают только чипы линейки R7 и R9 начиная с 200ых, а также линейки Fury и RX — за бортом остаются чипы линеек HD 7000, некоторые из которых вообще говоря ничем не отличаются от чипов 200ой линейки (да, банальное переименование). Мобильные версии видеокарт AMD FreeSync вообще не поддерживают, даже если они мощнее десктопных карт, в которых есть его поддержка. С другой стороны, так как по сути весь контроль идет со стороны видеокарты, монитор для FreeSync оказывается дешевле такового с G-Sync на 80-100 долларов, что вполне ощутимо.

Nvidia пошла другим путем — контроль за частотой развертки выполняет сам монитор, в который встроен специальный чип. С одной стороны, это хорошо — поддерживаются видеокарты начиная с GTX 650 Ti, а так же мобильные решения начиная с 965М. С другой стороны — чип стоит денег, поэтому мониторы с G-Sync дороже.

Так же различается и допустимые частоты развертки. У AMD это 9-240 Гц, у Nvidia — 30-144 Гц. Цифра в 9 Гц скорее вызывает улыбку (ибо это слайд-шоу), и 30 у Nvidia в принципе можно считать допустимым минимумом. А вот то, что у Nvidia ограничение на 144 Гц, уже может быть мало, так как топовые игровые мониторы имеют частоту вплоть до 240 Гц. Но, увы, пока что у AMD нет таких видеокарт, которые могут выдать в киберспортивных играх больше 200 fps, так что 240 Гц на данный момент — просто хороший запас на будущее. С другой стороны, если частота кадров в игре опускается ниже минимальной частоты развертки монитора, у AMD просто принудительно выставляется эта частота, то есть мы получаем те же проблемы, что и с вертикальной синхронизацией. Nvidia же сделали хитрее — чип G-Sync может дублировать кадры для того, чтобы попасть в рабочий диапазон частот монитора, так что никаких задержек в управлении или артефактов не будет:



Еще один плюс в сторону AMD — отсутствие небольших задержек при передаче данных на монитор, так как FreeSync использует технологию Adaptive-Sync стандарта DisplayPort для того, чтобы заранее узнать минимальную и максимальную частоту обновления монитора, поэтому передача данных не прерывается на координацию работы видеокарты с модулем G-Sync в мониторе, как у Nvidia. Однако на практике разница оказывается не больше 1-2%, так что этим можно пренебречь.

Разумеется, возникает вопрос — влияют ли технологии синхронизации кадров на производительность в играх? Ответ — нет, не влияют: разница с выключенной синхронизаций и FreeSync или G-Sync оказывается нулевой, и это понятно — по сути эти технологии не заставляют видеокарту обсчитывать больше данных — они просто выводят уже готовые данные быстрее.

В итоге — что же лучше? Как бы смешно это не звучало, но у пользователей нет выбора: те, кто пользуются продукцией «красных», вынуждены использовать FreeSync. Те, кто пользуются продукцией «зеленых», аналогично могут использовать только G-Sync. Но, в принципе, на текущий момент технологии выдают схожий результат, так что выбор действительно заключается только в производителе и мощности видеокарты.
7

Рекомендации

Рекомендации

Будь в курсе последних новостей из мира гаджетов и технологий

Мы в соцсетях

Комментарии

+1764
Пользователь удален
Просили статью про Freesync/G-sync — пожалуйста). Если у кого-то еще есть темы статей — пишите их в комментариях, по самым интересным будет материал.
3 июля 2017 в 12:27
#
barbarianin
+190
Хотелось бы почитать мнение экспертов по SLI и CrossF, что лучше ( для геимиров и дизайнеров)
3 июля 2017 в 12:40
#
+1764
Пользователь удален barbarianin
Окей, опишу каждую из технологий и сравню их возможности.
3 июля 2017 в 13:17
#
Cowboy
+285
Юзал я CrossFire, две топовые видеокарты Radeon HD5870, только не для дизайна, а для игр, популярных игр, типа GTA5, Fallout 4.
Проблема в том, что не все игры поддерживают CrossFire, далеко не все. Также реализация этой технологии оставляет желать лучшего, в общем, исходя из моей личной практики, с включением всех настроек, всё как положено, ФПС у меня с включённым CrossFire в поддерживаемых играх был ниже, чем без него :)
Лучше всего был с одной видюхой, тогда вообще шикарно, и не важно, поддерживает игра CrossFire или нет)
В общем технология сыра, её мало доработали, и похоже, это такой же маркетинговый трюк от производителей видеокарт, как и с FreeSync и G-Sync. Но это моё имхо, и для дизайнеров хз, оптимизировали ли их специфичное ПО, как мне кажется, что вряд ли.
3 июля 2017 в 13:38
#
barbarianin
+190
Вопрос — в каком году проводил тест и какой прогой замерял фпс (Fraps?) ? Ведь кросс и слай по большей части аппаратная штука а дрова и софт обновляются, если не каждый месяц то через 3 как максимум.... а раз идёт аппаратное ускорение то и игры могут не определить что это кросс/слай
3 июля 2017 в 13:59
#
Cowboy
+285
В прошлом и позапрошлом году, в течении нескольких месяцев.
Измерял на то время прогой Fraps, но это было так, подстраховка, я прекрасно видел и так, где лучше или хуже)
3 июля 2017 в 14:40
#
barbarianin
+190
Интересно , я загуглил- твоя видюха 2009 года! Сейчас то иксовые кроссы идут , без мостика, в софте переключил и все. Посовременнее карточку потестил бы , хоть нвидио хоть ати- заметил бы разницу другую. Для 2010 она норм была, хоть и по тестам кросс всего на 10процентов производительность поднимает
3 июля 2017 в 14:48
#
Cowboy
+285
Егор, большое спасибо за статью! Интересная статья, в начале не сразу понял, но когда перечитал, всё сразу стало понятно) И стало понятно, что нужно искать подходящий монитор) Такой вопрос, а Вы пробовали эту технологию в деле? Стоит ли игра свеч? Как я понял, такие мониторы стоят от 40 тысяч с поддержкой Nvidia G-Sync....(
Для Nvidia так же подключение идёт через DisplayPort?
Есть отзывы, как люди говорят про технология АМД, "разницы не видно, может и есть, но что-то на уровне погрешности и плацебо"
Возможно для Nvidia это иначе. Мне их технология нравится больше, исходя из статьи.
3 июля 2017 в 13:26
#
+1764
Пользователь удален Cowboy
Некоторое время юзал ноутбук с 1070 и G-Sync — впечатления крайне положительные, играть в шутеры с 80-100 fps стало гораздо приятнее.
Да, для нвидии тоже нужен DisplayPort.
Насчет «разницы не видно» — ну у всех разное восприятие, кому-то и 30 фпс на консолях хватает, а кому — только 144 с g-sync.
3 июля 2017 в 13:49
#
barbarianin
+190
Я бы дополнил — кто-то в решку 15" смотрит, а кому-то и метровой диагонали не хватает))))
3 июля 2017 в 14:03
#
Cowboy
+285
я скорее видимо подхожу к тем, кому нужно 144 с g-sync) так как очень чувствителен к частоте кадров, в кинотеатре бывают моменты когда их 24(или 30) кадра самое настоящие слайдшоу, а не видео.
3 июля 2017 в 14:38
#
barbarianin
+190
А ты в кино — подстраивайся моргать на задержках)))) или шторы(очки) придумай которые частоту поднимают до 75Hz)))))
3 июля 2017 в 14:52
#
barbarianin
+190
Не знаю — стоят R9 390x 8G в кросфаире, в купе с gma i7 и оперативой 32гб. 3D max рендерит на ура. А dxdiag показывает видюху на 32
3 июля 2017 в 12:36
#
Cowboy
+285
сейчас у меня nvidia 1060, и она SLI даже не поддерживает)
3 июля 2017 в 14:54
#
barbarianin
+190
Кстати, по теме тестирования видюх и прочего. Видовая оценка у меня вот что показывала
3 июля 2017 в 23:08
#
Cowboy
+285
А как эту оценку посмотреть в Windows 10?
4 июля 2017 в 16:27
#
barbarianin
+190
Сразу не скажу, сейчас занят — на работе! Через пару часов отпишу как сделать. У тебя какая винда ? 10?
4 июля 2017 в 16:31
#
Cowboy
+285
Да, обычная Windows 10, тут если войти в информации о ПК, нет больше ссылки на измерение производительности, как это было в Windows 7 или 8
4 июля 2017 в 16:39
#
barbarianin
+190
Короче с 10ки её убрали, но вроде на сайте у микрософ она есть WSAT называется.
Если не найдёшь-то вот тебе шара с облака
https://cloud.mail.ru/public/G6bk/fqEkiqLhj
4 июля 2017 в 17:58
#
barbarianin
+190
Если будет выдавать : индекс в не границ массива.
То в командой строке winsat formal заново тест пройти
4 июля 2017 в 18:01
#
barbarianin
+190
Да и скинь скрин, тоже интересно что у тебя покажет
4 июля 2017 в 18:08
#
Cowboy
+285
У меня всё упирается в проц) ибо он как и моя прошлая видюха — 2009 года) AMD Phenom II X4 965
Думаю с норм процом и в SSD покажет лучше результат.
4 июля 2017 в 19:41
#
barbarianin
+190
Не, если жестах менять не будешь , то цифра не изменится я думаю. Там вроде проверки отдельно идут. А так норм показатели даже с амдшником
4 июля 2017 в 19:46
#
barbarianin
+190
Кстати у меня i7 4790k, разгонный даже до 9 не дотянул как видишь, не думаю что у тебя замена проца какие-то другие показатели изменит
4 июля 2017 в 19:52
#
Cowboy
+285
Изменит, конечно не до 9.9, но как у тебя хотя бы, так как ОЗУ так же упирается в проц, и SSD тоже, от проца много зависит) Даже могут показания измениться, видюхи для рабочего стола. Там реально не зависимая оценка от проца, это только видюха для игр
4 июля 2017 в 20:51
#
barbarianin
+190
Ну, не знаю. Тестить надо, че гадать. Но чёт я сильно сомневаюсь что другие параметры меняется будут
4 июля 2017 в 20:57
#
Cowboy
+285
Ну да, без теста ничего не узнаем) Я планирую купить китайскую мать и б.у. серверный проц с али, проверю, отпишусь, что изменилось)
4 июля 2017 в 20:59
#
barbarianin
+190
Успехов тебе))) в твоём нелегком деле
4 июля 2017 в 21:01
#
Cowboy
+285
Спасибо) курс доллара диктует свои правила)
4 июля 2017 в 21:02
#
barbarianin
+190
Причём с ссд, когда иде стоял до 6 не дотягивало
3 июля 2017 в 23:10
#
+150
Мне это напоминает интерполяцию кадров в проекторах и телевизорах (уплавнялки), только я никак не пойму с чего управление станет отзывчивым, если к примеру игра идет 30фпс, а интерполируется до... хоть до 120 к/с, путем вставки промежуточных кадров. Так я и сейчас могу включить в телевизоре такую "уплавнялку" и играть, вот только управление ни фига не отзывчивое, с задержками. Ну хорошо, я соглашусь, что от разрывов можно избавиться, если частота развертки будет плавно меняться в зависимости от фпс видеокарты, но тогда изображение будет двигаться не равномерно (к примеру на движениях всего кадра будет это хорошо заметно). Что-то какая-то мутная технология, или я чего-то не понимаю.
4 июля 2017 в 13:13
#
barbarianin
+190
Цитирую — Nvidia же сделали хитрее — чип G-Sync может дублировать кадры для того, чтобы попасть в рабочий диапазон частот монитора, так что никаких задержек в управлении или артефактов не будет!!!!
Не думаю что ты сможешь на своём телевизоре повысить герцы, поэтому видюшка будет сама подстраиваться под твой твсэт, да и не под телики эти технологии заточены
4 июля 2017 в 13:52
#
–1
Вы реально настолько тупые, что писать нечего уже? Что английский язык не знаете, на забугорных сайтах куча гениальных и крутых вещей на форуме, а вы про очень старые вещи пишите!!! Расскажите нам ещё про отличие agp и pci, напишите про ps/2 и USB 1!!!! Может кто то прочитает!!!
7 июля 2017 в 18:47
#

Читайте также