Как стать автором
Обновить

Комментарии 65

По опыту DP 1.4 умеет больше, чем 144 Гц. Мой пример: 5120х1440 на 240 Гц по единственному DP 1.4, причем как на AMD, так и на Nvidia. 5120х1440 всего на 11% меньше, чем 4K.

Видимо, DSC. Я не знаю как увидеть насколько он "жмёт".

Кстати, некоторые мониторы поддерживают глубину цвета не 8 бит, а все 10. Но с поддержкой в ОС и стандартизацией тоже всё плохо.

Вот и выходит, что во всех сферах, связанных с графикой, все сидят на apple, а при необходимости других компонентов платят больше

Не столько плохо, сколько зачастую не нужно даже в профессиональных приложениях. Всё дело в том, что 10-битный цвет на 8-битном мониторе прекрасно имитируется дизерингом. При высокой плотности пикселей человек в принципе не сможет увидеть разницу. А если нет разницы, то зачем платить больше?

У меня, кстати, 10-битный монитор. Операционная система его поддерживает и я действительно вижу разницу в градиентах в видеоплеере или просмотрщике изображений:

https://github.com/jursonovicst/gradient

Но вот поддержка со стороны софта отсутствует почти полностью.

Да и ещё один фактор — это вычислительная сложность при работе с 10-битным цветом.

Короче, не стоит оно того.

В каком цветовом пространстве? Переход на bt2020 должен дать огромное количество новых цветов, особенно в районе зелёного. На специально подготовленных роликах разница потрясающая.

В каком цветовом пространстве?

DCI-P3

Переход на bt2020 должен дать огромное количество новых цветов, особенно в районе зелёного.

Новые цвета достигаются не за счёт повышения разрядности, а за счёт расширения цветового охвата.

Смысл в разрядности тоже есть, но немного в другом: для корректного отображения sRGB изображений на таком мониторе придётся делать ужимающее преобразование, градиенты могут выглядеть некрасиво без дизеринга.

Понятно, что за счёт охвата, но увеличивать охват без увеличения разрядность- это путь в никуда, градиенты будут ужасными.

@amaraoКак красноглазик красноглазику советую https://tomverbeure.github.io/video_timings_calculator чтобы не компилять патченный cvt.

Все современные ЖК поддерживают CVT-RBv2, поэтому на полосе пропускания за счёт сокращения избыточных интервалов синхронизации (которые выражаются в пикселях по вертикали и горизонтали) можно круто сэкономить. На некоторых мониторах можно не следовать стандарту и сэкономить ещё сильнее, но это надо проверять с каждой моделью индивидуально.

Да, я именно его и использовал для трюков с 75Гц.

Да, с подключением мониторов всё еще хуже, чем с зарядкой. Опять же, сравнивая со старым добрым VGA, всё стало лучше по качеству, но сложнее.

На днях сапгрейдил домашний компьютер, купил Ryzen 5 5600G и материнку Asus на A520 с выходами HDMI и DP - так столько кривизны повылезало 8-()

Монитор Philips 328P6 - поддерживает HDMI, DP, VGA, USB-C 3.1 Gen 1 (DP alt mode)

- по hdmi почему-то видятся разрешения вплоть до 4К, хотя монитор только 2К.
- при попытке поставить 75 Гц монитор тухнет, хотя на другом компьютере такую частоту выводит отлично;
- пытаюсь включить HDR (монитор это умеет, и 10-бит тоже), получаю блеклую картинку;
- изображение периодически подергивается и моргает;

Кабели HDMI поперебирал, эффекта нет. В итоге подключил по DP, всё вроде нормально...

У меня второй монитор подключён: видеокарта, пассивный переходник DP-HDMI, кабель hdmi-hdmi, пассивный переходник hdmi- dvi-d, монитор.
Если использовать hdmi вход на мониторе, он не выключается вместе с ПК, если использовать выход hdmi на видеокарте(который нормально работает с основным монитором), то периодически появляются обрывы звука на втором мониторе.
Переходники дешёвые китайские.

В тему будет упоминуть что HDMI 2.1 бывает ненастоящий.
https://3dnews.ru/1055813/publikatsiya-1055813
P.S. Я вас понимаю у меня 4k 120гц HDMI 2.1 VRR Правда я покупал ради фильмов и игр, но в работе тоже заметил приятную плавность.
А ещё бы я упоминул наличие бесплатного VRR в HDMI 2.1(правда не всегда).

Прочитал.
Да что же это за расстройство такое в последнее время со "стандартами"?! Вместо того, чтобы давать потребителю простую метку, глядя на которую можно сходу определить, что за устройство — меняют обозначения задним числом, делают стандарт "гибким", и порождают целый ворох необязательных "расширений", которые теперь нужно отдельно выискивать.
Ладно консорциум USB, эти уже давно так. Но и HDMI теперь такой же.

Согласно Вики HDMI 2.1 умеет:
для стандартного видео:


  • 4K (3840x2160) — up to 144Hz (up to 240Hz with DSC (т.е. с компрессией))
  • 5K (5120x2880) — up to 60Hz (up to 120Hz with DSC)
  • 8K (7860x4320) — up to 30Hz (up to 120Hz with DSC)

для видео с HDR-10:


  • 4K (3840x2160) — up to 144Hz
  • 5K (5120x2880) — up to 60Hz (up to 120Hz with DSC)
  • 8K (7860x4320) — up to 30Hz (up to 120Hz with DSC)

Я сейчас перепроверил - как-то всё странно. Одни говорят - 144Гц, другие - 120. В доках к моему монитору сказано "через HDMI - только 120Гц".

5k@120 27" с 200% масштабом - мечта последних лет как раз из-за желания плавности в интерфейсе. Пока же сижу на 4k@60 27" 150%. Текущая 1060 явно в пролёте. Скоро обновлюсь на алдерлейк и попробую отказаться от жефорса в пользу встройки. Я не играю вообще, мне нужна только винда и ютуб.

Кто-нить удачно пробовал выводить со встройки UHD 770 именно с десктопных материнок в 4k@120 или в 5k?

В оправдание RX6600 скажу, что она очень тихая в десктопных режимах. Интелы тоже тихие, но у них много глюков во время динамического переключения по USB-C (включая битые текстуры после саспенда). Возможно, на DP они не так заметны.

Я на 12600k видел у себя 3840*2160, но без HDR (его активация была недоступна)

НО: это было когда я во время перезагрузки переключил кабель HDMI из выхода карты к выходу материнки (хотел проверить работоспособность видеоядра), т.е. данный режим 4k 120 hz был включён ранее. Надо будет попробовать выбрать его из более низкого.

Утверждение что по hdmi 2.1 может работать не быстрее 120гц не верно

Его пропускная способность 48гбит этого достаточно для 10битной картинки в 144гц. Что бы это заработало надо что бы и монитор/тв это поддерживал. Пример тому lg 27gp950. Все работает. Еще судя по спецификациям заработает и на ag274uxp, 279m1rv

Тем временем по displayport 1.4

без компрессии 10бит - 95гц

Без компрессии 8бит - 120гц

С компрессией хоть 10бит 160гц

Читал что dsc умеет сжимать трафик в 2 раза

В m32u - hdmi2.1 работает на скорости 24gbps, поэтому DisplayPort 1.4 тут предпочтительнее

Ага, спасибо. Получается это такая половинка от HDMI 2.1. Невероятно consumer oriented.

Немного напоминает бубны с подключением старого монитора к старому ноуту, Nec pa271w к Lenovo x260. Монитор умеет в нечто среднее между 2к и 4к 2560*1440*87, на на ноуте выходы HDMI и mini-DP.

Долго ломал себе башку — как заставить монитор работать на полном разрешении (DP кабеля у меня не было), пока, как в анекдоте «Ну что, сломал?», не заглянул в спеку. Оказалось что 1080 это максимум, что может выдать встроенная графика через HDMI.

После покупки простейшего mini-DP/DP кабеля (у меня же не 4к), и установки новых дров (Леново радует поддержкой, все дрова и BIOS от 22 года) Nec завелся в аппаратном разрешении, хотя на 60 герцах, вместо 87, но это уже мелочи. При этом, одновременно с ним, работает второстепенный 19" на 1280*1024 и 12" экран самого ноута на 1920*1080.

Три монитора (правда, чаще всего один Nec) в полном разрешении — удобная штука. Хотя, друзья меня склоняют к покупке одного длинного. Собственно, благодаря этому я включаю десктоп только чтобы погонять полчасика в PUBG, а в остальном мне хватает ноута, чаще всего он лежит с закрытой крышкой и я подумываю о покупке для него дока.

Бонусом ко всему этому оказалось то, что 27" моник имеет встроенный USB-свитчер и переключение видеовыхода — переключает между компами и воткнутые в него мышку с клавой.

Все таки, раньше с кабелями было проще :)

не особо проще
DVI-I
DVI-D
dual-link dvi(это моя последняя задачка, как подключить DVI dual-link монитор к современной видеокарте, где DVI нет) Оказалось проще купить новый монитор.
Хотя конечно именно с кабелями было проще, но со стандартами и раньше приколы были

У меня точно так же есть моник с DVI-I входом(есть HDMI но через него монитор не выключается/включается вместе с ПК), на видеокарте только HDMI и DP, но всё заработало. См мой коммент выше.

Я как раз с 2560х1440 переезжал на 4k. Стало приятнее.

Да, 4к куда приятнее. У меня хорошее зрение и на 27" и 2560 я различаю пиксели — это раздражает

А для меня критическим было увеличение вертикального разрешения. Моя история мониторов: ... FHD, 2560x1440, 3840x1440 (работа)... Так что я на почти 10 лет застрял на 1440. А тут 2560 по высоте. Первый апгрейд за 10 лет, прям ощущается.

Меня очень радовал Делл на одной работе, 32" и разрешение, я даже не помню сколько, точно больше стандартного 4к. Но и стоит он космически. Четкость такая, что просто за пределами различимого любым глазом. Словно в окно смотришь

читал с удовольствием, "лайкнул" бы в карму да не дано мне это

по поводу

А оно того стоит?

это сильно субъективно. я работал с человеком который глянув на монитор буквально на секунду говорил на скольки герцах он работает безошибочно.. а у меня другая ситуация, всё что ниже 75 герц меня нервирует, а выше я просто не вижу разницы, так что 75 для меня идеально, но вот за вменяемые деньги продаются только 60герц...

А в каких случаях 144 Гц реально нужно? Игры?

Есть легенда, что некоторые люди ощущают мерцание меньше 10 килогерц

LCD экраны (хорошие) не мерцают. Тут вопрос в другом - движение мышки из одного угла экрана в другой - это сколько кадров? 15 или 36?

Честно говоря — не задумывался никогда :)
Может когда попадется экран с частотой побольше — гляну. А на что это влияет?

В статье же описано (в конце), зачем это всё нужно было. Влияет. Положительно.

Любопытно, надо будет затестить в какомнить шоуруме

Попробуйте от противного ;) - поставить 30Гц.

Я так напоролся на телевизоре, подключив к нему компьютер (ТВ умеет 4К только в 30Гц с внешних источников). Не мог понять, что не так - изображение "дерганое", вроде не мерцает, но глазам неприятно.

Ну нет )
30 это уже за гранью комфортного, мерцание физически очень заметно. На 60 хороший монитор уже не мерцает так заметно для глаза

Не, не мерцание, подсветка вообще DC, матрица обновляется 400 Гц. А это именно редкое изменение картинки со стороны компьютера - тащишь окошко, а оно "прыгает", а не плавно движется. Мышь тоже - курсор "телепортируется".

Как раньше на пассивных LCD матрицах было, только там еще и след тающий оставался за объектом.

Я недавно поработал за монитором, у которого след за мышью… Это было ужасненько

А что такое "реально"? Например, в каких случаях реально нужно больше 14" экран? Что вы не можете сделать на 14", из того, что можете на 32"?

Исключительно комфорт и удобство.

Конечно есть
При работе в Adobe я всегда разворачиваю множество панелей и никогда не скрываю их, потому что порой приходится контролировать сразу много параметров одновременно. И на 14" это физически невозможно

Вы путаете пикселы и дюймы. 14" 4k экран по количеству пикселов не отличается от 32" 4k экрана. Так почему же 32", а не 13"?

Еще раз — на 14" физически невозможно сделать то, о чем я говорю. Потому что панели не просто должны быть открыты, на них еще надо что-то разглядеть. На 27" они занимают ровно половину экрана, потому для комфортной работы надо или 32" или второй монитор, чтобы картинка была на весь экран

*.ps
Можно не троллить так примитивно?

Ну вот вы и сказали главное: "для комфортной работы". Переход между 60 и 144 такой же. В принципе, ничего не поменялось (все пикселы на месте), но стало комфортнее.

Я сказал что это «физически невозможно», в принципе нельзя сделать на 14". Это не просто «некомфортно» — а тупо нельзя. А вопрос комфорта — это разница между 24-27 или 32

вы всё ещё путаете пиксели и дюймы, как и сказали выше. Какая разница какого размера дисплей, если в него влезает условно 100 пикселей по ширине. Окно панели будет занимать 50 пикселей что на 32 дюймах, что на 9, разница лишь в dpi. Так что физически это возможно и отличий кроме «масштаба» дисплея не будет

upd. минус (и в карму?), ох, тяжело…

Такая, что шрифт с низким угловым разрешением я не увижу.

Он исчезнет или просто восприятие человеком / комфорт поменяется? Человек выше говорит про что-то «физически не возможное»

если он станет мелким и придётся напрягаться чтобы разглядеть, это комфорт поменяется.
Если станет настолько мелким, что его не видно-работа станет невозможной.

Ну поставьте линзу, телевизор КВН все же видели ;)
(переведя взгляд на 15" 4К ноут 100% масштаб, 32 пиксельную иконку разобрать можно, но с трудом)

Браузер листать тоже поприятнее стало.
На Nvidia не работает по причине фашизма в драйверах.
Вчерашняя новость: «Компания NVIDIA открыла код видеодрайверов для ядра Linux».
Правда неизвестно, поможет ли это.

Главное "мясо" драйвера по-прежнему остаётся закрытым, открыли по сути только очень малую долю, и непонятно, собираются ли открывать остальное.
Дело-то пошло, но знаменитый средний палец убирать пока ещё рановато.

По мере того, как росли дюймы экрана я не мог отделаться от ощущения, что раньше всё было быстрее

чем больше (физически) экран, тем больше сантиметров проходит между двумя соседними кардрами при движении чего-либо по экрану. А с переходом на 4k - и в пикселях тоже.

Это приводит к дёрганной картинке в самых простых бытовых задачах - редактировании текста, движение окон, скроллинге, время реакции на печатать.

То есть я сделал себе 4k@144 ... для офисной работы. Комфортной офисной работы

Я именно по этим причинам в своё время "принял и простил" тот факт, что всё что выше 1080p - зло. Мой конфиг - это два "безрамочных" монитора по 27" 1080р. Да, именно, две здоровые балды с большими пикселями. Отодвинул чуток подальше обычного и не нарадуюсь. Всё крупно, супер быстро, никаких лагов, приколов с настройками масштабирования, глаза не напрягаются. Дёшево, сердито, работает везде.

Некоторые работодатели очень удивлялись, когда просил именно 1080p мониторы, и ни в коем случае никаких 2к, или простигосподи 4к\8к. И когда иногда приходится посидеть за мониторами с ультра высоким разрешением - поражаюсь как люди это терпят, весь интерфейс "тормознутый" невозможно.

Есть пару нюансов - нужен не "компьютерный" стол, а нормальный добротный письменный стол. И находить новые мониторы 27"1080р - судя по всему будет всё сложнее..))

А меня большие пиксели очень напрягают…

Лайфак - если отодвинуть монитор подальше - то они становятся меньше) Собственно поэтому и мониторы 27" - чтоб размер картинки после отодвигания оставался более привычным

//ходит за линейкой

80-85 см от глаз до монитора, а зрение у меня хорошее

монитор делит экран на две половинки и каждая половинка показывает картинку со своего источника сигнала. В общем случае монитор можно подключить к двум компьютерам и смотреть с них обоих, но частный случай состоит в подключении монитора двумя кабелями к одному компьютеру

И тут я понял, что ничего раньше не знал о подключении монитора к компьютеру.

лытдыбр
Представляет собой кириллическую транслитерацию сочетания lytdybr, получившегося при наборе слова дневник на клавиатуре с ошибочно переключенной раскладкой (в режиме QWERTY). Слово пришло в начале 2000-х из обихода русскоязычных пользователей LiveJournal. Первая по времени запись, в которой появляется слово лытдыбр на кириллице, датирована 1 июля 2001 г. (в блоге Р. Лейбова); до неё в этом блоге неоднократно появлялись записи со словом lytdybr. Происхождение слова, быстро ставшего популярным, рассмотрено в блоге А. Воробья уже в марте 2002 г.

К сожалению, это не мой ноутбук, он на винде, так что понять что именно там в выводе xrandr невозможно, ибо Винда.

А что помешало загрузиться с линуксовой флэшки?

Если в Linux трудно ответить "почему в настройках монитора нет такого режима", то в Windows невозможно даже посмотреть список всех режимов монитора, да и режим подключения монитора (через USB-C) не понятен. Это DP или HDMI? В Linux это обнаруживается по типу дисплея в xrandr - HDMI-0 vs DP-0.

Не претендую на полноту инфы, но вот несколько вариантов, откуда можно выкопать больше информации о мониторе и его подключении в винде:

  1. dxdiag. Запустить, но в его окошки смотреть совсем не нужно, нажать "сохранить все сведения..." и смотреть уже получившийся текстовый файл, раздел "Display Devices". Там много всего, в т.ч. тип подключения.

  2. GPU-Z. На вкладке Advanced в разделе General перечисляет мониторы, тип подключений, и поддержку их форматов. Инфы по сравнению с другими выдаёт мало.

  3. Moninfo aka EnTech Taiwan Monitor Asset Manager. Показывает тип подключения и инфу, вытащенную из EDID монитора. Несколько лет не обновлялся, может в чём-то врать если железо очень свежее.

  4. CRU (Custom Resolution Utility). Внизу посмотреть на строчку в Extension blocks, нажать Edit и посмотреть там внутри, какие флаги включены.

Как это всё поведёт себя в сложных случаях как то подключение по USB-C не знаю, не проверял. В стандартных условиях они все показывают, что мой моник подключен через DisplayPort, а телик через HDMI, ну и там всякое про HDR, битность, цветовые профили и пр.

Офигеть, не думал даже, что в цифровых интерфейсах есть такая нестабильность. Видимо, всякие переходники вроде dvi-hdmi вообще ад.

Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.