Разрядность мониторов и регулировка цветовой температуры.

  • Автор темы Автор темы lygun
  • Дата начала Дата начала
Статус
Закрыто для дальнейших ответов.
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Приобрел монитор LG E2250T в связке с Gigabyte GeForce GT240 - программа SoftMCCS показывает, что тип подключения DVI (16-bit). Как можно еще проверить тип связи видеокарта-монитор?
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Продолжая тему разрядности видеокарт и мониторов, вновь поднятую в закрытом топике «[THREAD=44248]Как сделать правильную калибровку монитора для фото?[/THREAD]».


LUT видеокарты тоже не 8-битный, а 16.
Позвольте в очередной раз выразить несогласие с этим тезисом. То обстоятельство, что Windows API использует 16-битное представление значений, ещё не доказывает, что такая же разрядность (или хотя бы близкая к ней) реально имеет место в LUT видеокарты. Более того, мы ранее выяснили, что эти 16-битные ячейки используются не как вещественные числа с фиксированной точкой (1<8> = 1/255 = 257<16>), а просто как вместительный буфер для хранения меньшего числа битов (1<8> = 0x0100 = 256<16>).

В любом случае, вы же не будете спорить, что, какими бы способностями ни обладала видеокарта, на выходной интерфейс будет подано столько битов, сколько позволяет этот интерфейс — 8 или 10. Максимум, что может сделать видеокарта сверх того, — использовать [POST=455915]dithering[/POST], но вы и сами придерживаетесь мнения, что это не «комильфо».


На сегодня реализаций даже в виде 10-битного варианта Display Port на мониторе мне неизвестно.
Хотелось бы напомнить про [THREAD=39278]HP DreamColor LP2480zx[/THREAD]. Не скажу о возможностях DVI, с которым сам чёрт ногу сломит, но HDMI 1.3 и DisplayPort туда для того и приделали, чтобы невозбранно иметь 10 бит на входе. Осталось только понять, как их туда подать. Что касается видеокарт, — полагаю, современные модели nVidia Quadro и ATi Fire на такое всё же способны без вопросов; любительские GeForce и Radeon — с бо-о-ольшим вопросом. Что касается программного обеспечения — требуется система не ниже Windows 7, а также собственно клиентский софт, умеющий показывать картинки с такой глубиной цвета.

То есть, чисто технически, такое уже реально. За большие деньги, но реально. Только мне всё же непонятно, зачем, — не разрядность LUT видеокарты и видеоинтерфейса надо увеличивать, а давать доступ к LUT монитора, чтобы вообще отказаться от коррекции на стороне видеокарты, и не раздувать полосу пропускания канала.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Все видеокарты, уже как лет 7-10, имеют высокоразрядные (более 8) LUT, для снижения погрешностей в расчетах, и могут выдавать 10 битные данные. Но как Вы правильно отметили, смысла большого в этом нет. Монитор....
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Что касается видеокарт, — полагаю, современные модели nVidia Quadro и ATi Fire на такое всё же способны без вопросов; любительские GeForce и Radeon — с бо-о-ольшим вопросом. Что касается программного обеспечения — требуется система не ниже Windows 7, а также собственно клиентский софт, умеющий показывать картинки с такой глубиной цвета.
Если не ошибаюсь, это было возможно как минимум с конца 90-х, эдак года с 97-го. Монитор Радиус, специальная видеокарта, Макинтош и специальный софт для просмотра.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

высокоразрядные (более 8) LUT, для снижения погрешностей в расчетах... смысла большого в этом нет.
Смысл цепочки 8->10 (пусть GDI -> LUT & Monitor DAC) именно в снижении погрешностей при преобразовании, и эти погрешности немалы, и снижение их имеет смысл.

Пусть монитор идеален по передаточной, пусть слабое место в цепочке одно - недорогой Monitor DAC. Пусть он имеет точность порядка своего младшего разряда. Очевидно, что линеаризовать такой DAC нельзя без потерь разрядности, нужен запас по разрядности в связке LUT & Monitor DAC.

Пример касается не только устаревшего аналогового CRT. В цифровом DVI-видеотракте преобразование "цифра->свет" осталось, просто переместилось внутрь монитора. И внутримониторный LUT (и остальные вычислители) должен иметь запас. Значит ли это, что videocard LUT уже не нуждается в запасе по разрядности? Videocard LUT здесь работает в схеме GDI -> LUT -> DVI. Пусть на LUT ложится задача gamma-преобразования system gamma -> monitor gamma. Пусть системная g=1.8, монитор g=2.6 -> тогда потребуется возведение в степень 0.69. В 8-разрядной системе ошибка в этой операции может достигать 3 единиц, более 1%. Т.е. нужно избыточных два разряда, нужно 8->10->8 bit.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Если не ошибаюсь, более чем 8-битный цвет был возможен как минимум с конца 90-х: монитор Радиус, специальная видеокарта, Макинтош и специальный софт для просмотра.
Вы бы ещё вспомнили какие-нибудь рабочие станции Silicon Graphics или других динозавров. :) Мало ли, чего там было возможно, — мы же в современном мире живём, и преимущественно под Windows.

Кстати, Radius вроде не выпускал ЖК-мониторов, а чисто аналоговому ЭЛТ всё равно, какая дискретность на входе. Так что специфический монитор, по идее, был не нужен.


Все видеокарты уже много лет имеют высокоразрядные (более 8 бит) LUT, для снижения погрешностей в расчетах, и могут выдавать 10 битные данные.
По аналоговому интерфейсу — возможно, могут. Однако аналоговые мониторы (ЭЛТ) на корню губят это преимущество уже хотя бы потому, что взаимное влияние соседних областей экрана на порядок сильнее, чем дискретность 0,0015 %. Цифровые мониторы (ЖК) с аналоговым интерфейсом тоже вряд ли способны выиграть от 10-битного цвета на входе, так как из-за проблем с синхронизацией сигнала у них вечно какие-то шумы.

Наиболее актуальные ныне цифровые мониторы с цифровым интерфейсом ну никак не способны получить от видеокарты 10-битный цвет, если канал передачи данных поддерживает только 8 бит. (Временной и пространственный дайзеринг в расчёт не берём.)


Смысл цепочки 8→10 (пусть GDI → LUT & Monitor DAC) именно в снижении погрешностей при преобразовании, и эти погрешности немалы, и снижение их имеет смысл. В цифровом DVI-видеотракте преобразование «цифра → свет» осталось, просто переместилось внутрь монитора, а потому внутримониторный LUT должен иметь запас.
Я всё-таки предлагаю забыть про существование аналоговых мониторов и интерфейсов — как бесперспективных. Что же касается управления внутримониторной LUT, то давайте будем честны: давать нам доступ к LUT монитора никто не стремится, и потому в обозримом будущем большинству из нас не светит ничего другого, кроме как калибровка LUT видеокарты. И тут мы опять приходим к тому, что пока интерфейс передачи данных между видеокартой и монитором не станет 10-битным (каким бы маразматичным вариантом это ни казалось по сравнению с калибровкой LUT монитора), толку от 10-битной LUT видеокарты — ноль.

Даже более того, результат наличия такой LUT может быть отрицательным — из-за пресловутой двусмысленности, внесённой Windows API: программы загрузки LUT должны передавать в функцию 16-битные значения, содержащие не числа из ряда 0, 1, …, 65535, а фактические 8/10/12-битные аппаратные значения в старших битах. То есть LUT-загрузчики должны знать реальные возможности видеокарты и реальные свойства текущего видеорежима, чтобы вычислить текущие правильные аппаратные значения. Но в реальности-то программы этого не знают! И загрузка LUT обычно производится лишь единожды. И сами-то данные рассчитываются заблаговременно при создании профиля. Вот и получается, что одни программы грузят 0, 256, …, а другие — 0, 257, …., — и как это всё в итоге округляется при попадании в реальную LUT видеокарты, тоже ещё большой вопрос.

Значит ли это, что videocard LUT уже не нуждается в запасе по разрядности? На LUT ложится задача преобразования system gamma → monitor gamma.
Вы уверены, что такая задача реально существует в природе? Возможно, в MacOS что-нибудь эдакое и применяется по историческим причинам, но уж точно не в Windows.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Наиболее актуальные ныне цифровые мониторы с цифровым интерфейсом ну никак не способны получить от видеокарты 10-битный цвет, если канал передачи данных поддерживает только 8 бит.

Соглашусь, большинство современных цифровых мониторов широкого применения ограничены 8 бит. И это разумно, такая разрядность с запасом кроет потребности зрения для обычных задач. Но не соглашусь с тем, что это ограничение по каналу передачи. Хотя не рискну что либо доказывать по поводу DVI, там бардак в спецификациях еще тот, но режим 10 bit в DVI организовать можно было даже в ранних версиях интерфейса (не говоря уже про HDMI и DisplayPort). Чем пользовались мониторы например медицинских применений, afaik NEC и Eizo.

Я всё-таки предлагаю забыть про существование аналоговых мониторов и интерфейсов — как бесперспективных.

Мы конечно должны приветствовать достижения прогресса. Но какие разумные объяснения я могу придумать для своих цветокорректоров, уговаривая их смирится с тем, что нельзя покачиваться на кресле, нельзя вдвоем смотреть на один монитор, нужно терпеть весь рабочий день 140 кд/м2, т.к. не могу получить контраст 200:1 при меньшей яркости. Поэтому и работают у меня две немодные старушки Sony, и еще две бережно хранятся в кладовке.

Что же касается управления внутримониторной LUT, то давайте будем честны: давать нам доступ к LUT монитора никто не стремится

Здесь не соображу. Имею три разных LCD, такой доступ предоставляющие, и вроде на рынке не исчезли модели с этой возможностью.

Вы уверены, что такая задача реально существует в природе? Возможно, в MacOS что-нибудь эдакое и применяется по историческим причинам, но уж точно не в Windows.

Из практики - у клиента стоят LCD (без доступа к LUT) с очень гладкой передаточной с native gamma 2.7 и WP 7600K. У клиента есть справедливое желание видеть привычные знакомые элементы интерфейса (да и его рабочие приложения без CMS). Помешают ли здесь пару лишних бит в videocard LUT?
 
Статус
Закрыто для дальнейших ответов.