Разрядность мониторов и регулировка цветовой температуры.

  • Автор темы Автор темы lygun
  • Дата начала Дата начала
Статус
Закрыто для дальнейших ответов.

lygun

Топикстартер
12 лет на форуме
Сообщения
70
Реакции
0
Жил я себе жил, работал и не тужил. Но тут накатил кризис, и в голову полезли всякие мысли. Например - об оптимальных методах установки цветовой температуры на мониторе.

Я знаю три таких метода. Первый - настройка неких преобразователей внутри монитора (т.н. "калибруемые" мониторы). Второй - кнопками на панели управления монитора. Третий - программирование LUT видеоплаты . Первый вроде бы считается лучше, чем второй; второй - лучше, чем третий.

Но в чем засада? Реальная настройка цветовой температуры в любом случае происходит за счет изменения прозрачности жидких кристаллов (ЖК). Ибо цветовую температуру лампы подсветки менять пока не научились.

В первом и втором случае прозрачность ЖК меняется за счет изменения сигнала, поступающего непосредственно на матрицу внутри монитора. Но разрядность этого сигнала (цифровой - обычно LVDS) - 8 бит на канал (на большинстве TN - вообще 6 бит). В третьем методе прозрачность ЖК меняется за счет изменения сигнала, поступающего на монитор по DVI интерфейсу. А у него разрядность - тоже 8 бит на канал.

То есть в любом случае мы теряем диапазон регулировки: при настройке на 5000К из 256 возможных уровней Blue мы можем потерять и 50, и 60. Это означает, что нет разницы, чем настраивать цветовую температуру. В любом случае нас ждут неизбежные (и одинаковые в трех методах) потери градаций. А если все одинаково, то "зачем платить больше"? Можно выполнять всю настройку на уровне LUT видеоплаты в автоматическом режиме и не париться - как это происходит при калибровке Apple Cinema Display, ноутбуков и некоторых других мониторов.

Или есть в моих рассуждениях ошибка?
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Это справедливо только в системе 1 видеокарта - 1 монитор. Когда сигнал с одного устройства-источника поступает на различные мониторы, то ситуация трагически меняется. Впрочем, т.н. ТВ-панели имеют специальный вход для совместного соединения и построения видеостены. Как они борются с расхождением параметров у разных экземпляров, сведённых воедино - не знаю. Наверняка должны быть встроенные аппаратные средства, работающие независимо от источника сигнала.

Кстати, появились ЖК ТВ с разрядностью в 10 бит. Наверное, это помогает сделать мало заметной потерю разрядов при перенастройке цветовой температуры и контраста.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

lygun сказал(а):
...Реальная настройка цветовой температуры в любом случае происходит за счет изменения прозрачности жидких кристаллов (ЖК). Ибо цветовую температуру лампы подсветки менять пока не научились.
Как раз научились - в мониторах с RGB-LED-подсветкой. Там как раз именно цветовую температуру и можно регулировать подсветкой, не ухудшая динамический диапазон матрицы.
В первом и втором случае прозрачность ЖК меняется за счет изменения сигнала, поступающего непосредственно на матрицу внутри монитора. Но разрядность этого сигнала (цифровой - обычно LVDS) - 8 бит на канал (на большинстве TN - вообще 6 бит).
Да, но в продвинутых мониторах используются "хитрые" покадровые модуляции пикселей, когда например, пиксель периодически переключается между смежными уровнями даже на статичном изображении, чтобы имитировать большую "глубину цвета". Есть и другие варианты. То есть, эффективная разрядность системы "контроллер-матрица" может быть выше 8 бит.
В третьем методе прозрачность ЖК меняется за счет изменения сигнала, поступающего на монитор по DVI интерфейсу. А у него разрядность - тоже 8 бит на канал
А вот здесь никаких хитростей не предусмотрено. Статический пиксель остаётся статическим и ограничен именно 8-ю битами.
В общем, именно ошибки в рассуждениях нет. Очень сильно ситуация зависит от качества контроллера матрицы.
У качественного монитора только одно узкое место - DVI-интерфейс. У менее качественного - два - DVI-интерфейс и контроллер матрицы. Качественный дисплей имеет эффективную разрядность матрицы более 8 бит, потому при помощи встроенной LUT (кстати, у Apple Cinema она вроде программируется через DDC и калибровочное ПО этот способ поддерживает) цветовая температура может быть установлена с меньшими потерями градаций - с меньшим "полошением". А вот у не качественного - как повезёт. Иногда лучше встроенной LUT, иногда лучше посредством LUT видеоадаптера.
Мой практический опыт показывает, что дешёвые мониторы часто лучше включать аналоговым кабелем (D-Sub), так как в таком случае нет ограничения на 8 бит как в DVI. В аналоговом VGA-интерфейсе разрядность умножителя LUT и ЦАП видеоадаптеров больше 8 бит. Дополнительное улучшение вносит шум АЦП монитора, который выполняет функцию "дизеринга" - размывает видимые полосы от квантования. Часто подключение такого монитора по DVI даёт очень сильный и чёткий "бандинг", тогда как аналоговое подключение даёт приемлемый результат.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Про мониторы с LED подсветкой сказать не могу, но во всех мониторах с лампами все регулировки, кроме яркости осуществляется за счет встроенного LUT.
Не уверен, что в мониторах с LED подсветкой регулировка осуществляется каким-либо другим способом.
Но имеет значение разрядность встроенного в монитор LUT. Если мы имеем дело с 8-10 битным LUT, то так называемая Hardware калибровка такого монитора представляется мне лишней. Тем более не вижу большого смысла использовать встроенное в монитор меню, так как все это отражается на том же самом LUT монитора.
Если же разрядность встроенного в монитор LUT 12-16 бит, то есть шанс получить более плавные градиенты при Hardware Calibration.


PS У Apple Cinema доступ к LUT для изменения параметров, кроме яркости, в данный момент не имеет ни одна из существующих программ калибровки.
Мне не очень понятно, как в цепочке подключения монитора по VGA можно получить разрядность более 8 бит, даже если LUT видеокарты имеет разрядность выше.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

aspirin сказал(а):
PS У Apple Cinema доступ к LUT для изменения параметров, кроме яркости, в данный момент не имеет ни одна из существующих программ калибровки.
Не удачный пример привёл. Может софт в комплекте с калибратором к дисплею способен?
Мне не очень понятно, как в цепочке подключения монитора по VGA можно получить разрядность более 8 бит, даже если LUT видеокарты имеет разрядность выше.
За счёт шума АЦП при квантовании аналогового сигнала. То есть, там где была чёткая ступенька между 8-бит уровнями, за счёт неопределённости, вносимой шумом, значение статического пикселя на выходе АЦП колеблется. Несмотря на то, что колебания происходят между соседними 8-бит уровнями, среднее значение яркости за несколько кадров оказывается ближе к целевому, чем каждый из уровней квантования в отдельности. Там, где видны чёткие стоячие полосы на градиентах по DVI, при аналоговом подключении видно лёгкое мерцание пикселей и пространственная граница между уровнями квантования размыта, что и является повышением эффективной (воспринимаемой зрением) разрядности.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Nikolay_Po сказал(а):
За счёт шума АЦП при квантовании аналогового сигнала. То есть, там где была чёткая ступенька между 8-бит уровнями, за счёт неопределённости, вносимой шумом, значение статического пикселя на выходе АЦП колеблется. Несмотря на то, что колебания происходят между соседними 8-бит уровнями, среднее значение яркости за несколько кадров оказывается ближе к целевому, чем каждый из уровней квантования в отдельности. Там, где видны чёткие стоячие полосы на градиентах по DVI, при аналоговом подключении видно лёгкое мерцание пикселей и пространственная граница между уровнями квантования размыта, что и является повышением эффективной (воспринимаемой зрением) разрядности.

Думаю, что такое интересно только для совсем дешевых мониторов?
К сожалению, по долгу службы, я такие не встречал, так как минимальным монитором для работы считаю Nec 1970, у которого таких проблем нет на современных видеокартах. Хотя, я думаю, что тут скорее не в мониторе дело, а именно в видеокарте.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Я как раз недавно рассуждал на тему «Нужны ли нам 10-битные интерфейсы» после прочтения статьи одиозного пейсателя, где он сетовал на то, что 8 бит будет уже недостаточно для новых мониторов с LED-подсветкой. Несложный расчёт показал, что даже для насыщенных кардиналов (при соблюдении гаммы 2,2 или около того — это важно!) отличие между соседними градациями на всём диапазоне 0–255 не превышает 1–2 dE76, а в единицах dE2000 — и того меньше.

Другое дело, если мы калибруем видеосистему с помощью LUT: действительно, тут соседние градации могут и сливаться. Ну так не надо перекладывать с больной головы на здоровую: хочется тонкой калибровки — сделайте LUT монитора доступной для программирования. Во-первых, эта технология уже давно существует: например, через DDC. Во-вторых, это проще (и главное, правильнее), чем увеличивать пропускную способность интерфейса на 25 %. Увы, производители видеокарт и мониторов, скорее будут руководствоваться соображениями «как бы развести покупателей на новые траты», нежели целесообразностью, и таки подарят людям «10-битное цифровое будущее».

Также я неоднократно думал над рекомендациями калибровочного софта не трогать настройки ЖК-мониторов: мол, на ЭЛТ они позволяют гладко менять характеристики, а в цифровых дисплеях только всё портят. Но это, видимо, говорится для неопытных пользователей, которые не в состоянии заметить, когда регулятор приводит к перегрузке или отсечке и т. п. искажениям. При правильном использовании, собственные настройки монитора как минимум не хуже калибровки через LUT видеокарты. Во-первых, потому что LUT монитора может быть и 10 бит, и больше, даже если в спецификации это не заявлено (а всё идёт к тому, что даже самые простые модели становятся навороченными, и мощными встроенными видеопроцессорами уже никого не удивишь), и даже если эта LUT не программируема извне. Во-вторых, потому что не всякий пакет калибровки позволяет добиться полной аналогии: например, как я уже писал в соседнем топике, некоторые калибраторы не удосуживаются настроить цветность чёрного. Короче говоря, чем меньше коррекции приходится на видеокарту, тем лучше, потому что там по-любому 8 бит на выходе (если говорить про цифровой интерфейс).


Nikolay_Po сказал(а):
В мониторах с RGB-LED-подсветкой именно цветовую температуру и можно регулировать подсветкой, не ухудшая динамический диапазон матрицы.
Разве там отдельные R/G/B-излучатели стоят? Мне показалось, что всё по-прежнему регулируется кристаллами матрицы, а интенсивность подсветки отвечает только за общую яркость. Впрочем, «мне показалось» — не самый весомый аргумент, конечно. :)

В продвинутых мониторах используются покадровые модуляции пикселей, когда пиксель периодически переключается между смежными уровнями даже на статичном изображении, чтобы имитировать большую «глубину цвета».
Ох, видели бы вы эти «продвинутые модуляции» у 6-битных видеопроекторов. Когда свет выключаешь, такое ощущение, будто по экрану бегает стадо муравьёв. Уж лучше бы чистые 6 бит, чем такой отстой.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Samsonov сказал(а):
Короче говоря, чем меньше коррекции приходится на видеокарту, тем лучше, потому что там по-любому 8 бит на выходе (если говорить про цифровой интерфейс).
Не согласен. Одна из причин - очень мало прог. обеспечения, которое может адекватно работать с LUT монитора, но практически все умеют работать с LUT видеокарты, который как раз имеет разрядность, значительно выше, чем 8 бит.
Возникает вопрос, кто точнее переведет, например, 16 битные данные в 8? Видеокарта, или процессор в мониторе? Сама матрица - 8 бит.
В одном случае, имеет место преобразование (грубо):
VIDEOLUT(10-16 бит)>процессор видеокарты DTD в 8 бит > DVI 8 бит> LUT Монитора(прямая линия, не пересчитывается)> процессор монитора DAC в 8 бит > матрица 8 бит
Во втором случае (грубо):
VIDEOLUT (10-16 бит)> процессор видеокарты в DTD 8 бит > DVI 8 бит> процессор монитора DTD в 12 бит > LUT монитора (например, 12 бит) > процессор монитора DTD в 8 бит>процессор монитора DAC в 8 бит> матрица 8 бит.
Какой больше нравится?
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Да, сказанное мной выше относится к дешёвым мониторам. С приличными вроде как и проблем нет.
Короче говоря, чем меньше коррекции приходится на видеокарту, тем лучше, потому что там по-любому 8 бит на выходе (если говорить про цифровой интерфейс).
Здесь согласен полностью.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

aspirin сказал(а):
Очень мало программного обеспечения, которое может адекватно работать с LUT монитора.
Это проблема программного обеспечения, а не технологии в целом. Я ж говорю: не надо перекладывать с больной головы на здоровую. Только из-за того, что современные программы не хотят учиться работать с DDC/CI, не разумно городить огород с 10-битным DVI. Это как стрелять из пушки по воробьям по причине отсутствия пневматической винтовки.

Практически все умеют работать с LUT видеокарты.
А почему они умеют работать, — вы не задавались вопросом? Уж не потому ли, что в операционной системе есть готовенькая функция, позволяющая абстрагироваться от конкретного железа? Достаточно добавить то же самое для DDC (сейчас за такие библиотеки просят весьма конкретные деньги), и всё сразу станет чики-пуки.

LUT видеокарты как раз имеет разрядность значительно выше, чем 8 бит.
Допустим, что так, несмотря на то что производители видеокарт подозрительно планомерно умалчивают данный вопрос. Правда, я никак не верю, что там «значительно выше 8 бит», но ладно, допустим. Однако где они, эти множественные биты? Внутри? А на выходе-то всё равно 8-битный сигнал. (Только не надо про аналоговые интерфейсы, и насколько они на самом деле круче цифровых.)

Кто точнее переведёт 16-битные данные в 8-битные — видеокарта или процессор в мониторе — если сама матрица имеет 8-битную разрядность ЦАП?
Вопрос некорректен, ибо на выходе из видеокарты мы всё равно имеем 8 бит. Вот если бы на монитор можно было подать 16 бит, тогда была бы совсем другая песня. Само же преобразование из 16 бит в 8 может выполняться лишь одним единственным способом — путём отсечения младших разрядов. Другое дело, если выполняется какая-то коррекция, но вопрос-то не про неё. Собственно, эквивалентом всего этого и является программируемая извне LUT монитора, потому что 8 бит сами по себе вполне достаточны для точной передачи гамма-корректированного сигнала.

Это как раз тот случай, когда совершенно бессмысленно идти экспансивным путём, повышая мегагерцы и прибавляя мегабайты в ответ на нежелание программистов-индусов оптимизировать свой код.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Samsonov сказал(а):
Это проблема программного обеспечения, а не технологии в целом. Я ж говорю: не надо перекладывать с больной головы на здоровую. Только из-за того, что современные программы не хотят учиться работать с DDC/CI, не разумно городить огород с 10-битным DVI. Это как стрелять из пушки по воробьям по причине отсутствия пневматической винтовки..).

Позвольте, вопрос не по адресу, обратитесь к производителям. :)Сейчас - это так
А производители видеокарт тоже не хотят стандартизовывать протоколы, Microsoft не хочет писать нормальные библиотеки, и т.д.

Samsonov сказал(а):
Допустим, что так, несмотря на то что производители видеокарт подозрительно планомерно умалчивают данный вопрос. Правда, я никак не верю, что там «значительно выше 8 бит», но ладно, допустим. Однако где они, эти множественные биты? Внутри? А на выходе-то всё равно 8-битный сигнал. (Только не надо про аналоговые интерфейсы, и насколько они на самом деле круче цифровых.).

Кто говорил про аналоговые интерфесы?

Gretag Lut Loader дает достаточное представление о разрядности подгружаемого LUT. Обратите внимание еще на то, что Photoshop будет работать с 16 битным профилем монитора.

На выходе монитора все равно 8 битный сигнал, тогда какая разница на каком этапе он получен?


Samsonov сказал(а):
Вопрос некорректен, ибо на выходе из видеокарты мы всё равно имеем 8 бит. Вот если бы на монитор можно было подать 16 бит, тогда была бы совсем другая песня. Само же преобразование из 16 бит в 8 может выполняться лишь одним единственным способом — путём отсечения младших разрядов. Другое дело, если выполняется какая-то коррекция, но вопрос-то не про неё. Собственно, эквивалентом всего этого и является программируемая извне LUT монитора, потому что 8 бит сами по себе вполне достаточны для точной передачи гамма-корректированного сигнала..).

В таком случае, это ничем не отличается от корректировки LUT видеокарты. Какая разница что програмировать?
Я вижу одно, 8 бит, даже програмируемые извне,недостаточно для того, чтобы такая калибровка монитора по качеству хотя бы приблизилась к калибровке через LUT видеокарты.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

aspirin сказал(а):
Gretag LUT Loader дает достаточное представление о разрядности подгружаемого LUT.
Это даёт представление только о том, какие данные принимает системная функция программирования LUT видеокарты, и о том, какие данные содержатся в профиле (некоторые профили содержат значения, округлённые до 8 бит). Никто не утверждает, что видеокарта готова поглотить хотя бы 10 бит; не гарантируется даже, что системная функция отправляет видеокарте что-либо отличное от 8-битных значений.

Photoshop будет работать с 16-битным профилем монитора.
Наверное, я отстал от жизни. А что такое, собственно, «16-битный профиль»? Аппаратные координаты в ICC-профиле вроде и так всегда представляются вещественным числом от 0 до 1, которое при желании можно интерпретировать хоть в какой целочисленный диапазон. Таблично-определённая передаточная характеристика — из той же оперы; и опять же, чем писать в профиль кучу промежуточных точек TRC, проще откалибровать на единую гамму.


Не по теме:
Вы случайно не путаете с 16-битной печатью? Даже если так, повторюсь, профиль можно трактовать и как 32-битные величины в том числе — было бы желание. К тому же, это всего лишь интерфейс между программой и драйвером: на устройство всё равно уходит краскоуказание 0–100 или готовый растр 0–1 / 0–3 / 0–7 и т. д.


В таком случае, это ничем не отличается от корректировки LUT видеокарты. Какая разница, что программировать?
Так и я о чём: 8 бит — они и в Африке 8 бит, даже если где-то в глубинах видеокарты и таится нечто большее. А вот если в мониторе есть 10-битная LUT, то лучше действовать через неё, чем пытаться что-то там изобразить на видеокарте. Внедрить 10/12-битную LUT на мониторе — всяко проще, чем создать 10-битную матрицу или 10-битный интерфейс.

8 бит, даже программируемые извне, недостаточны для того, чтобы такая калибровка монитора по качеству хотя бы приблизилась к калибровке через LUT видеокарты.
Почему?! Чего в видеокарте такого «волшебного», что её 8 бит лучше, чем те же самые 8 бит на мониторе? «Поэт в России — больше, чем поэт»? :)
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Samsonov сказал(а):
Это даёт представление только о том, какие данные принимает системная функция программирования LUT видеокарты, и о том, какие данные содержатся в профиле (некоторые профили содержат значения, округлённые до 8 бит). Никто не утверждает, что видеокарта готова поглотить хотя бы 10 бит; не гарантируется даже, что системная функция отправляет видеокарте что-либо отличное от 8-битных значений..

Для того, чтобы закончить с этим вопросом, я приведу цитату из технических характеристик одной видеократы, выпуска 2006 года:

- High Dynamic Range (HDR) rendering with 8-bit, 10-bit & 16-bit per RGB color component support
- Full 10-bit precision display pipeline
- Advanced support for 8-bit, 10-bit, and 16-bit per RGB color component


Не по теме:
Samsonov сказал(а):
Вы случайно не путаете с 16-битной печатью? Даже если так, повторюсь, профиль можно трактовать и как 32-битные величины в том числе — было бы желание. К тому же, это всего лишь интерфейс между программой и драйвером: на устройство всё равно уходит краскоуказание 0–100 или готовый растр 0–1 / 0–3 / 0–7 и т. д.
Если уж о растрировании говорить, то готовый растр, который уходит на устройство, вполне может быть 16 битный, и каждая из этих градаций будет тем самым "краскоуказанием".



Samsonov сказал(а):
Так и я о чём: 8 бит — они и в Африке 8 бит, даже если где-то в глубинах видеокарты и таится нечто большее. А вот если в мониторе есть 10-битная LUT, то лучше действовать через неё, чем пытаться что-то там изобразить на видеокарте. Внедрить 10/12-битную LUT на мониторе — всяко проще, чем создать 10-битную матрицу или 10-битный интерфейс..

А может быть и так. А можно еще внедрить 10-12 битную LUT в мониторе, чтобы повысить стоимость и спрос.
Имеет право на жизнь любой способ, начиная от изобретения 10 битного DVI, заканчивая изменением белой точки монитора за счет встроенного LUT. Кто то считает, что один способ лучше, пусть тем и пользуется, покупает соответствующие мониторы, и т.д.

Samsonov сказал(а):
Почему?! Чего в видеокарте такого «волшебного», что её 8 бит лучше, чем те же самые 8 бит на мониторе? «Поэт в России — больше, чем поэт»? :)
Например:

1 - LUT любой видеокарты может иметь любую форму. Внутренний LUT монитора в 80% случаев прямолинеен. В итоге, в дополнение к "регулировкам" монитора, нам необходимо "подправлять" кривую в LUT видеокарты.
2 - LUT любой видеократы не занижается до 50% на 100%, в случае если правильно выставлена яркость. Мониторный LUT может занижать значения 100% до 30-50 лишь для того, чтобы достигнуть заданной величины. Что при этом происходит с градациями, лучше я умолчу.
3 - Каким образом монитор должен согласовыватся с программным обеспечением на машине? Подставлять другие профили, когда это надо, менять белую точку,если это надо, и т.д?
4 - ... Пожалуй на этом остановлюсь.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Перечитал все сообщения, и мои мысли усугубились. Вначале они были о простом - о настройке цветовой температуры. А теперь об эффективности коррекции передаточной характеристики монитора вообще.

Ведь если у нас матрица воспринимает только 8 бит, то совершенно пофиг, что у нас находится на пути от 8-битного софта к 8-битной матрице. Хоть 8-битные LUT видеоплаты, хоть 16-битные LUT монитора. Сухой остаток преобразований один: одномерная таблица из 256 строк, в каждой из которых находится 8-битное значение.

И получается, что всякие "калибруемые" мониторы с повышенной внутренней разрядностью - маркетинговая манилка. Или производители таких мониторов научились повышать разрядность матрицы?

PS. По поводу программирования LUT монитора по DDC. Это была бы полезная вещь - как минимум для многомониторных конфигураций. А какие есть признаки того, что это возможно для любого монитора (или хотя бы многих)? Я ни разу не слышал о такой возможности даже по отношению к Apple Cinema Display.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

В LUT монитора закладываются предискажения, которые позволяют монитору показывать адекаватно, например, гамму. Пересчет будет в любом случае перед передачей сигнала на матрицу. Следующий этап- коррекция равномерности подсветки.
В данный момент, можно програмировать LUT у всех дорогих NEC, Lacie, Eizo, Samsung. Монитора Apple Cinema в этом списке нет, он настроен на заводе на одно значение, которое и зашито в его LUT.

Только я так и не понял интузиазма по поводу "програмирования" LUT монитора. Основной задачей калибровки считается линеаризация и характеризация устройства. Если мы говорим о линеаризации, то эту часть, теоретически, можно выполнять:
на уровне LUT монитора,
уровне LUT видеокарты,
совмещенно. С чего собственно, и начали.
Результат может нас устраивать, или не устраивать, по каким то визуальным причинам, но он будет.
Но этап характеризации устройства мы будем все равно выполнять на уровне программного обеспечения, которое может совмещать в себе функции LUT коррекции, а может и не совмещать, кому как нравится.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

lygun сказал(а):
Ведь если у нас матрица воспринимает только 8 бит, то совершенно пофиг, что у нас находится на пути от 8-битного софта к 8-битной матрице.

Когда-то давно растровые процессоры были выдавать только 256 градаций тона. Но почему-то (странное дело :-) ), отправлять на них изображения с "полосатыми" гистограммами избегали.
А на этом форуме некоторые ломают копья на предмет цветокоррекции изображений в 16 битах. Вот наивные :-)

с уважением,
Александр
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

aspirin сказал(а):
Цитата из технических характеристик одной видеократы, выпуска 2006 года:
  • High Dynamic Range (HDR) rendering with 8-bit, 10-bit & 16-bit per RGB color component support;
  • Full 10-bit precision display pipeline;
  • Advanced support for 8-bit, 10-bit, and 16-bit per RGB color component.
Э-э-э… а с чего вы вообще взяли, что эти свойства относятся к LUT/DAC? По-моему, тут речь явно про 3D-рендеринг: ключевые слова «HDR», «pipeline», «support for 8/10/16-bit RGB». Впрочем, перепутать не мудрено, ибо составители спецификаций сами ничего не смыслят в своей продукции, а потому валят всё вперемешку, пытаясь заговорить зубы потребителю, — вот каждый и видит в этих словах то, что хочет увидеть.

Готовый растр, который уходит на устройство, вполне может быть 16-битный, и каждая из этих градаций будет тем самым «краскоуказанием».
Может, конечно, но вряд ли, даже если под словом «готовый растр» понимать сплюснутую полнотонную картинку, а не полутоновый низкоуровневый образ для подачи на печатающую головку.

Можно внедрить 10/12-битную LUT в мониторе, чтобы повысить стоимость и спрос. Но имеет право на жизнь любой способ, начиная от изобретения 10-битного DVI.
Право-то имеет, но преимуществ — никаких. Увеличение разрядности LUT однозначно проще и дешевле расширения канала между устройствами. Да, стоимость увеличивается по-любому, но в случае с LUT это преимущественно маркетологическая игра, нежели вопрос себестоимости железа. И уж будьте уверены, 10-битный DVI вам станут втюхивать намного дороже и намного «престижнее», нежели 10-битный LUT можно достать прямо сейчас.

Внутренний LUT монитора в 80% случаев прямолинеен.
Давайте не будем делать столь смелых предположений. Ещё неизвестно, каким образом производители добиваются нужной передаточной характеристики.

LUT любой видеократы не занижается до 50 %, если правильно выставлена яркость. Мониторный LUT может занижать значения 100% до 30–50 % лишь для того, чтобы достигнуть заданной величины.
Если речь об управлении яркостью белой точки, то её обычно контролируют за счёт интенсивности подсветки. А если имеется в виду поканальная коррекция для достижения нужной цветовой температуры, то разве видеокарта поступает не точно так же? И вообще, из всего перечисленного я так и не увидел ни одного аргумента в пользу того, что видеокарта выполняет табличную коррекцию чем-то лучше монитора. Просто на видеокарту повешено меньше функций — вот и кажется, что она вносит меньшее искажение.

Что при этом происходит с градациями, лучше я умолчу.
Сужение эффективного диапазона в два раза равносильно потере 1 бита. Да, плохо, но не смертельно. Согласно вышеупомянутому расчёту, максимальная разница между соседними градациями может увеличиваться с 0,5–1,5 до 1–3 dE76. Но это максимум, а среднее значение находится в районе 1 dE76. Коли уж пипл хавает 6-битные экраны, мне это не представляется чем-то из ряда вон.


Каким образом монитор должен согласовыватся с программным обеспечением на машине? :) Подставлять другие профили, когда это надо, менять белую точку, если это надо, и т.д?
Вы что там, каждые пять минут профиль меняете? Если нужно «[THREAD=37682]показать заказчику обалденную картинку[/THREAD]», то можно и через видеокарту действовать — тут не до шашечек. В конце концов, если вы потрудились выбрать другой профиль и активировать другую гамма-коррекцию, то не сломаетесь и от варианта «поменять профиль + нажать кнопку на мониторе» (в монитор-то ведь тоже можно сохранить несколько калибровок). Но, раз уж речь идёт о полностью автоматическом управлении, то и режим монитора будет переключаться программно — так, как это прямо сейчас делается по DDC/CI. Возможно даже, что появится механизм обратной связи: как нынче распознаётся портретный режим, так в будущем будет сам собой выбираться нужный профиль.


lygun сказал(а):
Если у нас матрица воспринимает только 8 бит, то совершенно пофиг, что у нас находится на пути от 8-битного софта к 8-битной матрице. Хоть 8-битные LUT видеоплаты, хоть 16-битные LUT монитора. Сухой остаток преобразований один: одномерная таблица из 256 строк, в каждой из которых находится 8-битное значение.
Вся соль — в этих самых значениях, составляющих таблицу коррекции. Очевидно, что если на входе и на выходе равное количество возможных значений (256), то любая коррекция приводит к потере отдельных градаций: одни значения повторяются несколько раз, другие вовсе не представлены. Вопрос в том, сколько именно градаций мы теряем. Естественно, чем больше возможных мест для подобных потерь, тем выше ожидаемое количество потерь. Если же мы ограничимся всего одной LUT, да ещё сделаем её высокоразрядной, то сведём к минимуму все потери, в том числе вызванные применением внутренних настроек монитора.

Так что собственная 12-битная LUT — вовсе не блажь. Другое дело, если мы не имеем к ней доступа (из-за отсутствия DDC/CI или из-за импотенции программистов), и продолжаем калибровать через видеокарту. Но даже в таком случае предполагаемое число потерь меньше, чем в обычном мониторе с 8-битной таблицей.

Программирование LUT монитора по DDC было бы полезной вещью, но я ни разу не слышал о такой возможности даже по отношению к Apple Cinema Display. А какие есть признаки того, что это возможно для любого монитора (или хотя бы многих)?
Ну как же! Любой уважающий себя профессиональный монитор это позволяет — даже такой «ширпотреб» как Неки. Другое дело, где взять софт, ибо фирменный может быть дорог и ограничен, а то и попросту [THREAD=35527]непотребен[/THREAD], тогда как популярные сторонние пакеты не очень-то к такому приучены.


aspirin сказал(а):
Не понял энтузиазма по поводу програмирования LUT монитора. Основной задачей калибровки считается линеаризация и характеризация устройства. Результат может нас устраивать или не устраивать, но этап характеризации устройства мы всё равно будем выполнять на уровне программного обеспечения.
Если ровный градиент от 0 до 255 на выходе превращается в 0, 1, 1, 3, 4, 7, …, 250, 255, то воспринимаемый глазами результат нам может не понравиться даже с самым точным профилем. Даже при единственной коррекции в LUT монитора мы не избавимся от потерь совсем, но хотя бы сможем свести их к минимуму, если разрядность таблицы будет достаточно высокой.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Samsonov сказал(а):
Может, конечно, но вряд ли, даже если под словом «готовый растр» понимать сплюснутую полнотонную картинку, а не полутоновый низкоуровневый образ для подачи на печатающую головку..
Поверьте, так оно и есть.:)
Samsonov сказал(а):
Если речь об управлении яркостью белой точки, то её обычно контролируют за счёт интенсивности подсветки. А если имеется в виду поканальная коррекция для достижения нужной цветовой температуры, то разве видеокарта поступает не точно так же? И вообще, из всего перечисленного я так и не увидел ни одного аргумента в пользу того, что видеокарта выполняет табличную коррекцию чем-то лучше монитора. Просто на видеокарту повешено меньше функций — вот и кажется, что она вносит меньшее искажение....
Вы соглашаетесь с тем, что видеокарта вносит меньше искажений?
Собственно о том и речь. Особенно, когда LUT монитора не 16 битный, а скажем 10 битный. Соответственно, не вижу смысла использовать и гонятся за непонятным софтом, если все тоже самое можно сделать простым способом.
Samsonov сказал(а):
Сужение эффективного диапазона в два раза равносильно потере 1 бита. Да, плохо, но не смертельно. Согласно вышеупомянутому расчёту, максимальная разница между соседними градациями может увеличиваться с 0,5–1,5 до 1–3 dE76. Но это максимум, а среднее значение находится в районе 1 dE76. Коли уж пипл хавает 6-битные экраны, мне это не представляется чем-то из ряда вон..
Тогда в чем же превосходство вышеупомянутой калибовки через коррекцию LUT монинтора?
Могу сказать одно. Визуально это выглядит одинаково, на мой взгляд, часто получается, что через LUT видеокарты несколько лучше. Покончим на этом.

Samsonov сказал(а):
Вы что там, каждые пять минут профиль меняете? Если нужно «[THREAD=37682]показать заказчику обалденную картинку[/THREAD]», то можно и через видеокарту действовать — тут не до шашечек. В конце концов, если вы потрудились выбрать другой профиль и активировать другую гамма-коррекцию, то не сломаетесь и от варианта «поменять профиль + нажать кнопку на мониторе» (в монитор-то ведь тоже можно сохранить несколько калибровок). Но, раз уж речь идёт о полностью автоматическом управлении, то и режим монитора будет переключаться программно — так, как это прямо сейчас делается по DDC/CI. Возможно даже, что появится механизм обратной связи: как нынче распознаётся портретный режим, так в будущем будет сам собой выбираться нужный профиль...
К сожалению, автоматическое переключение такого есть только в одном известном мне мониторе. В остальных случаях - руками, или с перекалибровкой.

Samsonov сказал(а):
Так что собственная 12-битная LUT — вовсе не блажь. Другое дело, если мы не имеем к ней доступа (из-за отсутствия DDC/CI или из-за импотенции программистов), и продолжаем калибровать через видеокарту. Но даже в таком случае предполагаемое число потерь меньше, чем в обычном мониторе с 8-битной таблицей..
В том то и дело, что есть не только мониторы с 12-16 битной LUT, и на них тоже работают. Результат калибровки такого монитора с 8 битной LUT может быть значительно лучше, если не использовать его встроенные возможности, а воспользоватся способом калибровки через LUT видеокарты. Об этом и говорю с самого начала.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

/Alexander сказал(а):
Когда-то давно растровые процессоры были выдавать только 256 градаций тона. Но почему-то (странное дело :-) ), отправлять на них изображения с "полосатыми" гистограммами избегали.
А на этом форуме некоторые ломают копья на предмет цветокоррекции изображений в 16 битах. Вот наивные :-)
Э-э-э... Не понял связи с мониторами. Кстати, сейчас растровые процессоры сколько градаций выдают? Было бы ЧРЕЗВЫЧАЙНО интересно ознакомиться с методикой определения количества градаций на отпечатке.

Вообще все рассуждения о 16-битных изображениях в Фотошопе, 32-разрядных видеоплатах к теме не имеют отношения. Все это теряется на фоне двух фактов:
1. DVI передает 8-битный сигнал.
2. ЖК-матрицы воспринимают 8-битный сигнал.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

lygun сказал(а):
Кстати, сейчас растровые процессоры сколько градаций выдают?

я видел растры от 12 до 32 бит, причем 32 не избыточны для тех случаев, когда их используют
8-битные растры, правда, тоже до сих пор в ходу, но не стоит забывать, что суперячейка позволяет получить больше 256 градаций и на 8 битах

lygun сказал(а):
Было бы ЧРЕЗВЫЧАЙНО интересно ознакомиться с методикой определения количества градаций на отпечатке.

можно и обсудить, но уйдем от темы
да и не вижу здесь проблемы -- глазом видно

позволю себе только одно замечание -- повышение разрядности самих растров полезно и для того, чтобы точно делать линеаризацию выводного устройства и тоновую компенсацию печатного процесса

с уважением,
Александр
 
Статус
Закрыто для дальнейших ответов.