Ответ: Разрядность мониторов и регулировка цветовой температуры.
aspirin сказал(а):
Вы соглашаетесь с тем, что видеокарта вносит меньше искажений? Собственно о том и речь.
Именно что
не соглашаюсь — это как раз
вы полагаете, что одного того обстоятельства, что видеокарта вносит меньшую коррекцию, достаточно для утверждения, что «8 бит на видеокарте — это лучше и
качественнее(!), чем 8 бит на мониторе». Не может быть ни лучше, ни хуже, ибо одно неизменно накладывается на другое, что приводит к заведомо худшему результату, чем если бы выполнялось только одно преобразование.
В чём же превосходство вышеупомянутой калибовки через LUT монитора?
Именно в том самом — в устранении лишней коррекции, которая может только ухудшать, то есть увеличивать потери градаций.
Визуально это выглядит одинаково, на мой взгляд. Часто получается, что через LUT видеокарты несколько лучше.
Если так получается, очевидно, где-то вкралась ошибка или недоработка. Иного не дано.
aspirin сказал(а):
Попробуйте получить ровный градиент на Nec 1970NX, используя LUT монитора, при калибровке на 5000К, яркость около 90 канделл. Гамма значения не имеет.
Гамма значение имеет! Всегда! Чем ближе целевая гамма к собственной передаточной характеристике монитора, тем меньшее искажение мы добавим.
На самом деле, в мониторе не одна LUT, скорее всего. Редактированию подлежит «пользовательская», но вероятно есть ещё вторая, которая отвечает за гамму, предустановки и прочее.
А чего уж сразу не по отдельному LUT на каждый эффект — гамму, баланс, яркость чёрного? Конечно же, LUT одна-единственная — в этом-то вся соль! И мне с трудом верится, чтобы каждый эффект обрабатывался отдельным «конвейером» даже в самых дорогих мониторах. То есть каждая настройка последовательно применяется к единственной LUT — так же, как последовательно применяются эффекты в графическом редакторе. Почему мы редактируем изображения в 16-битном режиме, хотя на выходе нужно не более 8 бит? Именно чтобы не терять на дискретизации после бесчисленных правок. Аналогично и с LUT монитора: большая разрядность (а я тоже полагаю, что сейчас всё больше 10-битных моделей, даже если спецификация немногословна) делает практически незначимой проблему квантования. Мы же со своей неизменно 8-битной коррекцией на видеокарте только портим всю малину.
Далеко не на всех мониторах есть регулировка гаммы.
На некоторых особо «шедевральных» мониторах она называется регулировкой цветовой температуры — на самом деле меняется именно поканальная передаточная характеристика, но никак не баланс белого. К тому же, как мы уже выяснили, гамма-коррекция — это не единственное, за что отвечает LUT монитора.
aspirin сказал(а):
Недостаточно 8 бит, даже если бы LUT в мониторе был один. Пример: использование не Native White Point. Потери по синему — около 30–40%. Число градаций значительно сокращается.
Во-первых, я уже показывал, что потери не такие уж катастрофические. А то давайте ещё вспомним, какие потери возникают просто из-за того, что мы воспроизводим sRGB-изображение на реальном мониторе: и не только из-за небольшой разницы в гамме, сколько ещё в результате колориметрических преобразований.
Во-вторых, как уже неоднократно подчёркивал сам топикстартер, матрица-то у нас всё равно 8-битная. И если только мы не имеем возможности раздельно управлять RGB-компонентами подсветки, те же самые 30–40 % потерь диапазона останутся по-любому, как бы мы ни изгалялись на входных каскадах.