Ответ: Разрядность мониторов и регулировка цветовой температуры.
sabos сказал(а):
Мой простенький тест позволяет поймать 6-разрядные ЖКИ. Не секрет, что многие офисные системы (даже с 10-bit LUT!) на выходе имеют 6-bit панель. Артефакты маскируются простейшим dithering. Очевидно, что вышеупомянутый тест такие панели не пройдут.
Современные быстрые матрицы могут и пройти — если хаотичное мельтешение пикселей происходит быстрее, чем успевает заметить глаз в данных условиях просмотра. А старым медленным матрицам и никакого теста не нужно: даже просто на чёрном экране видны эти «мурашки».
У меня нет проблем при просмотре тестов как в CMS-aware, так и без.
Но вы же отдаёте себе отчёт, что применение CMS способно исказить ваши ровные серые градиенты с фиксированным шагом, так что разница между соседними ступенями на конкретном мониторе станет больше r1g1b1 или, наоборот, меньше.
Тесты нам демонстрируют, что в предельных условиях мы способны разглядеть более 256 градаций серого.
Видимо, речь о каких-то людях с очень хорошими глазами? Мне и 128, наверное, не отличить.
Перед внутренним движком монитора задачи «калибровки» не ставят (пока?). … Мониторы «умеют» произвольную табличную функцию.
Наверное, я невнятно выразился. Имелся в виду движок цветовой эмуляции, который преобразует входные абстрактные RGB-данные в родной цветовой охват. Нисколько не сомневаюсь, что эта эмуляция выполняется по матричной модели, а не по какой не 3D LUT. И судя по всему, сия модель рассчитана только на показательную передаточную функцию (на входе) и нулевую чёрную точку; ну, вот так вот распорядились производители.
ЗИ Свечконос сказал(а):
Во всех мониторах среднего класса и даже в некоторых простеньких мониторах есть 3D LUT внутри. Цель этой таблички сделать монитор линейным, который по свой природе (ЖК) нелинеен.
Не путайте: 3 × 1D LUT — это не то же самое, что 3D LUT.
LUT в видеокарте 11-разрядная (обычно), но DVI стандарт 8-битный, так что можно что угодно делать на стороне граф карты, но пропихивать всё равно придётся через 8-битную дырочку.
Так ведь в топике как раз и говорится, что DVI уже может быть 10-битным при обычном 1-мониторном подключении. Другое дело, что это является перекладыванием с больной головы на здоровую, но тем не менее. И, теоретически, видеорежим Рабочего стола не обязан быть 10-битным: видеокарта могла бы самостоятельно транслировать 8-битную картинку операционной системы в 10-битные сигналы для монитора — на основе калибровочных значений 10-битной LUT.
Что же касается Windows GDI, то снова повторюсь: оно и так вполне позволяет создавать цветные растры с глубиной представления до 10 бит на канал и монохромные до 16 бит. Просто не поддерживаются видеорежимы с глубиной более 8 бит на канал — это да. Но действительно ли оно необходимо, вместо того чтобы реализовать нормальную внутреннюю калибровку монитора по DDC/CI?