Ответ: Разрядность мониторов и регулировка цветовой температуры.
Если не ошибаюсь, более чем 8-битный цвет был возможен как минимум с конца 90-х: монитор Радиус, специальная видеокарта, Макинтош и специальный софт для просмотра.
Вы бы ещё вспомнили какие-нибудь рабочие станции Silicon Graphics или других динозавров.
Мало ли, чего там было возможно, — мы же в современном мире живём, и преимущественно под Windows.
Кстати, Radius вроде не выпускал ЖК-мониторов, а чисто аналоговому ЭЛТ всё равно, какая дискретность на входе. Так что специфический монитор, по идее, был не нужен.
Все видеокарты уже много лет имеют высокоразрядные (более 8 бит) LUT, для снижения погрешностей в расчетах, и могут выдавать 10 битные данные.
По аналоговому интерфейсу — возможно, могут. Однако аналоговые мониторы (ЭЛТ) на корню губят это преимущество уже хотя бы потому, что взаимное влияние соседних областей экрана на порядок сильнее, чем дискретность 0,0015 %. Цифровые мониторы (ЖК) с аналоговым интерфейсом тоже вряд ли способны выиграть от 10-битного цвета на входе, так как из-за проблем с синхронизацией сигнала у них вечно какие-то шумы.
Наиболее актуальные ныне цифровые мониторы с цифровым интерфейсом ну никак не способны получить от видеокарты 10-битный цвет, если канал передачи данных поддерживает только 8 бит. (Временной и пространственный дайзеринг в расчёт не берём.)
Смысл цепочки 8→10 (пусть GDI → LUT & Monitor DAC) именно в снижении погрешностей при преобразовании, и эти погрешности немалы, и снижение их имеет смысл. В цифровом DVI-видеотракте преобразование «цифра → свет» осталось, просто переместилось внутрь монитора, а потому внутримониторный LUT должен иметь запас.
Я всё-таки предлагаю забыть про существование аналоговых мониторов и интерфейсов — как бесперспективных. Что же касается управления внутримониторной LUT, то давайте будем честны: давать нам доступ к LUT монитора никто не стремится, и потому в обозримом будущем большинству из нас не светит ничего другого, кроме как калибровка LUT видеокарты. И тут мы опять приходим к тому, что пока интерфейс передачи данных между видеокартой и монитором не станет 10-битным (каким бы маразматичным вариантом это ни казалось по сравнению с калибровкой LUT монитора), толку от 10-битной LUT видеокарты — ноль.
Даже более того, результат наличия такой LUT может быть отрицательным — из-за пресловутой двусмысленности, внесённой Windows API: программы загрузки LUT должны передавать в функцию 16-битные значения, содержащие не числа из ряда 0, 1, …, 65535, а фактические 8/10/12-битные аппаратные значения в старших битах. То есть LUT-загрузчики должны знать реальные возможности видеокарты и реальные свойства текущего видеорежима, чтобы вычислить текущие правильные аппаратные значения. Но в реальности-то программы этого не знают! И загрузка LUT обычно производится лишь единожды. И сами-то данные рассчитываются заблаговременно при создании профиля. Вот и получается, что одни программы грузят 0, 256, …, а другие — 0, 257, …., — и как это всё в итоге округляется при попадании в реальную LUT видеокарты, тоже ещё большой вопрос.
Значит ли это, что videocard LUT уже не нуждается в запасе по разрядности? На LUT ложится задача преобразования system gamma → monitor gamma.
Вы уверены, что такая задача реально существует в природе? Возможно, в MacOS что-нибудь эдакое и применяется по историческим причинам, но уж точно не в Windows.