Ответ: какой размер ячеек тестовых шкал оптимальный?
Вопрос в распределении плашек по зонам.
Уточню понятия. То, из чего состоит шкала, мы называем patches (патч) или поля. Плашкой мне привычно называть solid, поля со 100% заливкой.
распределить по краскозонам псевдослучайно, чтобы в каждой зоне побывали плашки каждого диапазона плотностей, например, так, чтобы ближайшие друг к другу по % плотности плашки никогда не были в одной краскозоне, то и разброс данных получим случайный.
Это будет верно лишь тогда, когда в каждой зоне один патч. Если их больше, то начинается
группировка данных, их дробление (согласно функции зависимости TVI от solid). Причем чем больше данных, тем более выражено дробление. Это очень неприятный эффект, ведь он рвет непрерывную (изначально) функцию.
И на второй взгляд лучше: получив большее количесво данных с нарочно хаотизированной "ошибкой", мы сможем получить более точное усреднение... я за то, чтобы использовать компенсацию в дополнение к хаотизации распределения плашек по краскозонам.
Давайте еще раз проговорим базовый тезис - усреднение может подавить случайные ошибки. Если помеху вносит некий паразитный процесс, некая зависимость, то ошибка будет неслучайной. Такие ошибки усреднение подавить не может, их давят иначе.
Как я понял, изначально речь шла про градационные кривые CMYK, а не про профилирование в общем.
Вы правы, виноват, не уточнил сперва задачу. Исправляюсь.
Наша задача - обеспечить обращаемость функции краска->цвет. Специально подчеркиваю, не
точность, как таковую, а возможность получить обратное решение цвет->краска. Это требование накладывает на наши телодвижения достаточно жесткие ограничения:
гладкость (непрерывность первой производной) и
монотонность функции краска->цвет. Все наши телодвижения, в т.ч. randomize шкал, наращивание количества патчей, усреднения и сглаживания служат в первую очередь этой цели. Не росту точности! Впрочем, если мы эти требования выполним, точность появится.
Нетрудно видеть, что ни наращивание количества патчей, ни усреднение само по себе не ведет ни к гладкости, ни к монотонности. Вполне возможна ситуация, что они будут наоборот ухудшать эти требования. Поэтому в очередной раз предостерегаю - ключ к dE<2 не в огромных шкалах.
Я за полиномную аппроксимацию разумного порядка.
Возможно. Но есть исключения. Для полинома/сплайна непреодолимыми будут разрывы функции (слабое место всех таких апроксимаций). Из самой сути растра, из его физики следует, что разрывы будут. Как минимум на границах. Поэтому разумным будет комбинированный подход - часть данных обрабатываем кусочно-линейной, часть полиномом/сплайном. В некоторых коммерческих профилировщиках (см. упоминание
AlexG о PrintOpen/ColorTool) так и поступают - сперва сглаживание данных, поверх кусочно-линейная аппроксимация + полином 3-го порядка в "загогулистых" местах пространства.