какой размер ячеек тестовых шкал оптимальный?

  • Автор темы Автор темы smilem
  • Дата начала Дата начала
Статус
Закрыто для дальнейших ответов.
Ответ: какой размер ячеек тестовых шкал оптимальный?

idontbite, каждому своё. Для меня это имеет значение.
А если нужно профилировать бумагу формата 10x15?
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

А у 9x9мм ячеек по моему тесту результат получился чуть лучше, чем должен был просто потому, что их же усреднение и было взято за эталон.
Вообще-то сравнивать следует данные однообразненько. Иначе результат имеет совершенно различный смысл для рассматриваемых вариантов.
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

idontbite, каждому своё. Для меня это имеет значение.
А если нужно профилировать бумагу формата 10x15?
Не вижу препятствий.
Согласен, каждому свое.
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

ch_alex, я довольно подробно указал, как получены цифры. Данные замеров приложил - у всех есть возможность посчитать по-своему. К самому способу распределения плашек, к расположению мишеней на листах, к печати и замерам претензий ведь нет?
Всё же считаю полученные данные логичными и адекватными, пусть и не кристально методологически-чистыми. Если кому тоже интересно, пусть проведёт свой тест.
В любом случае, спасибо за внимание.
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

А если их сделать по 200 шт на канал ... к такому способу построения градационных кривых меня толкал бы перфекционизм, решай я эту задачу.
Сперва про усреднение. У растра есть одно неприятное свойство - тоновый прирост зависит от плашки. TVI вообще капризен и зависит от пары десятков факторов, но в контексте нашего вопроса, организации тестовой шкалы перфекциониста важен именно этот эффект. При малом количестве краски мал и TVI, при росте количества краски растет и TVI. В соседних зонах разница может достигать 8%. Пусть наши измерения (корректно выполненные, т.е. в каждой зоне свой индивидуальный градационный клин) дают разброс растискивания от 12 до 20% - где будем делать талию? Усреднить? Лишь случайный разброс в данных можно (полезно) усреднять, а у нас иначе.

Следующий вопрос - поможет ли нам 200 замеров на канал? На первый взгляд "чем больше, тем лучше". Конечно хотелось бы каждый луч в цветовом пространстве пройти максимально подробно. Но какая цена? В трехмерном пространстве цена - кубическая степень. Хотим каждый луч с шагом 20 - имеем 20^3=8000. Хотим каждый луч с шагом 200 - имеем 200^3=8000000. Очень дорогой получается перфекционизм.

На оба вопроса есть ответы. Вместо усреднения можно провести компенсацию зависимости TVI, пусть с помощью calibration bars (measurement correction в Measure Tools). Хотя лучше выполнить безукоризненно ровный принт. Вместо восьми миллионов полей мы предпочитаем аппроксимацию. Здесь сразу возникает вопрос - какую именно? Ведь не бывает "самой лучшей" аппроксимации, каждый алгоритм имеет свои сильные и слабые стороны, какой будет наиболее уместен для нас? Какие проблемы у полиномов/сплайнов высокого порядка? Почему большинство профилировщиков пользуют кусочно-линейную? Собственно здесь спрятан ответ на вопрос, почему для одного процесса достаточно 800-польной шкалы и получаем dE<2 , а у другого при 8000-польной dE>8.
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

Сперва про усреднение. У растра есть одно неприятное свойство - тоновый прирост зависит от плашки. TVI вообще капризен и зависит от пары десятков факторов, но в контексте нашего вопроса, организации тестовой шкалы перфекциониста важен именно этот эффект. При малом количестве краски мал и TVI, при росте количества краски растет и TVI. В соседних зонах разница может достигать 8%.
Здесь понятно: имеем то, что имеем. Его и профилируем/аппроксимируем. Вопрос в распределении плашек по зонам.

Пусть наши измерения (корректно выполненные, т.е. в каждой зоне свой индивидуальный градационный клин) дают разброс растискивания от 12 до 20% - где будем делать талию? Усреднить? Лишь случайный разброс в данных можно (полезно) усреднять, а у нас иначе.

Если плашки специально распределить по краскозонам псевдослучайно, чтобы в каждой зоне побывали плашки каждого диапазона плотностей, например, так, чтобы ближайшие друг к другу по % плотности плашки никогда не были в одной краскозоне, то и разброс данных получим случайный.

Следующий вопрос - поможет ли нам 200 замеров на канал? На первый взгляд "чем больше, тем лучше".

И на второй взгляд лучше: получив большее количесво данных с нарочно хаотизированной "ошибкой", мы сможем получить более точное усреднение - более точную форму кривой.

Конечно хотелось бы каждый луч в цветовом пространстве пройти максимально подробно. Но какая цена? В трехмерном пространстве цена - кубическая степень. Хотим каждый луч с шагом 20 - имеем 20^3=8000. Хотим каждый луч с шагом 200 - имеем 200^3=8000000. Очень дорогой получается перфекционизм.

Как я понял, изначально речь шла про градационные кривые CMYK, а не про профилирование в общем. Пока не комментирую.

На оба вопроса есть ответы. Вместо усреднения можно провести компенсацию зависимости TVI, пусть с помощью calibration bars (measurement correction в Measure Tools). Хотя лучше выполнить безукоризненно ровный принт.

Раз уж речь зашла об компенсации, например, с помощью калибровочных полос (представляю, как это можно реализовать при помощи ArgyllCMS), я за то, чтобы использовать компенсацию в дополнение к хаотизации распределения плашек по краскозонам.

Вместо восьми миллионов полей мы предпочитаем аппроксимацию. Здесь сразу возникает вопрос - какую именно? Ведь не бывает "самой лучшей" аппроксимации, каждый алгоритм имеет свои сильные и слабые стороны, какой будет наиболее уместен для нас? Какие проблемы у полиномов/сплайнов высокого порядка? Почему большинство профилировщиков пользуют кусочно-линейную? Собственно здесь спрятан ответ на вопрос, почему для одного процесса достаточно 800-польной шкалы и получаем dE<2 , а у другого при 8000-польной dE>8.

Да, это вопросы качества ПО профилирования и линеаризации. Я за полиномную аппроксимацию разумного порядка. Как подсказывает мой жизненный опыт, порядок полинома/сплайна определяется количеством факторов, влияющих на процесс. Определяю для каждого случая эмпирически (если в исследовательских целях), путём просмотра графиков с наложением замеров и аппроксимаций. В работе просто доверяю ПО, но проверяю.
Если замеры сделаны методологически верно, а именно, плашки распределены по краскозонам равномерно-случайно, то полиномная аппроксимация даёт хороший результат.
sabos, может есть возможность попробовать подсунуть калибровщику ArgyllCMS (printcal) данные по 200 плашек на канал со случайным распределением по краскозонам? Хотя бы имитацию? Может, будете настроены не так скептически, хотя, честно признаюсь, сам не проверял.
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

может есть возможность попробовать подсунуть ***** данные по 200 плашек на канал со случайным распределением по краскозонам?
Почему 200? Почему не 256, что более корректно с точки зрения представления чисел в цифровом виде? Гулять - так гулять.

ЗЫ. Извините, не удержался.
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

А почему, в случае линеаризации, обязательно аппроксимацию? Понятно, что она используется при обработке экспериментальных данных и т.д. и т.п. Но ведь если усреднить замеры нескольких шкал, разве картина не будет достаточно близкой реальности (хотя бы у тех же струйников)? Или я не прав?

Ограничиться разумным числом полей (вытянуть из IT8.7-4), используя интерполяцию сплайнами Акимы получить необходимое число промежуточных значений. Далее вычислить требуемые значения для коррекции входных значений. Раз интерполяция — значит пройдем через реальные точки. Сплайн Акимы — уберем болезнь осцилляций. Все можно сделать в Excel.
Даст ли полиномиальная аппроксимация, в этом случае, такую же точность?


Не по теме:
P.S. Просьба особо не пинать. В математике слаб.
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

Но ведь если усреднить замеры нескольких шкал, разве картина не будет достаточно близкой реальности (хотя бы у тех же струйников)? Или я не прав?
Если говорить о дорогих многоцветных струйниках, которые практически не полосят, то прав. Если говорить о ЦПМ, которые полосят вдоль и поперёк, и об обычных офсетных станках, то усреднение приведёт к "ломке" кривых. Это зависит прежде всего от "удачности" тасовки пачей. Есть метод статоценки данных, позволяющий оценить степень достоверности значения и принять (или не принять) его в качестве одного из слагаемых.

Раз интерполяция — значит пройдем через реальные точки.
Нет реальных точек. Есть только замеры, содержащие кроме ошибок измерений ещё и ошибки, вызванные неравномерным накатом краски и колебаниями белизны бумаги. Условно реальным узлом можно считать только статистически достоверное значение.
 
Ответ: какой размер ячеек тестовых шкал оптимальный?


Не по теме:
Есть метод статоценки данных
Где это получше/полегче описано? Какой именно метод? (Есть со времен института книга Зайделя "Ошибки измерений физических величин", но сейчас пока нет времени для ее чтения/восстановления.)

 
Ответ: какой размер ячеек тестовых шкал оптимальный?

…и об обычных офсетных станках, то усреднение приведёт к "ломке" кривых. Это зависит прежде всего от "удачности" тасовки пачей.
Поэтому ECI чётко рекомендует как должны располагаться градационные клинья.
 

Вложения

  • ECI_gcs.jpg
    ECI_gcs.jpg
    126.3 КБ · Просм.: 921
Ответ: какой размер ячеек тестовых шкал оптимальный?

Поэтому ECI чётко рекомендует как должны располагаться градационные клинья.
Это только для контроля оттиска. Для измерений патчей маловато.


Не по теме:
Где это получше/полегче описано? Какой именно метод? (Есть со времен института книга Зайделя "Ошибки измерений физических величин", но сейчас пока нет времени для ее чтения/восстановления.)

Не по теме:
К сожалению, толстый справочник дома на полке. Отпишу вечером или завтра днём. В принципе, пользуясь статистическими критериями, можно выяснить, что минимальное число повторов должно быть не менее некоего числа с такой-то вероятностью совпадения замера с "идеалом". Грубо говоря, "обстреливая" мишень (точное значение) попадания должны лечь в определённый радиус - так мы полагаем из некоторых критериев. Угадали мы или нет - покажут отклонения от среднего. Если отклонения слишком велики в сравнении с измеряемой величиной, то следует изменить количество попыток, уменьшить вес попадания в зависимости от его отклонения от среднеквадратичного значения. Можно производить также измерение в близко расположенных узлах, чтобы определить значение, лежащее между ними. И т.д.
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

Раз уж речь зашла об компенсации, например, с помощью калибровочных полос (представляю, как это можно реализовать при помощи ArgyllCMS), я за то, чтобы использовать компенсацию в дополнение к хаотизации распределения плашек по краскозонам.

Как в ArgyllCMS это можно сделать??? Там же нет возможности поставить calibration bars, как в Measure Tools, чтобы сделать measurement correction. Да и в Measure Tools это работает только для TC3.5...

ЗЫ: В принципе, думаю, что сделать measurement correction в Экселе по аналогии с Measure Tools более-менее не сложно. Особенно если на входе спектральные данные.

Если замеры сделаны методологически верно, а именно, плашки распределены по краскозонам равномерно-случайно, то полиномная аппроксимация даёт хороший результат.

Опять же, сделать апроксимацию можно для градационных кривых по каждому цвету. Но как сделать ее для всей таблицы целиком? Хотя бы так, как делает PrintOpen своим smoothing-ом. Есть наметки алгоритма? А то уже давно есть желание что нибудь такое попробовать соорудить...
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

Это только для контроля оттиска. Для измерений патчей маловато.
Для измерения градационных, бинаров и баланса - достаточно. Для построения профиля маловато. Но и карту для построения профиля лучше располагать так, чтоб градационные были в одной краскозоне.
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

Вопрос в распределении плашек по зонам.
Уточню понятия. То, из чего состоит шкала, мы называем patches (патч) или поля. Плашкой мне привычно называть solid, поля со 100% заливкой.
распределить по краскозонам псевдослучайно, чтобы в каждой зоне побывали плашки каждого диапазона плотностей, например, так, чтобы ближайшие друг к другу по % плотности плашки никогда не были в одной краскозоне, то и разброс данных получим случайный.
Это будет верно лишь тогда, когда в каждой зоне один патч. Если их больше, то начинается группировка данных, их дробление (согласно функции зависимости TVI от solid). Причем чем больше данных, тем более выражено дробление. Это очень неприятный эффект, ведь он рвет непрерывную (изначально) функцию.
И на второй взгляд лучше: получив большее количесво данных с нарочно хаотизированной "ошибкой", мы сможем получить более точное усреднение... я за то, чтобы использовать компенсацию в дополнение к хаотизации распределения плашек по краскозонам.
Давайте еще раз проговорим базовый тезис - усреднение может подавить случайные ошибки. Если помеху вносит некий паразитный процесс, некая зависимость, то ошибка будет неслучайной. Такие ошибки усреднение подавить не может, их давят иначе.
Как я понял, изначально речь шла про градационные кривые CMYK, а не про профилирование в общем.
Вы правы, виноват, не уточнил сперва задачу. Исправляюсь.

Наша задача - обеспечить обращаемость функции краска->цвет. Специально подчеркиваю, не точность, как таковую, а возможность получить обратное решение цвет->краска. Это требование накладывает на наши телодвижения достаточно жесткие ограничения: гладкость (непрерывность первой производной) и монотонность функции краска->цвет. Все наши телодвижения, в т.ч. randomize шкал, наращивание количества патчей, усреднения и сглаживания служат в первую очередь этой цели. Не росту точности! Впрочем, если мы эти требования выполним, точность появится.

Нетрудно видеть, что ни наращивание количества патчей, ни усреднение само по себе не ведет ни к гладкости, ни к монотонности. Вполне возможна ситуация, что они будут наоборот ухудшать эти требования. Поэтому в очередной раз предостерегаю - ключ к dE<2 не в огромных шкалах.
Я за полиномную аппроксимацию разумного порядка.
Возможно. Но есть исключения. Для полинома/сплайна непреодолимыми будут разрывы функции (слабое место всех таких апроксимаций). Из самой сути растра, из его физики следует, что разрывы будут. Как минимум на границах. Поэтому разумным будет комбинированный подход - часть данных обрабатываем кусочно-линейной, часть полиномом/сплайном. В некоторых коммерческих профилировщиках (см. упоминание AlexG о PrintOpen/ColorTool) так и поступают - сперва сглаживание данных, поверх кусочно-линейная аппроксимация + полином 3-го порядка в "загогулистых" местах пространства.
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

А почему, в случае линеаризации, обязательно аппроксимацию? Понятно, что она используется при обработке экспериментальных данных.
Чуть уточню. Аппроксимацию мы используем в профилировании из-за того, что нет физической возможности напечатать шкалы в восемь миллионов полей. В случае линеаризации задача звучит иначе. Стадия линеаризации нужна для повышения гладкости лучей аппаратного (краско-)пространства. При измерениях из-за анизотропности процесса печати мы вместо одной тоновой функции получаем семейство. Все "синусоидальности" и прочие "осцилляции" в TVI - это лишь ошибка интерпретации данных, путаница, мы пытаемся нарисовать функцию вместо семейства. Восстановить функцию из семейства можно разными способами, сглаживание - один из простых и эффективных способов. Особенно если не забыть про разрывы и затем еще правильно подобрать целевую (желательно не денситометрическую).

Для измерения градационных, бинаров и баланса - достаточно. Для построения профиля маловато. Но и карту для построения профиля лучше располагать так, чтоб градационные были в одной краскозоне.
И здесь уточню. Да, testchart для построения профиля лучше организовать так, чтоб градационные были в одной краскозоне. Но это не решает задачи гладкости, это лишь позволяет легко оценить данные перед профилированием. Убрав эти паразиты-осцилляции, мы можем проще (визуально) оценить гладкость четырех базовых лучей. Если они удачны, то можно говорить о линейности нескольких подготовительных процессов (растрового, формного и т.п.). А значит можно надеяться на гладкость и в остальных лучах. Но, повторюсь, эта гладкость - требование необходимое, но недостаточное. Выравнивать краскозоны (и раскат) нужно безупречно, лишь тогда можно надеяться на гладкость и в остальных лучах.
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

Написал данное сообщение не видя двух сообщений ув. sabos выше. Оставляю текст как есть:

Вижу, что есть некоторая заскорузлость мышления. Может, это просто такой личный опыт?

Лично я считаю, что лучше замерять все зоны и хаотизировать, компенсировать при замере, усреднять и аппроксимировать данные, чем замерять одну зону в рассчёте на то, что она окажется "средней по больнице". Ведь при расположении теста в одном месте, мы даже не знаем, как хорошо или плохо обстоят дела в других. Считаю методологически неверным замер по одной краскозоне. По логике и профиль тогда нужно строить для каждой краскозоны свой...

У меня есть свой опыт замера нестабильных процессов, и результат хорош именно тогда, когда достигнута наибольшая хаотизация и наибольшее покрытие площади, по которой распределены девиации печати. То есть, когда достигнута случайность распределения ошибки. Концентрировать ошибку в одной зоне (читай, располагать плашки в одной краскозоне) по-моему не верно. Такой подход - наследие старых CMS и просто производственного процесса, консервативного и тяготеющего к стандартам. А проверенное и устоявшееся - не всегда самое верное и оптимальное.
Думаю, что лушчие из современных CMS достойно справятся с задачами нормализации и профилирования печатного процесса, если использовать равномерное распределение плашек по зонам. Практически во всех CMS есть "регулятор плавности" кривых. В ArgyllCMS, в частности, это параметр "average deviation" в профилировщике, непосредственно задающей среднюю ошибку замера (включая разброс по краскозонам, например), влияющий на плавность "кривых" профиля.

По поводу компенсации разницы межу краскозонами и ArgyllCMS я имел ввиду работу в табличном процессоре. Обычно я так и делаю - создаю свой шаблон карты в виде таблицы с дополнительными корректирующими плашками, подгружаю в него данные профилировщика и печатаю комбинированную мишень. Замеряю, корректирую в табличном процессоре и выгружаю данные в профилировщик. Не делал так с краскозонами, но делал, например, с измерениями на просвет, когда для каждой полоски карты применялась своя коррекция.
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

Прошу прощение, что вмешиваюсь: даже половину терминов не знаю и половину фомул уже не ведаю (забыл уже давно). Но когда говорят от о возможностях ArgyllCMS или сплайн-интерполяциях, апроксимациях и т.д., то позвольте. Итог-то каков: профиль чтоль?
Вы посмотрите какую лажу строит Argyll, когда ему чего-то повторные замеры (с ошибками замеров) суют.
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

Вижу, что есть некоторая заскорузлость мышления. Может, это просто такой личный опыт?

Не по теме:
Моя молодежь о мне говорит конкретнее: "изуродован образованием" :-). Если мне математика говорит, что распределение ошибки ненормально, то Гаусс у меня не работает. Если у железки/драйвера inkspit дурацкий и разрыв неизбежен, то мне математика говорит - усреднение не поможет. Поможет замена драйвера. Если у растра неверный spot и срыв светов неизбежен, то мне математика говорит - усреднение не поможет. Поможет замена растра. С математикой/природой вообще очень сложно "договариваться", можно лишь следовать её законам. Даже если это "устаревшие" законы. Собственно я про это и говорю. Не о том, что усреднение плохо всегда, нет, я сам с удовольствием его использую. Но разумно. Есть вещи, где усреднение поможет, а есть - где оно бесполезно. И не стоит надеяться на то, что какая наисовременнейшая CMS сможет обойти заскорузлые законы природы. Это лишь в волшебных маркетинговых мирах так бывает.
 
Ответ: какой размер ячеек тестовых шкал оптимальный?

...Если говорить о ЦПМ, которые полосят вдоль и поперёк, и об обычных офсетных станках, то усреднение приведёт к "ломке" кривых. Это зависит прежде всего от "удачности" тасовки пачей.

Прямо сплю и вижу, как на формате A3 для ЦПМ раскладываю 4 карты по 1440 патчей 6x6мм (итого 5760). Как думаете (вопрос ко всем интересующимся), такое количество плашек, разбросанное случайно по площади листа и оптимизированное по распределению в объёме цветового охвата, позволит получить гладкие кривые в профиле, при условии, что плотности неравномерны и вдоль, и поперёк? Я думаю, что опробованная мной ArgyllCMS позволит. Замечал, что данная CMS не стремиться прсто провести кривые через точки замеров, а по величине девиации в том или ином сегменте объёма выбирает свою степень сглаживания. То есть, если получен большой разброс между соседними точками в аппаратном пространстве, то в соответсвующем месте цветового пространства производиться большее сглаживание. То же касается и линеаризатора.
 
Статус
Закрыто для дальнейших ответов.