- Сообщения
- 9 258
- Реакции
- 1 188
Саша, тогда параллельный вопрос, если можно: как Вы считаете, увеличение числа патчей тест-карты в значимых зонах даст эффект или нет? Я пробовал и мне кажется, что некоторый эффект был, однако меньше желаемого.
Никак, разумеется.sabos сказал(а):Ключевое слово - "значимых". Как их знать заранее?
Я тоже так думаю, но непонятно, зачем тогда в Testchart Generator заложена возможность создавать тест-карты аж с 11281 полем? Или что значит "тупое"?Тупое увеличение числа патчей тест-карты лишь сведет интерполяцию с ума.
Я конечно педалирую проблему нормировки. Мы и в колориметрии отлично выкручиваемся через относительные измерения. Пусть мы не можем сделать Y=100 при измерениях на отражение. Ну и что? Не можем сделать - но можем назначить. И все - с четвертым кардиналом вопрос БАЦ - и решен. Отнормировали. Кому не нравится - пусть читают фон Криза и Бредфорда.sabos сказал(а):Само определение tone value висит в воздухе. К чему его нормировать?
А у него читать нечего -- он лишь подал идею. А развивали другие.sabos сказал(а):Кому не нравится - пусть читают фон Криза<...>
Это и есть итерационный метод коррекции профиля.Alexey Shadrin сказал(а):В Color Lab сочитяется Lab-мишень патчей на 100-150, примерно выбирающая нужный пузырь из охвата
Как только появятся алгоритмы препроцесинга карты перед профилированием, так сразу и "поумнеют". Причем препроцесинга в аппаратных координатах (т.е. линеаризации), со всеми загогулинами (и эффекта Бира, и наложений) да еще и с учетом JND - равномерности восприятия (uniform chromaticity).Alexey Shadrin сказал(а):но непонятно, зачем тогда в Testchart Generator заложена возможность создавать тест-карты аж с 11281 полем? Или что значит "тупое"?
Так ведь есть этот препроцессинг аппаратных данных карты в Монако, называемый линеаризацией, значит есть движение в эту сторону? Конечно он эффекта наложений и пр. не учитывает, но все же наверное лучше, чем ничего? Или есть явные пороки у этого метода?sabos сказал(а):Как только появятся алгоритмы препроцесинга карты перед профилированием, так сразу и "поумнеют". Причем препроцесинга в аппаратных координатах (т.е. линеаризации), со всеми загогулинами (и эффекта Бира, и наложений) да еще и с учетом JND - равномерности восприятия (uniform chromaticity).
Сейчас все это - ручник, да с лотереей в придачу. Проще взять гладкую технологию печати (типа офсетной или пигментной), чем распутывать эти "сгустки".
Проблемы сгустков и разрежений таким способом решить невозможно -- их можно в лучшем случае учесть. Решать же данные проблемы должен производитель принтера.ilias сказал(а):Монако и пытается решить проблемы сгустков и разряжений в гамуте
Это не примитивно – это imho помесь мелкого и мягкого. Я комментировать это не возьмусь.Cumulative dE от % колоранта (понятно, что это примитивно).
Нет.Скажите, это и есть CIE-based линеаризация?
По просьбам трудящихся...sabos сказал(а):
Не по теме:
Что-то мы далеко от темы ушли. Может попросить модератора вынести в отдельную ветку?
Правильно понимаете. Только не "равноразличимые" (это только в идеале бывает), а "различимые". Равноразличимыми их CMS сделает. CMS много чего умеет, она не умеет лишь одного - сделать равноразличимыми сигналы, не отличающиеся ничем.Как я понимаю линеаризацию с точки зрения банальной эрудиции
Строго говоря - JND. Пока однозначного ответа наука на uniformity ("равноразличимые") не дает. Наилучшее приближение к равноразличимым - CIECAM02. Для практиков - dE2000.Вопрос - что есть равноразличимые, dE?
Ага . Особенно, если знать о том, что Y - это яркость. Если для black еще логично, то как это для magenta воспринимать? Это даже не fitting. Есть ли логичные системы в CIE-based? Их очень мало (в популярном ПО их просто нет), но они встречаются - самая удачная imho через баланс серого.Вызвали удивление формулы CIEXYZ TVI, жесткая увязка c - Х, m - Y, y - Z, k - Y. Какой-то волюнтаризм.
Коллега, давайте все-таки освобождаться от отраслевого центропупизма : логарифм претендует лишь на удобство использования цифирь. Существуют, к примеру, схемы оценки оптической плотности по натуральному логарифму (Хант, 2004). О Вебере и Фехнере забудьте (Стивенс, 1961).ilias сказал(а):Ну а если вернуться к Density, там-то волюнтаризм заключен только в логарифме, который претендует на адекватную оценку различимости тона.
Адекватные оценки у нас - перцептуальные. Там не логарифм, там степенные функции. А логарифм удобен нам лишь тем, что там можно перейти от операций умножения/деления к операциям сложения-вычитания.ilias сказал(а):в логарифме, который претендует на адекватную оценку различимости тона
Похожие функции имеют некоторые спектрофотометры и спектроденситометры высокого класса (например SPM, спектроглаз). Вполне возможно, что и для программного линеаризатора не помешало бы. Но в широком доступе таких приемов не встречал. Мало исследовано.ilias сказал(а):а почему бы не определить их программно измерив спектр конкрентных колорантов на конкретном носителе, т.е. делать fitting "на лету"
Вы здесь рассуждаете о том случае, когда краски физически ложатся друг на друга. А если они рядом ложатся без наложения, как должно быть во многих цифровых устройствах? Тогда закон сложения плотностей должен работать?sabos сказал(а):...
И это было бы замечательно, если бы краскосинтез всегда подчинялся нашей арифметике. А он капризен, то подчиняется, то нет.
...есть еще эффективность красконаложения. В первом случае эффективность была 100%. И мы успешно создали бутерброд .
Обратите внимание - здесь речь идет не о "цветных плотностях"...