Luminosity, Lightness, ....

Статус
Закрыто для дальнейших ответов.
П

Прохожий

Гость
Вы не поняли:) РГБ это не цвет, а количество того излучения (пусть будет яркость), которое, кажется вы хотите отловить. Я хочу сказать, что в РГБ цвета нет:)
german
 

control-z

Участник
Сообщения
42
Реакции
0
Re: Re: Re: Luminosity, Lightness, ....

Автор оригинала SVAM
... встречал методики измерения динамического диапазона цифровой камеры по сырым данным из RAW ("слепок" с матрицы).
- то есть Вам придется ограничиться теми камерами, в основном профессионального класса, которые дают RAW изображение на выходе.
... В серьезных камерах значение каждого исходного пикселя (сенсора) составляет 12 бит.
На выходе мы получаем три композитных значения RGB по 16 бит !!!И совсем не факт, что динамический диапазон исходного значния будет больше или меньше результирующего...
Я не большой знаток устройства камер, но, кажется, мало какие 16-битовые устройства реально измеряют все 16 бит: обычно это 10-12 бит, а недостающие (до 16) просто дописываются нулями. Так что динамический диапазон от этого меняться не должен.
...Если же Вы имеете в виду lightness L из Lab - она зависит от правила, по которому ФШ переводит RGB значения в Lab. Что в свою очередь зависит от цветового пространства, в которое Вы поместили Вашу фотографию ... Ну тут проблем не вижу. Легко могу поместить в заведомо большое пространство - в тот же ProPhoto RGB от Кодак. (шире пока не знаю).
Т.е. конвертор из RAW уже посчитает в то или иное пространство...
Дело не в размере пространства. Сделайте простой опыт: возьмите для простоты градиент из одного цвета в другой, замерьте пипеткой sample color в 4 точках и размножьте вашу картинку(duplicate) на две. Одной присвойте (assign) пространство sRGB, а другой Wide Gamut RGB. Переведите в Lab и сравните значения L в samples этих двух файлов - они будут отличаться (хотя и не на много)! Значит, если Вы можете напрямую из RAW файлов разных камер перевести изображение в Lab, то дальше их L можно сравнивать. Если Вам сначала надо перевести RAW в RGB, то придется выбрать какое-то конкретное пространство. В идеале производители камер должны давать профили RGB пространства, описывающее гамут(ы) их камеры. Сомневаюсь, что все они это делают. Значит, Вам придется выбирать те пространства, которые есть в ФШ и присваивать их сравниваемым снимкам, внося при этом неизбежную ошибку: например, предложенный Вами ProPhoto RGB будет лучше описывать гамут одних камер и хуже - других. А точнее - он будет в разной cтепени их искажать. Это к Вашему вопросу о переходе между пространствами: если под переходом понимается конвертация (Convert), то такая операция меняет RGB значения файла, стараясь, чтобы изображение, по возможности, не менялось - L тогда тоже останется неизменным. Но когда мы открываем новое RGB изображение в ФШ, цветовое пространство которого нам неизвестно (некий RGB), этому изображению ВСЕГДА присваивается (Assign) какое-то цветовое пространство. Эта операция ведет себя обратно Конвертации: не меняя RGB значения она меняет их трактовку (экранное изображение), что, в общем случае, меняет L.

...Конвертор из RAW (слепка с матрицы, который является линейным) может позволить не давать гамму и сохранить все значения в линейном виде. Что собственно и снимает вопрос нелинейности...
Нелинейность L связана не с гаммой, а с нелинейностью нашего зрения: при одном и том же увеличении излучаемой энергии мы увидим РАЗЛИЧНОЕ изменение яркости в зависимости от того, например, увеличилась ли энергетическая яркость красного или синего. Соответственно, L тоже изменится по-разному, поскольку она описывает не энергетические характеристики спектра, а наше восприятие этого спектра.

Трудно сказать, какое влияние это все может оказать на сравнение разных камер. Но если есть возможность еще до ФШ перевести RAW в усредненный каким-то разумным способом одноканальный сигнал - это снимет многие "но".

Про использование Lab читайте следующий топик: http://forum.photoshop.ru/showthread.php?postid=9220#post9220
 

SVAM

Участник
Топикстартер
Сообщения
18
Реакции
0
Автор оригинала Прохожий
Вы не поняли:) РГБ это не цвет, а количество того излучения (пусть будет яркость), которое, кажется вы хотите отловить. Я хочу сказать, что в РГБ цвета нет:)
german
RGB в файле - это не цвет....но и не яркость!
Или как говорят про RGB - это композитная яркость (т.е. яркость+цвет). Но сколько там яркостной составляющей, а сколько описательной цвета - боюсь, что никто толком не ответит.

И как это "пусть будет"?????
 

SVAM

Участник
Топикстартер
Сообщения
18
Реакции
0
Автор оригинала control-z

- то есть Вам придется ограничиться теми камерами, в основном профессионального класса, которые дают RAW изображение на выходе.
А другими я пока и не пользуюсь:)

Я не большой знаток устройства камер, но, кажется, мало какие 16-битовые устройства реально измеряют все 16 бит: обычно это 10-12 бит, а недостающие (до 16) просто дописываются нулями.
Именно так происходит, если смотреть чистые данные RAW. Но RAW - это составные кирпичики....более того на каждый пиксель приходится всего 12 бит и только одного монохромного (R или G или B) значений.
И я недаром упомянул выше про баеровскую интерполяцию - в расчет идут еще и окружающие пикселы (от 3 соседних...до 8-ми окружающих).
В результате алгоритмических вычислений, мы на выходе получаем пикселы с термя RGB композитными каналами по 16 бит каждый. Вот и все.
В сканерах делать подобные вычисления не имеет смысла..

Так что динамический диапазон от этого меняться не должен.
Если бы это был сканер, то он бы точно не менялся т.к. там на каждый пиксель изначально приходится только три RGB значения....по 12-16 бит. Не меньше, но и не больше.
В цифровиках там на каждый пиксель в расчет идут 9 !!! ячеек RRRGGGGBB (к примеру так) и с каждой ячейки имеем по 12 бит. Алгоритм преобразования сложный (могу привести ссылку), но получаемый ДД не факт, что будет только меньше или только больше.
Вот и все.

Дело не в размере пространства. Сделайте простой опыт: возьмите для простоты градиент из одного цвета в другой, замерьте пипеткой sample color в 4 точках и размножьте вашу картинку(duplicate) на две. Одной присвойте (assign) пространство sRGB, а другой Wide Gamut RGB.
А зачем мне это делать?
Присвоение профиля имеет смысл, если я не уверен в получаемых данных и не знаю в каком они пространстве находятся (или им подходит).
Я уже получаю на выходе конвертора RAW изображение в нужном мне пространстве (и наиболее подходящем - Wide GamutRGB или ProPhotoRGB). И присваивать ему какой-то другой профиль - не вижу смысла (коль у меня уже оптимизированы данные).

Переведите в Lab и сравните значения L в samples этих двух файлов - они будут отличаться (хотя и не на много)!
Чсное дело....ведь я назначил одним и тем же значениям в исходном файле разные профили. А это тоже самое, что назначить разные инструкции для пересчета одних и тех же данных в Lab.
И результат на лицо - разные значения Lab.
Речь сейчас не о назначении профиля!

Значит, если Вы можете напрямую из RAW файлов разных камер перевести изображение в Lab, то дальше их L можно сравнивать. Если Вам сначала надо перевести RAW в RGB, то придется выбрать какое-то конкретное пространство.
Не совсем так....
RAW - это как кирпичики для того, что бы сложить дом (изображение). И я из них могу сложить и так, и так и сяк....
Если мне выделят маленький участок (пространство типа sRGB), то мне ничего не останется делать, как обтесывать углы и жаться, что бы в него вписать все многообразие, которое я в потенциале мог иметь.
Конвертор из RAW-RGB мне предлагает на выбор - в каком пространстве мне сложить изображение....причем уже с надлежащей укладкой (точки белого, гаммы и т.п. всего, что описывает профиль). Т.е. на выходе я получаю уже готовое , оптимизированное изображение в том или ином пространсте - sRGB, Wide Gamut RGB, Adobe RGB, ProPhotoRGB....
Понятно, что в том же sRGB я смогу передать всего на всего столько, сколько мне позволит это пространство. Не больше....Все, что выходит за него просто потеряется (как потеряется - другой вопрос). И присваивать мне ничего не надо.
А вот конвертировать из одного пространства в другое - да...это понадобиться. Мне так или иначе придется приводить все к нужному результату (для веба или для печати)...Но это уже другая история.

В идеале производители камер должны давать профили RGB пространства, описывающее гамут(ы) их камеры. Сомневаюсь, что все они это делают.
Правильно, что сомневаитесь....
Как правило камеры уже выплевывают готовый файл в sRGB. Ну так считали многие производители, что мол этого якобы достаточно для потребитяля.
Но благо есть профессионалы, которые их в этом поправили.
И тут мир пощел разными путями....
Одни стали делать профили и пользоваться тем самым банальным присвоением профиля....Опять же это работало только в том случае, если брать стандартный sRGB файл (для фиксированного баланса белого) и уже ему присваивать..
Собственно это решало часть проблем.
Но все равно это было не больше того, что позволит sRGB.
Другие стали эксплуатировать "умные" конверторы из RAW уже в нужный результат....(пространство).
Но вот назадача вышла....Оказывается описать одним профилем цифровые камеры не получилось....Все просто - снимать можно в самых разных условиях и с самой разной температурой источника света. Если в сканерах создать один профиль просто (т.к. там один источник и одна температура), то в цифровых фотоаппаратах это не реально. Опять же эта ветка пути раздвоилась - одни пошли на то, что бы давать множество разных профилей (как это сделано в той же камере Canon 1D, 1Ds...) на разные случаи жизни - портрет с его теплыми тонами, пейзаж, закат...и т.п. А другая ветка - стали просто конвертить в самое широкое пространство - типа Wide Gamut RGB, ProPhotoRGB....заведому зная, что уж в них они точно впишуться по тому охвату, которые выдает камера.


Значит, Вам придется выбирать те пространства, которые есть в ФШ и присваивать их сравниваемым снимкам, внося при этом неизбежную ошибку: например, предложенный Вами ProPhoto RGB будет лучше описывать гамут одних камер и хуже - других.
Вот тут крайне не согласен...
1. Я не присваиваю.....И конвертор не присваивает...Конвертор уже сам переводит (складывает или как хотите) данные RAW в нужное пространство. Это скорее перевод пространства камеры и ее эдаких данных RAW в нужное пространство, но никак не присвоение.
2. Да...я буду выбирать из того, что мне предложит конвертор или фотошоп (уже есть его плагин-конвертор RAW , вышедший недавно, который поддерживает многие камеры и их RAW).
Но как я уже сказал выше - сделать один профиль для камеры на все случаи съемки - это бред сумашедшего. А вот выбрать заведомо большее и быть уверенным, что в него уж точно вместятся все оттенки - это можно. Что собственно и сделали в последней версии фотошопа 7.0.1 (с его этим новым конвертором).
Есть независимые конверторы, которые так же выдают уже в нужном пространстве. И присваивать ему ничего не надо.
По умолчанию же многие камеры выдают только в sRGB (причем плохо уложенные в него данные) или вообще без обозначения такового....


если под переходом понимается конвертация (Convert), то такая операция меняет RGB значения файла, стараясь, чтобы изображение, по возможности, не менялось - L тогда тоже останется неизменным.
Что я и хотел услышать….

Но когда мы открываем новое RGB изображение в ФШ, цветовое пространство которого нам неизвестно (некий RGB), этому изображению ВСЕГДА присваивается (Assign) какое-то цветовое пространство.
Ой неееее…Чур меня , чур….подальше от такого:)
Как то Бог миловал от такого…..

Нелинейность L связана не с гаммой, а с нелинейностью нашего зрения: при одном и том же увеличении излучаемой энергии мы увидим РАЗЛИЧНОЕ изменение яркости в зависимости от того, например, увеличилась ли энергетическая яркость красного или синего. Соответственно, L тоже изменится по-разному, поскольку она описывает не энергетические характеристики спектра, а наше восприятие этого спектра.
Это понятно……Я же пытаюсь разобраться (и во многом благодаря присутствующем понимание имело место быть) как увязать (вернее с чем в фотошопе увязать) то , что может измерять экспосистема камеры или другого прибора и те или иные значения фотошопа.


Трудно сказать, какое влияние это все может оказать на сравнение разных камер.
Но пленки же как-то сравнивают по своей фотошироте….:)

Но если есть возможность еще до ФШ перевести RAW в усредненный каким-то разумным способом одноканальный сигнал - это снимет многие "но".
Ну это без проблем…..
Тот же SharpRaw это делает легко для многих камер (даже топовых – Canon 1Ds, 10D, Fuji S2, D100….и т.п.).

Про использование Lab читайте следующий топик: http://forum.photoshop.ru/showthread.php?postid=9220#post9220
Спасибо…почитал….кое-что вынес для себя полезное.
 

control-z

Участник
Сообщения
42
Реакции
0
Спасибо, SVAM, очень интересно. У меня Sony 717, которая работает именно по упомянутому Вами sRGB алгоритму. Про RAW, как Вы уже догадались, я мало что знаю. Один момент мне совершенно непонятен. Вы пишете:
"...одни пошли на то, что бы давать множество разных профилей (как это сделано в той же камере Canon 1D, 1Ds...) на разные случаи жизни - портрет с его теплыми тонами, пейзаж, закат...и т.п. А другая ветка - стали просто конвертить в самое широкое пространство - типа Wide Gamut RGB, ProPhotoRGB....заведому зная, что уж в них они точно впишуться по тому охвату, которые выдает камера..."
Вопрос: на чем основывается конвертер, переводя RAW в Wide Gamut RGB? То есть, правильно ли я понимаю, что в первом случае (Canon 1D...) вы говорите программе-конвертеру: это портрет или это пейзаж, и программа выбирает соответствующий профиль? Но ведь и во втором случае конвертеру тоже надо сообщить, что это был портрет, нет?
 

SVAM

Участник
Топикстартер
Сообщения
18
Реакции
0
Re..

Автор оригинала control-z
Один момент мне совершенно непонятен. Вы пишете:
"...одни пошли на то, что бы давать множество разных профилей (как это сделано в той же камере Canon 1D, 1Ds...) на разные случаи жизни - портрет с его теплыми тонами, пейзаж, закат...и т.п. А другая ветка - стали просто конвертить в самое широкое пространство - типа Wide Gamut RGB, ProPhotoRGB....заведому зная, что уж в них они точно впишуться по тому охвату, которые выдает камера..."
Вопрос: на чем основывается конвертер, переводя RAW в Wide Gamut RGB? То есть, правильно ли я понимаю, что в первом случае (Canon 1D...) вы говорите программе-конвертеру: это портрет или это пейзаж, и программа выбирает соответствующий профиль? Но ведь и во втором случае конвертеру тоже надо сообщить, что это был портрет, нет?
Давайте по-порядку.

В первом случае камера (или родной, традиционный конвертор) выдает уже готовый файл JPG или TIFF в пространстве sRGB (или близком ему, но без указания). И далее предлагается (многочисленными разработчиками) просто присвоить тот или иной профиль. Не конвертнуть одно пространство в другое, а именно присвоить!!! Собственно конвертация тут ничего и не прибавит.
А при таком присвоении происходит следующее - смещается баланс цветов. Понятно, что в портретных съемках в большинстве случаев преобладают теплые, телесные тона. Вновь присвоенный профиль говорит, что значения в файле (которые мы имеем от камеры) надо трактовать так-то....с учетом портретной съемки. Визуально же это выглядит так, что цвета правда смещаются в нужном направлении. Аналогично , к примеру и с пейзажным профилем....
А вот после такого присвоения уже можно спокойно конвертировать из данного профиля в другой...традиционный sRGB или нужный принтерный.
И мы получаем адекватную цветопередачу.
ИМХО , это создано для того, что бы упростить ручную работу - меньше выводить цвета средствами фотошопа. При этом ничего в плане дополнительных уровней не добавляется.
Такое можно проделывать с любой цифровой камерой...вернее с ее стандартными JPG, TIFF. Именно так и поступают многие и в некоторой степени (если не ошибаюсь) последняя версия Адоба Фотошопа в себе имеет целый ряд встроенных профилей для камер Canon 1D, 1Ds...профилей. В сети же полно других - для Canon D30, D60....Nukon D100 и др...
Обычно стараются брать в качестве основы (исходного) файла - линейный TIFF16. В нем собственно еще не "наводился" баланс цветов...и его проще привести к нужной гамме цветов. При этом понимается - что бы не снимали - все данные в нем изначально линейны. И для них проще создать тот или иной профиль.

Во втором случае.
Это когда Программа-конвертор RAW (хотя бы тот же нововиспеченный плагин от Адоба) берет сырые данные RAW и начинает их выкладывать в некоем определенном или выделенном пространстве.
В RAW нет цвета, нет яркости каждого пикселя...просто есть отдельные составляющие ярокстей отдельных участков спектра - R'G'B'. Причет они геометрически разнесены и это совсем не те данные RGB, которые мы получим в итоге конвертации. R'G'B' можно рассматривать, как отдельные кирпичики, из которых нужно выстроить изображение.
И если я изначально выделю узкое пространство, то конвертор вынужден будет выкладывать изображение в те узкие рамки, которые ему определили.
Выглядит это так - если в большем пространстве те или иные уровни цветов (насыщенности, яркости...) могут существовать , то в узком все определяется границами - и конвертор вынужден будет что-то делать с избыточными уровнями - либо их обрезать (что бывает чаще всего) , либо их ужимать, опять же теряя промежуточные значения. И так и так идут потери уровней. На грамотную укладку, у конверторов пока не хватает мозгов (об этом свидетельствует первый подход).
Если же я выделяю, определяю широкое прстранство, то в данном случае я конвертор не ограничиваю и даю ему возможность получать из RAW все возможные уровни (насыщенности и яркости) и выкладывать в определенное пространство. При этом не возникает потери уровней, и как следствие деталей (что для меня важно). Из-за того, что тут нет потерь - и цветопередача в меньшей степени нуждается в правке. Причем самое интересное в RAW и Адобовском конверторе - то, что там цветовую температуру и баланс цветов можно выставит еще до того, как конвертор начнет формировать из RAW изображение. Опять же - нет потерь в уровнях.

На практике же легко убедится - если взять один и тот же RAW (хотя бы от той же Canon D60)и конвертнуть разным способом - один в sRGB, а второй в ProPhoto RGB (или Wide Gamut RGB).
Далее один и второй перевести в единое простанство - Lab (такой перевод не вносит потерь). И сравнить....
Во втором сучае будут те уровни и цвета, которые отсутствуют в sRGB. Это будет легко увидеть и на гистограмме - гисторамма каналов a,b в случае ProPhoto значительно шире. Так же переданы несколько иначе значения Lightness !!!..И еще интересный момент - в случае ProPhoto шумы получились ниже, чем в первом случае.
Т.е. совершенно по-разному передается динамический диапазон. Во-втором случае он шире.
Много инетерсного и , если смотреть все в каналах RGB.

на чем основывается конвертер, переводя RAW в Wide Gamut RGB?
Есть алгоритмы баеровской интерполяции....они довольно сложные и разные.
Вот описание одного из них:
http://dionis.factor-ts.ru/ts/ccdarray.pdf
Суть такова - если в результате расчетов получено значение, которое не вписывается в то или иное пространство (а пространство можно описать конкретными значениями, границами), то с этим значением что-то надо делать - либо выкидывать....либо как-то впихивать в имеющиеся границы...за счет потерь промежуточных уровней.
Если при расчете получены значения и границы позволяют их отобразить - то эти данные просто отображаются в файле.

Но ведь и во втором случае конвертеру тоже надо сообщить, что это был портрет, нет?
Разница в том, что если данные потеряны в узком пространстве, то их уже не реанимировать. Если перепад уровней потерян, то он стал одним уровнем....это потери деталей.
В первом случае, когда я просто присваиваю профиль потрета - я просто смещаю цветовой баланс , точку белого .
Во втором случае, когда я на стадии сборки конечного TIFF из RAW и в широкое пространство - я делаю тот же самый цветовой сдвиг и точки белого....но при этом не теряю уровни.
 

-=CMYK=-

Забанен
Сообщения
3 320
Реакции
2
Точно, GUEST ввел в топик верный термин - светлота. О светлоте и речь ведь идет, а не о яркости. Хотя, в оригинале и было про яркость монохромного изображения и про то, как ее объективно получить.

Контрол-зед предложил выкинуть тот прибор который имеет хоть сколько-нибудь нелинейную спектральную чувствительность: пусть сначала он найдет такой прибор, который будет иметь датчик хоть сколько-нибудь линейный по спектральной чувствительности. То есть, я понимаю как устроены приборы - они пытаются нивелировать нелинейность сенсора настолько, насколько она изучена, настолько, насколько позволяют им собственные ресурсы. То есть, данные сенсора обсчитыает процессор по вложенной в ППЗУ таблице и внешне все вроде бы выглядит линейно. Вот вам, типа того, и объективные данные.

А таблица та как делается? На основании каких критериев калибруется сенсор?

Утверждение таково: на основании восприятия светлоты цвета человеком.

Фотоматериалы ужасно нелинейны и нативно галоид серебра "видит" только в синей и УФ зоне. Полупроводники жутко нелинейны и фотодиод нативно "видит" в желто-красной и ИК области. Приборы с зарядовой связью (то, что используется в линейках сканеров и матрицах фотокамер) - никакой такой линейностью ко всему спектру не обладают.

И уж подавно ни один природный имэджер не обладает той же самой спектральной чувствительностью что и человеческий глаз в усредненной статистике. Все делается ИСКУССТВЕННО.

Пленки сенсибилизируются к нужным участкам спектра, приборы, камеры и сканеры тоже и еще оборудуются мощным АЦП и процессором, который все обсчитывает так, чтобы оно выглядело в привычных полутонах монохромной яркости для человека.
 

SVAM

Участник
Топикстартер
Сообщения
18
Реакции
0
Автор оригинала -=CMYK=-
Точно, GUEST ввел в топик верный термин - светлота.
Мне сам термин и его трактовка тоже больше нравится:) Хотя....
Вопрос такой - а что по-Вашему фиксирует экспонометр - яроксть или светлоту?
Меня то собственно волнует одно - сколько стопов (по определению фотошироты) я смогу передать на той или иной камере.
Стопы мне отмеряет экспосистема камеры. Они отображаются в данных изображения. Меня инетерсовало - где эти данные ближе всего к данным экспосистемы?!
И насколько я понял в фотошопе каждое отображение - будь то Luminosity или Lightness или greyscale, или B из HSB...формируется из своих соображений, но вполне конкретно (за что я благодарен присутствующим).
Датчик экспонометра усредняет спектр и это тесно увязано с понятием яркости.

О светлоте и речь ведь идет, а не о яркости. Хотя, в оригинале и было про яркость монохромного изображения и про то, как ее объективно получить.
Вообще-то речь шла о той яркости (или светлоте), по которой можно будет измерить фотошироту или динамический диапазон той или иной цифровой камеры.

Контрол-зед предложил выкинуть тот прибор который имеет хоть сколько-нибудь нелинейную спектральную чувствительность: пусть сначала он найдет такой прибор, который будет иметь датчик хоть сколько-нибудь линейный по спектральной чувствительности.
Вообще-то мне кажется, что Вы как-то перевели суть с одного на другой...
Контрол-зед говорил о ПРИБОРЕ...Вы же вдруг заговорили о сенсоре. Оставим сенсор в покое и лучше поговорить о том, что позволяет этот сенсор.
В моем понимании прибор - это совокупность электроники и алгоритмов, а не только сенсор.
И если на выходе ПРИБОР в состоянии выдать линейный сигнал или его числовое выражение в большой степени совпадающее с оригиналом - почему бы не использовать его в качестве такового - для замера?
И мне пока (именно пока, в силу достаточности его точности) все равно как прибор получил эту линейность - методом аналоговым усиления или методом алгоритмического предсказания посредством вычисления из отдельных составляющих (которые перекрываются между собой).
И будь то матрица или функция.....не суть важно.

То есть, я понимаю как устроены приборы - они пытаются нивелировать нелинейность сенсора настолько, насколько она изучена, настолько, насколько позволяют им собственные ресурсы. То есть, данные сенсора обсчитыает процессор по вложенной в ППЗУ таблице и внешне все вроде бы выглядит линейно. Вот вам, типа того, и объективные данные.
Именно так - приборы пытаются нивелировать.....пленка так же...вместе с процессом обработки (проявка, сканирование)..
И если это вписывается в рамки визуального восприятия или отображения, то в чем проблема?
Речь то может пойти и про абсолют, но сейчас ведь не про то....Абсолюта в жизни мало. Есть допустимые рамки погрешности и достаточности.
Скажу проще - пленка обладает некой фотоширотой (или динамическим дапазоном). Это в свою очередь чем-то регламентируется - методиками замера. И это прекрасно вяжется с жизнью.
Вот и все. И мне не нужен абсолют.
Если говорить проще - есть экспозамер с его дискретностью. И я хочу знать сколько стопов мне позволит зафиксировать камера.

А таблица та как делается? На основании каких критериев калибруется сенсор?
Ну что-то я привел по ссылке выше - файл pdf.


Все делается ИСКУССТВЕННО.
Фотография - это тоже искусственно....и она всего лишь копия оригинала:) И чем лучше копия, тем больше восприятие оригинала:)
И если на этой фотографии мне эта самая нелинейная пленка, матрица, камера, сканер...смогли передать тот или иной цвет, то в чем проблема?
Опять в абсолюте?
 
G

GUEST

Гость
Вроде, начинаю понимать вопрос:)
Автор оригинала SVAM
Вопрос такой - а что по-Вашему фиксирует экспонометр - яроксть или светлоту?[/B]
Светлоту.
В одной нашей книге по фотографии встречал терминологию наоборот. Там светлотой называли яркость и наоборот. Не знаю, почему так, но я перевожу Brightness как яркость и Lightness как светлоту.
Меня то собственно волнует одно - сколько стопов (по определению фотошироты) я смогу передать на той или иной камере.
[/B]
Сколько градаций в диапазоне - 255 на каждый канал. Это если RGB. Оно?
Только уже не передать, а зафиксировать.
german
 

SVAM

Участник
Топикстартер
Сообщения
18
Реакции
0
Автор оригинала GUEST

В одной нашей книге по фотографии встречал терминологию наоборот. Там светлотой называли яркость и наоборот. Не знаю, почему так, но я перевожу Brightness как яркость и Lightness как светлоту.

Перевожу и я именно так же....
Вот только трактование яркости похоже, что у каждого свое:)
В Фотошопе же каждое из значений - Lightness, Luminosity, Brightness....считается по-своему и они не равны между собой. Разные пропорции отдельно взятых каналов RGB.

Сколько градаций в диапазоне - 255 на каждый канал. Это если RGB. Оно?
Не совсем.
1. Стоп - изменение яркости в 2 раза. И следовательно цепочка - 2-4-8-16-32-64-128-256 (при условии, что значения в файле линейны). Но это всего на всего представление 8 бит. Цифровые камеры, как упомянали тут, могут оцифровывать и в 12 бит.
2. Беда фотошопа в том, что он хоть и работает с 16 битами, но показать их (и даже 12 бит в виде 4096 уровней) в виде циферек не может:( Хотя среднее значение и среднеквадратичное отклонение может давать в дясятых долях...Хоть какой , но компромисс.
Теперь про RGB - с одной стороны это именно так...Но это только для отдельновзятого канала.
И как уже тут говорилось - RGB - это композитная яркость, котороая несет информацию о яроксти И о цвете...причем не только по узкой составляющей спектра, а затрагивает и покрывает соседнии участки спектра.
Т.е. нет определенной границы...
Вот наглядный пример:
2_1.jpg


Попробуйте эту картинку втянуть в фотошоп в том профиле, в котором она есть. Виден рисунок и детали.. и далее:
1. конвертнуть ее в Greyscale (ч/б)....И как - что осталось? Один уровень на весь кадр - 128 !!! И все! Никаких деталей.
2. Перевсети в Lab и глянуть канал Lightness....Так же - никаких деталей - все серое поле...светлота на всем кадре одна.
Вот именно поэтому мне не нравится замер в композитной яркости - каналы RGB могут менятся от ...и до....а так называемая яркость останется одна и таже. И всплывает вопрос - что мы измеряли в RGB?
 

control-z

Участник
Сообщения
42
Реакции
0
SVAM, я, кажется, понял, спасибо. Первый случай (присвоение профилей изображениям, уже обработанным в камере) - описывает жизнь нас, грешников, которым производители не доверяют ответственного шага трактовки изображений. Во втором случае конвертер, переводя в широкий гамут, руководствуется единственно принципом "чтобы все уместилось и ничего не потерялось", и никакой трактовки! После чего мы можем поставить окнчательную задачу: трактовать как портрет, или пейзаж, или... при этом изображение в исходном широком гамуте подвергается нелинейной коррекции в соответствии с некими профилями. Все хорошо.
Короче говоря, принципиальная сложность в сравнении цифровых камер заключается в том, что большинство мыльниц, и даже полу-мыльниц, выдает на гора уже преобразованное изображение, причем алгоритм преобразования не только неизвестен, но еще и меняется в зависимости от условий съемки. Если мы ограничиваем задачу анализом только профессиональной аппаратуры, умеющей записывать сырые данные, этой проблемы не возникает, но остается проблема несоответствия ФШ нашей, сугубо измерительной, задаче.
 

-=CMYK=-

Забанен
Сообщения
3 320
Реакции
2
Вопрос такой - а что по-Вашему фиксирует экспонометр - яроксть или светлоту? Он регистрирует ЭДС. Которая возникает при фотоэлектрическом эффекте, профански выражаясь при конвертации фотонов в электроны. В целом прибор способен регистрировать яркость сцены (поскольку яркость объективна) - интегральную или локальную. Светлота же критерий субъективный. Светлоту одного и тот же цвета разные люди способны оценивать по-разному. Более того, поскольку светлота - ощущение, то его легко обмануть как в известном примере Edvard H. Adelson'а с клетками и тенью от цилиндра.

Беда фотошопа в том, что он хоть и работает с 16 битами, но показать их (и даже 12 бит в виде 4096 уровней) в виде циферек не может: - Не понял юмора, а инфо что показывает?

Что касается того, как там снимаются данные с матрицы - то вам-то какое дело как это делается? Не могу взять в толк.
 

SVAM

Участник
Топикстартер
Сообщения
18
Реакции
0
ре

Автор оригинала -=CMYK=-
В целом прибор способен регистрировать яркость сцены (поскольку яркость объективна) -
Вот ее я и пытался найти в отражении фотошопа...вернее в его всех Luminosity, Lightness и т.п.

Светлота же критерий субъективный. Светлоту одного и тот же цвета разные люди способны оценивать по-разному.
Впрочем как и сам фотошоп - трактует ее по-своему....:)


> Беда фотошопа в том, что он хоть и работает с
> 16 битами, но показать их (и даже 12 бит в виде
> 4096 уровней) в виде циферек не может

- Не понял юмора, а инфо что показывает?

12 бит - это 4096 уровней !!!
Но фотошоп может работать (именно работать) либо с 8 битным представлением, либо с 16 битным.
16 бит - это 65536 уровней !!!!!
Найти в фотошопе их выражение в виде циферек мне не удалось...как в окне инфо, так и в другом любом месте.
Если же в изображении всего 12 бит полезных, то оставшиеся (до 16) заполняются нулями (пустыми уровнями).
Не знаю по каким причинам решил Адоба не показывать уровни в их реальном выражении - не знаю, но мне этого крайне не хватает.
Теперь про то, что в окошке "инфо".
Там отображаются уровни 0-255 и все!!! Причем не те реальные, что в файле, а некие фотошоповские у.е. Да, эти у.е. пропорциоанльны оригинальным уровням.....но все равно много промежуточной информации не отображается в "инфо".
Если же изображение 8-ми битное, то эти 0-255 уровней идут один в один - все как положено.
Вот и весь юмор:)

Что касается того, как там снимаются данные с матрицы - то вам-то какое дело как это делается? Не могу взять в толк.
По большому счету мне это тоже для работы не нужно. А вот для выбора камеры (надеюсь, что не последний раз выбираю) - это может сыграть роль.
Уже сейчас легко можно убедиться, что используя разную структуру матрицы и съем информации с нее можно добиться разных качественных результатов - как по интерполяции, так и по обработке.
Тут мало информации не бывает:)
 

-=CMYK=-

Забанен
Сообщения
3 320
Реакции
2
Фотошоп имеет картинки сразу в цифре, а не в виде электрических сигналов или там почернения фотопленки. Поэтому яркость для него параметр данный. Если вам надо управлять преобразованием в greyscale - используйте Assing Color Profile. Там можно выбрать, кое-что, в том числе и для greyscale. Конечно, для какого-нибудь древного ортохрома, или там, древнего свинцового тивикона, вы там не найдете профайлов, но вы ведь и знать не знаете как выглядели черно-белые изображения полученные с помощью этой фотопленки и этой телекамеры.

Для выбора цифровой камеры можно идти сюда и выбирать: www.dpreview.com Там и про то как чего на матрице есть, немного.
 

SVAM

Участник
Топикстартер
Сообщения
18
Реакции
0
Автор оригинала -=CMYK=-
Фотошоп имеет картинки сразу в цифре, а не в виде электрических сигналов или там почернения фотопленки.
Понятно, что он имеет картинку в цифре, а не в сигнале. Но ведь цифра - это не что иное, как цифровое выражение аналогового сигнала.
Почернение пленки - это тоже ....так называемая плотность, которая легко переводиться в цифры (что собственно и делает сканер).

Если вам надо управлять преобразованием в greyscale - используйте Assing Color Profile. Там можно выбрать, кое-что, в том числе и для greyscale. Конечно, для какого-нибудь древного ортохрома, или там, древнего свинцового тивикона, вы там не найдете профайлов, но вы ведь и знать не знаете как выглядели черно-белые изображения полученные с помощью этой фотопленки и этой телекамеры.
Ну уж только не Assing Color Profile.
Если мне надо перевести в ч/б, то я буду пользоваться плагином B/W Pro от www.theimagingfactory.com
Или на крайний случай в фотошопе "смещение каналов" в режиме монохром.

Для выбора цифровой камеры можно идти сюда и выбирать: www.dpreview.com Там и про то как чего на матрице есть, немного.
Был я там и с автором (Филом) переписывался..
Если уже и ходить, то к разработчикам матриц.
 

-=CMYK=-

Забанен
Сообщения
3 320
Реакции
2
Но ведь цифра - это не что иное, как цифровое выражение аналогового сигнала. Перекликается: Если уже и ходить, то к разработчикам матриц. Понятно. Понты. А кому нужны чужие понты?

Цифровое выражение аналогового сигнала не является его тождеством. Прежде чем попасть в цифру, аналоговый сигнал сворачивается, то есть, компрессируется, корректируется (так чтобы картинка была красивше чем была на самом деле), после оцифровки снова фильтруется и таблично обсчитывается. При воспроизведение происходит обратный процесс. А откуда тогда берутся недостающие данные для разворачивания и декомпрессии? Из интерполяции.

Надеюсь что с понтами покончено. Поскольку уверен а-приори, что понять как работает прибор зарядовой связи вы не захотите.
 

SVAM

Участник
Топикстартер
Сообщения
18
Реакции
0
Re

Автор оригинала -=CMYK=-
Цифровое выражение аналогового сигнала не является его тождеством.
Такого цифрового выражения достаточно, что бы с некой погрешностью восстановить исходный сигнал.
От чего зависит погрешность - надеюсь не будем сюда тянуть теорему Котельникова:)

Прежде чем попасть в цифру, аналоговый сигнал сворачивается, то есть, компрессируется, корректируется
Ничего там не сворачивается и не компрессируется (во всяком случае в большинстве цифровых камер и сканерах).
Есть матрица с линейной передачей сигнала. За ней АЦП не менее линейный. Вот тут уже и цифра , опять линейная....И именно она пишется в тот самый RAW. И эти данные (данные в цифровом выражении на каждый пиксель) никто не компрессирует и не сворачивает и т.п.

Вот с RAW уже встроенный софт камеры или те или иные конверторы могут конечно и компрессировать и давать гамму и растягивать уровни и т.п. что бы сделать картинку красивой ....Но ведь не про это сейчас речь.
Я ведь писал, что мне не составляет труда взять эти данные RAW без всякой компрессии, гаммы, интерполяции...в том линейном виде, в котором они пришли с матрицы.

Поскольку уверен а-приори, что понять как работает прибор зарядовой связи вы не захотите.
Понимать не собираюсь поскольку я это уже знаю.
 

-=CMYK=-

Забанен
Сообщения
3 320
Реакции
2
Есть матрица с линейной передачей сигнала. Прям вот так вот и есть с линейной спектральной чувствительностью в заданном диапазоне от шума до пересветки? Назовите ее. Сейчас-же!
 
Статус
Закрыто для дальнейших ответов.