Разрядность мониторов и регулировка цветовой температуры.

  • Автор темы Автор темы lygun
  • Дата начала Дата начала
Статус
Закрыто для дальнейших ответов.
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Samsonov
OK, я, со своей стороны, взял с собой домой другую (послабже) видеокарту от nVIDIA - проверю NEC 2690WUXi2 с ней. Кроме того, на следующей неделе проверю работу разных по возможностям видеокарт на мониторе HP LP2475w с S-IPS.

P.S. по поводу приведения к 8 битовому значению Вы меня не убедили. Хотя бы потому, что у меня на руках не только мои измерения, но и других людей (в том числе и idontbite из нашего форума), которые ясно показывают, что нет ничего подобного Вашим словам типа "значения 0x0080 и 0x0081 соответствуют 0x00 и 0x01".
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

probep сказал(а):
Samsonov
OK, я, со своей стороны, взял с собой домой другую (послабже) видеокарту от nVIDIA - проверю NEC 2690WUXi2 с ней. Кроме того, на следующей неделе проверю работу разных по возможностям видеокарт на мониторе HP LP2475w с S-IPS.

P.S. по поводу приведения к 8 битовому значению Вы меня не убедили. Хотя бы потому, что у меня на руках не только мои измерения, но и других людей (в том числе и idontbite из нашего форума), которые ясно показывают, что нет ничего подобного Вашим словам типа "значения 0x0080 и 0x0081 соответствуют 0x00 и 0x01".
кстати, у меня i1d2+PM5+HP LP2065+GeForce6150, а у Вас Spyder3+SVII+2690WUXi2+RadeonHD3850
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

idontbite сказал(а):
кстати, у меня i1d2+PM5+HP LP2065+GeForce6150, а у Вас Spyder3+SVII+2690WUXi2+RadeonHD3850
Нет, у меня ещё и i1Pro+PM5+... и i1Pro+SVII+... и i1Pro+KeyWizard... и ColorMunki Photo+SVII... Пробовал все варианты.
Но с колориметром меньше мороки.
Но обязательно проверю и другие комбинации видеокарта-дисплей.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Привожу выдержку из Вашего поста на хоботе:
"При программной калибровке (т.е. если бы NEC не позволял писать в LUT монитора) с помощью софта i1 Match v3.6.2 потери градаций цвета составили:
- на красном цвете - 16 градаций
- на зелёном цвете - 25 градаций
- на синем цвете - 14 градаций
-- в итоге общие потери комбинаций RGB ("цветов") составили 3360736, что составляет 20% от общего числа."


Что-то не пойму, что нам дают 10-bit в видеокарте и по DVI? Градации то все равно теряются.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

idontbite сказал(а):
Привожу выдержку из Вашего поста на хоботе:
"При программной калибровке (т.е. если бы NEC не позволял писать в LUT монитора) с помощью софта i1 Match v3.6.2 потери градаций цвета составили:
- на красном цвете - 16 градаций
- на зелёном цвете - 25 градаций
- на синем цвете - 14 градаций
-- в итоге общие потери комбинаций RGB ("цветов") составили 3360736, что составляет 20% от общего числа."


Что-то не пойму, что нам дают 10-bit в видеокарте и по DVI? Градации то все равно теряются.
Одну минуту. То что Вы процитировали - это я посчитал (но не измерял приборами) по общепринятой методике определения количества потерянных градаций в LUT видеокарте при 8 битном канале цвета, выходящим из видеокарты. Как это делается уже писали в этой ветке:
http://forum.rudtp.ru/showpost.php?p=454061&postcount=47
http://forum.rudtp.ru/showpost.php?p=454072&postcount=48

В последних же постах я писал про то, что в реальности и с помощью инструментов (колориметр и спектрофотометры) для набора NEC 2690WUXi2+ATI 3850 при single link DVI потерь градаций при калибровке LUT видеокарты не смог зафиксировать. Поскольку, по моим измерениям и после проверок оказалось, что видеокарта+монитор позволяют передавать хоть и всего 256 градаций, но с 10 битовой точностью.
Ещё раз почитайте пост
http://forum.rudtp.ru/showpost.php?p=454849&postcount=69
Кстати, удалось зафиксировать с помощью колориметра многочисленные потери градаций на "обычном" HP LP2475w, подключённом к непомню какой видеокарте (во всяком случае видеокарта была одна из тривиальных).
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Всё-таки, для наглядности я приведу выдержки из результатов измерений.

1."Обычная" конфигурация. Монитор HP LP2065 и видеокарта GeForce6150. В таблице приведены выходные значения LUT монитора (с шагом в 11 старших бит) и замеренная яркость cd/m2. Результат представил idontbite
0xC700 60.5
0xC710 60.49
0xC720 60.48
0xC730 60.49
0xC740 60.47
0xC750 60.48
0xC760 60.48
0xC770 60.48
0xC780 60.47

2."Странная" конфигурация. Монитор NEC 2690WUXi2 и видеокарта ATI 3850 AGP. В таблице приведены выходные значения LUT монитора (с шагом в 11 старших бит) и замеренная яркость cd/m2 (яркость была выставлена, разумеется, другая, чем в примере №1).
0xC700 56.2
0xC710 56.2
0xC720 56.37
0xC730 56.38
0xC740 56.55
0xC750 56.54
0xC760 56.72
0xC770 56.71
0xC780 56.87

В примере №2 явно прослеживается тенденция заметного (и не связанного с погрешностью колориметра) увеличения яркости при увеличении 10 бита (со стороны старших битов). На одинадцатый бит колориметр не реагирует.

Как по другому объяснить, я не знаю. Повторялись эксперименты множество раз. Стеснялся их публиковать, поскольку они действительно странные и как бы идут в разрез с общепринятой точкой зрения.
Хотя, конечно, не исключено, что где-то у меня закралась фатальная ошибка.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Исправленный вариант с примерами (извините, в начальном варианте ошибся с переводов в шестнадцатиричный формат)

Всё-таки, для наглядности я приведу выдержки из результатов измерений.

1."Обычная" конфигурация. Монитор HP LP2065 и видеокарта GeForce6150. В таблице приведены выходные значения LUT монитора (с шагом в 12 старших бит) и замеренная яркость cd/m2. Результат представил idontbite
0xC700 60.5
0xC710 60.49
0xC720 60.48
0xC730 60.49
0xC740 60.47
0xC750 60.48
0xC760 60.48
0xC770 60.48
0xC780 60.47

2."Странная" конфигурация. Монитор NEC 2690WUXi2 и видеокарта ATI 3850 AGP. В таблице приведены выходные значения LUT монитора (с шагом в 11 старших бит) и замеренная яркость cd/m2 (яркость была выставлена, разумеется, другая, чем в примере №1).
0xC700 56.2
0xC720 56.2
0xC740 56.37
0xC760 56.38
0xC780 56.55
0xC7A0 56.54
0xC7C0 56.72
0xC7E0 56.71
0xC800 56.87

В примере №2 явно прослеживается тенденция заметного (и не связанного с погрешностью колориметра) увеличения яркости при увеличении 10 бита (со стороны старших битов). На одинадцатый бит колориметр не реагирует.

Как по другому объяснить, я не знаю. Повторялись эксперименты множество раз. Стеснялся их публиковать, поскольку они действительно странные и как бы идут в разрез с общепринятой точкой зрения.
Хотя, конечно, не исключено, что где-то у меня закралась фатальная ошибка.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

probep сказал(а):
Одну минуту. То что Вы процитировали - это я посчитал (но не измерял приборами) по общепринятой методике определения количества потерянных градаций в LUT видеокарте при 8 битном канале цвета, выходящим из видеокарты. Как это делается уже писали в этой ветке:
http://forum.rudtp.ru/showpost.php?p=454061&postcount=47
http://forum.rudtp.ru/showpost.php?p=454072&postcount=48

В последних же постах я писал про то, что в реальности и с помощью инструментов (колориметр и спектрофотометры) для набора NEC 2690WUXi2+ATI 3850 при single link DVI потерь градаций при калибровке LUT видеокарты не смог зафиксировать. Поскольку, по моим измерениям и после проверок оказалось, что видеокарта+монитор позволяют передавать хоть и всего 256 градаций, но с 10 битовой точностью.
Ещё раз почитайте пост
http://forum.rudtp.ru/showpost.php?p=454849&postcount=69
Кстати, удалось зафиксировать с помощью колориметра многочисленные потери градаций на "обычном" HP LP2475w, подключённом к непомню какой видеокарте (во всяком случае видеокарта была одна из тривиальных).
Если для калибровки вашего монитора на радеоне 3850 использовать i1 Match
http://forum.rudtp.ru/showpost.php?p=454061&postcount=47
градации ведь теряются?
Тогда, в случае использования программ, которые позволяют калибровать лишь LUT видеокарты, например i1 Match, какая нам польза от того, что "видеокарта+монитор позволяют передавать хоть и всего 256 градаций, но с 10 битовой точностью"?
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Выложу таки файлы, на которые ссылается probep
замеры проводились при интенсивности 160cd
 

Вложения

  • 1-7.zip
    1-7.zip
    5.9 КБ · Просм.: 396
Ответ: Разрядность мониторов и регулировка цветовой температуры.

idontbite сказал(а):
Если для калибровки вашего монитора на радеоне 3850 использовать i1 Match
http://forum.rudtp.ru/showpost.php?p=454061&postcount=47
градации ведь теряются?
Тогда, в случае использования программ, которые позволяют калибровать лишь LUT видеокарты, например i1 Match, какая нам польза от того, что "видеокарта+монитор позволяют передавать хоть и всего 256 градаций, но с 10 битовой точностью"?
Не теряются. Ещё раз говорю - по результатом измерений ничего (почти ничего) не теряется в моей конфигурации. И без разницы, какой программой проводилась калибровка LUT видеокарты.
Прилагаю результаты измерений для разных гамма для одного из экспериментов. Места, где возможны потери градаций выделены жирным шрифтом. Другие повторяющиеся значения, как показали уточняющие измерения, не являются на самом деле потерянными градациями. Если интересно, могу рассказать, как это удалось доказать.
 

Вложения

Ответ: Разрядность мониторов и регулировка цветовой температуры.

Так, заменил видеокарту на nVIDIA GeForce FX5200. И сразу стало как у всех: появились градации и всё такое. 8 бит есть 8 бит.
Так что практическое отсутствие градаций при программной калибровке видеокарты ATI 3850 объясняется не наворотами NEC 2690WUXi2, а наворотами самой видеокарты...
Впрочем, может быть и навороты монитора тоже сказываются: не пойму как монитор обрабатывает пресловутую 10 битовую точность...
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

А если заменить не видеокарту, а монитор?
Проверить связку HP LP2475w(другой монитор)+ATI 3850?
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

idontbite сказал(а):
А если заменить не видеокарту, а монитор?
Проверить связку HP LP2475w(другой монитор)+ATI 3850?
Попробую на следующей неделе что-нибудь придумать. Только надо ещё сначала найти комп, куда можно воткнуть AGP 8x...
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

probep сказал(а):
Не теряются. Ещё раз говорю - по результатом измерений ничего (почти ничего) не теряется в моей конфигурации. И без разницы, какой программой проводилась калибровка LUT видеокарты.
Интересно было бы потестить с ATI 3800 Series какой-нибудь другой монитор (HP, Dell, etc.). Если не будет потерь градаций, тогда задумаюсь о покупке ATI 3800 Series или чего-нибудь похожего :-)
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Посмотрел спеки, поддержка 30-bit
есть у всех видеокарт серии HD, даже у младшей ATI Radeon™ HD 2400 Series
Two integrated DVI display outputs
Primary supports 18-, 24-, and 30-bit digital displays at all resolutions up to 1920x1200 (single-link DVI) or 2560x1600 (dual-link DVI)
Secondary supports 18-, 24-, and 30-bit digital displays at all resolutions up to 1920x1200 (single-link DVI only)


http://ati.amd.com/products/Radeonhd2400/specs.html
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.


Не по теме:
Топик порядочно запутался с этими двумя новыми вопросами, поднятыми probep. Так прямо сразу и не поймёшь, в каком постинге о чём речь: где о программировании LUT видеокарты посредством 16-битных значений, а где — о 10-битном интерфейсе между видеокартой и монитором.


Вчера таки проверил, как же на самом деле 16-битные значения, подаваемые на вход функции SetDeviceGammaRamp, преобразуются в 8-битные для загрузки в LUT видеокарты, — делятся ли они на 256 путём отбрасывания младших битов, или всё же на 257, по-универсальному. Эксперимент с многими градациями в разных сочетаниях показал, что действительно, увы, [HIGHLIGHT]имеет место тупой сдвиг вправо на 8 бит[/HIGHLIGHT], как и утверждал probep.

Я поначалу хотел перепроверить на видеокарте другого типа, — а вдруг у ATi и nVidia драйверы ведут себя по-разному, — но наткнулся на топик по OpenICC, где небезызвестный Graeme Gill излагает свои наблюдения о LUT-технологиях в разных системах, а ему по поводу неработы SetDeviceGammaRamp под Windows NT 4.0 указывают на наличие ещё одной функции: она классифицируется скорее как средство доступа к драйверу, нежели как высокоуровневый сервис для клиентских приложений, и называется DrvIcmSetDeviceGammaRamp.

Сама по себе функция ничем вроде не примечательна, и весьма напоминает обычную SetDeviceGammaRamp, только лишённую простого указания на номер целевого экрана. Однако в её описании есть интересные слова.
Each value is described using 16-bit precision. If the hardware has fewer bits of precision, it [HIGHLIGHT]should downshift and use the most significant bits, without rounding[/HIGHLIGHT].
В комментариях к обычным SetDeviceGammaRamp и GetDeviceGammaRamp присутствует только расплывчатая формулировка про «most significant bits», что и порождает путаницу.


Ну что ж, браво, Microsoft! Как всегда, отчебучили. Видимо, у них там проектированием системы занимались люди с таким же «ассемблерным» сознанием. Предусмотрели 16-битовые значения, но забыли подумать головой о том, как же в реальности их можно будет использовать. Или, может, они рассчитывали, что загрузчик LUT (который они по неведомой причине всё равно не собирались писать самостоятельно) будет каким-то чудом оперативно определять, какой разрядности сейчас связь между видеокартой и монитором (она не обязана совпадать с глубиной цвета рабочего стола), и динамически масштабировать значения из профиля под текущий режим.

Это из той же оперы, что и общая глубина цвета. Я уже говорил, что даже в Windows XP (а может, ещё и в 2000) вполне возможно создавать растры с глубиной цвета до 10 бит на канал, а монохромные — до 32 бит. Однако всё те же функции Get/SetDeviceGammaRamp готовы работать только с массивами из 256 значений на канал, даже в 5/6-битном режиме; не удивлюсь, если где-нибудь существует инструкция, что выборка 32-х элементов из такого массива должна вестись с шагом 8 ступеней, а не 255/31.


Какие отсюда следуют выводы?
  • Калибровщики типа Spyder, случайно или осознанно, действуют как положено.
  • Другие программы, в том числе Gretag/X-Rite, работают «неправильно» — не так, как задумали «ассемблерщики» из Microsoft.
Понятное дело, что Microsoft ничего исправлять не будет; во всяком случае, не в «классических» интерфейсах — может, разве только в новой WCS, да и то не раньше, чем многобитные продукты станут привычной вещью. Значит, остаётся только подавать петицию в X-Rite, чтобы подстроились под глубинный замысел редмондовских чудиков. Думаю, они должны среагировать на то, что их по сути правильные действия в реальности приводят к худшему результату.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Samsonov сказал(а):

Не по теме:
Топик порядочно запутался с этими двумя новыми вопросами, поднятыми probep. Так прямо сразу и не поймёшь, в каком постинге о чём речь: где о программировании LUT видеокарты посредством 16-битных значений, а где — о 10-битном интерфейсе между видеокартой и монитором.
Я тоже запутался. Какие значения грузятся в лут видеокарты probep, 8-битные? Тогда почему нет потерь градаций?
Или же все-таки в лут видеокарты probep грузятся 10-битные значения?
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

probep сказал(а):
Кстати, удалось зафиксировать с помощью колориметра многочисленные потери градаций на "обычном" HP LP2475w, подключённом к непомню какой видеокарте (во всяком случае видеокарта была одна из тривиальных).
А что за видеокарта? Сейчас даже ASUS Radeon HD 2600 PRO с поддержкой 30-bit стоит порядка 35$ и может быть определена как тривиальная.
http://ati.amd.com/products/Radeonhd2600/specs.html
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Коллеги, давайте немного внесем ясность:
1) - Существует утверждение, что связка видеокарты ATI3850>NEC2690 работает через DVI с 10 битным представлением цвета.
Известно, что видеокарты, уже давно поддерживают 10 битное кодирование цвета, но стандарт DVI изначально не предполагал такой кодировки. Официально, кодирование выше 8 бит было оговорено в стандарте HDMI версии 1.3, от середины 2006 года. В связи с тем, что DVI является по сути частью HDMI, передача данных от видеокарты к монитору в 10 и выше битной кодировке цвета возможно.
Предлагаю сообщения связанные с этим помечать как "10 бит DVI".
2) Существует утверждение, что встроенный LUT видеокарты может иметь разрядность, превышающее 10 бит. Может даже до 16 бит на канал.
Не вижу ничего, что опровергает это утверждение. Предлагаю термин VideoLUT.
 
Ответ: Разрядность мониторов и регулировка цветовой температуры.

Можно выполнять всю настройку на уровне LUT видеоплаты в автоматическом режиме и не париться - как это происходит при калибровке Apple Cinema Display, ноутбуков и некоторых других мониторов.

Никакой разницы где вы обрежете диапазон - в мониторе или в видеокарте - в случае недостаточной его ширины в канале.
 
Статус
Закрыто для дальнейших ответов.