[PS CC-CC2022] Оптимальный размер изображения

Если дело в том, чтобы уменьшить занимаемое место на диске, то проще сжать (причем потерь на порядок меньше чем ресайз из Вашего примера). Файл по ссылке выше сжался в 6 раз. 'hz'
 

Вложения

Последнее редактирование:
  • Спасибо
Реакции: Chiga
Фотошопом -- будет очень долго
Будет очень долго всем. Я бы оставил архив в покое, сделал бы маленьких превьюшек, и обращался бы к нему по мере необходимости.
Если большинство файлов без сжатия, то пожать.
Если дело в месте, то проще сжать (причем потерь на порядок меньше чем ресайз из Вашего примера). Файл по ссылке выше сжался в 6 раз. 'hz'
Опередил )
 
Открываем изображение
1 дублируем
2 понижаем разрешение вдвое (или на сколько-то там процентов)
3 увеличиваем разрешение до исходного (всё бикубиком безо всяких шарпов-размытий)
4 Invert
5 Накладываем на исходное изображение в режиме Normal (50%)
6 Сливаем слои
7 Кривую примерно такого вида
Посмотреть вложение 147151 или даже Посмотреть вложение 147153
8 Уменьшаем до 1*1 пиксела
9 Смотрим насколько отличается от чёрного <- это и есть показатель насколько сильно изменилось изображение
Чем темнее, тем меньше потерь информации произошло.

Повторяем до полного изнеможения или получения приемлемых результатов в 9 в зависимости от 7
Чтото ты совсем мудреное предложил. Топикстартер тут чтото про частотные разложения говорил? Так вот самый простой способ проверить, насколько сильно изменилось качество картинки при ресайзе - тупо сжать ее и посмотреть размер. При сжатии без особых потерь кривая будет идти полого и плавно, как только наступит критическое состояние потери деталей, она резко сорвется вниз. Но возникает опять же вопрос - а нахрена тогда это все действие? Математика - сильная хрень, ее не обманешь.
 
Помнится, я забавлялся решением автоматического поиска фотографий с промахом автофокуса. Ваша задача даже проще, но ТЗ нужно чётче.
То бишь нужно вычислить некий коэффициент детализации и пропорционально уменьшить разрешение?
МЕТОДЫ БЕЗЭТАЛОННОЙ ОЦЕНКИ РЕЗКОСТИ И ДЕТАЛИЗАЦИИ ИЗОБРАЖЕНИЯ
 
пропорционально
Там кагбэ нелинейная зависимость, подбирать значение придется итерационно и достаточно долго. Но это, повторяю, окольный способ, все равно все упирается в количество информации.
 
  • Спасибо
Реакции: Chiga и Nikle
  • Спасибо
Реакции: Chiga
Попробую пояснить.
Возьмем графический файл и увеличим его, скажем, в два раза. Поскольку количество информации в нем не изменилось, а жпег жмет весьма хорошо, то размер файла изменится незначительно, а не в 4 раза (как по идее должен был бы, если бы количество информации увеличилось кратно) А вот если уменьшить сильно детализированный файл, то сжатый размер изменится сильно, поскольку общее количество информации в нем реально уменьшится? Разумеется, это лишь теория, которую надо проверять экспериментально на самых разных классах изображений, cтроить корреляционные кривые, аппроксимировать и т.д. На кандидатскую такое исследование конечно не тянет но для бакалавра вполне попрет '))'
 
Я пользуюсь вот этим
Прочесывает указанные диски или папки и создает базу данных с превьюшками. Легко найти нужный файл.
Не знаю, есть ли на Вин. Нету
 
  • Спасибо
Реакции: izrukvruki
Попробую пояснить.
Возьмем графический файл и увеличим его, скажем, в два раза. Поскольку количество информации в нем не изменилось, а жпег жмет весьма хорошо, то размер файла изменится незначительно, а не в 4 раза (как по идее должен был бы, если бы количество информации увеличилось кратно) А вот если уменьшить сильно детализированный файл, то сжатый размер изменится сильно, поскольку общее количество информации в нем реально уменьшится? Разумеется, это лишь теория, которую надо проверять экспериментально на самых разных классах изображений, cтроить корреляционные кривые, аппроксимировать и т.д. На кандидатскую такое исследование конечно не тянет но для бакалавра вполне попрет '))'
Взял картинку тс-а, сохранил с максимальным качеством, затем уменьшил разрешение примерно в 2 раза, сохранил....
5439x4074 - 3 069 KB
2700x2022 - 1 278 KB
1350x1011 - 387 KB
700x524 - 139 KB
350x262 - 49 KB

Что-то не сходится, вижу практически прямую зависимость размера файла от разрешения. Или заблуждаюсь?
 
вижу практически прямую зависимость размера файла от разрешения.
Ну так это и есть прямая иллюстрация
А вот если уменьшить сильно детализированный файл, то сжатый размер изменится сильно, поскольку общее количество информации в нем реально уменьшится
Вы попробуйте сперва увеличить - неужели зависимость будет такая же прямая?
 
Вообще тема интересная и если бы кто-то решил или хотя бы формализовал, было бы здорово.
которую надо проверять
Вот я тогда обпроверялся. И разными компрессиями после разных ресемплингов туда-сюда и анализировать файл-разницу оригинала с масками разными. Универсальной отмычки так и не подобрал. Но для конкретных сюжетов вполне.
 
Почти, размер суперячейки остаётся тем же, а ячеек в 2 раза больше.
Ну так хоть ячеек и больше, но среди них увеличивется количество однотипных, соответственно алгоритм сжатия жмет их лучше
 
графический файл и увеличим его, скажем, в два раза. Поскольку количество информации в нем не изменилось
Количество информации изменилось. Бикубиком -- сильнее, бикубиком с шарпом -- ещё сильнее.
 
Прочесывает указанные диски или папки и создает базу данных с превьюшками. Легко найти нужный файл.
Это сработает, если изображения сильно разные. А если база данных с фотками головы на паспорт, то всё будет выглядеть кашей.