Улучшатель имиджей родился ли?

  • Автор темы Автор темы Evgen
  • Дата начала Дата начала
Ну вообще да, детали реально добавляет которых не было
 
Текстом есть,но нужна регистрация,да и ссылки на данный ресурс отдельных товарищей
приводят в сильное нервное возбуждение.
Кому интересно, то
 
Видать шибко ценная информация, раз ее без регистрации не узнать.
 
Видать шибко ценная информация, раз ее без регистрации не узнать.
Да там обычный ютюбовский обзор нескольких известных ресамплеров и нейросетей. Я по диагонали потыкал, по мне так результат достаточно бестолковый и капитанский, напоминает сравнительный анализ дошираков из пятерочки в утренних новостях '))'
 
По ходу в 2022 году — уже нет :)
Да примерно как раз 22 году адекватно, вот году в 25 - уверен - должны разрешение модели увеличить.
Я просто исхожу из того, что сегодня мейнстрим - видюха с 2-8 гигами на борту, под такие видюхи и модель на 1024 пиксела. Через несколько лет когда станет мейнстримом 12-16 гигов видеопамяти и производительность повыше - будет и разрешение повыше у проектов.
 
Приветствую, коллеги!

Можно ли подлечить пациента в аттаче по ссылке http://umbum.ru/ftp/2013.09.JPG
Хочется найти побольше качества в этом имидже.
Или услышать дельный совет по улучшению.
Компания Репропарк занимается созданием вебсервиса на ИИ по вытягиванию детализации при апсемплинге - для этикеточных картинок прям огонь как детализация вытаскивается. Можно попробовать на них выйти - технического директора Яков Сотников зовут. Может помогут - лица не очень получаются, а вот всякие фрукты вилки и прочая хрень прям реально суперски выходят.
 
  • Спасибо
Реакции: mihas
Попробовал проект с графическим интерфейсом NMKD Stable Diffusion GUI
Если немного поучиться и поосваивать - можно кое чего приличного от нейросети добиваться.
Уже доступна работа с разрешением 1024 пикселя на современной видюхе (12 гиг памяти), а не обычные 512 пикселей для таких проектов. Плюс подключены в проге два апскейла - GFPGAN, который мы уже рассматривали, и CodeFormer - тот что у меня в примерах ниже.
Ключи поиска особо пока не настраивал, просто попробовал голубые глаза и зеленые глаза указать - да, глаза подкрасило так и эдак. Оригинальный плохой имидж прикладываю первым - я именно на его основе генерил два увеличенных варианта. Как бы меня прогресс порадовал, но конечно ждем больших разрешений моделей и большего кол-ва памяти более мощных GPU - тогда наверное и поры на коже станет прорисовывать. Я пробовал указать skin pores - но это пока на фактуру лица не повлияло.
Смотрите результаты, это всего за полчаса освоил в программе, сегодня только после ужина ее впервые установил. За этими технологиями будущее, так что стараюсь хоть как-то успевать приобщаться, и конечно графический интерфейс нам в помощь. Пишут, что из командной строки еще более могучее управление прогой Stable Diffusion - но потренироваться с GUI - уже неплохо.
 

Вложения

  • 0_orig.png
    0_orig.png
    348.6 КБ · Просм.: 188
  • 1_blue eyes.png
    1_blue eyes.png
    1.2 МБ · Просм.: 180
  • 2_green eyes.png
    2_green eyes.png
    1.3 МБ · Просм.: 180
  • Screenshot 2023-01-27 224556.png
    Screenshot 2023-01-27 224556.png
    193.7 КБ · Просм.: 179
  • Screenshot 2023-01-27 234005.png
    Screenshot 2023-01-27 234005.png
    20.3 КБ · Просм.: 184
Попробовал проект с графическим интерфейсом NMKD Stable Diffusion GUI
Если немного поучиться и поосваивать - можно кое чего приличного от нейросети добиваться.
Уже доступна работа с разрешением 1024 пикселя на современной видюхе (12 гиг памяти), а не обычные 512 пикселей для таких проектов. Плюс подключены в проге два апскейла - GFPGAN, который мы уже рассматривали, и CodeFormer - тот что у меня в примерах ниже.
Ключи поиска особо пока не настраивал, просто попробовал голубые глаза и зеленые глаза указать - да, глаза подкрасило так и эдак. Оригинальный плохой имидж прикладываю первым - я именно на его основе генерил два увеличенных варианта. Как бы меня прогресс порадовал, но конечно ждем больших разрешений моделей и большего кол-ва памяти более мощных GPU - тогда наверное и поры на коже станет прорисовывать. Я пробовал указать skin pores - но это пока на фактуру лица не повлияло.
Смотрите результаты, это всего за полчаса освоил в программе, сегодня только после ужина ее впервые установил. За этими технологиями будущее, так что стараюсь хоть как-то успевать приобщаться, и конечно графический интерфейс нам в помощь. Пишут, что из командной строки еще более могучее управление прогой Stable Diffusion - но потренироваться с GUI - уже неплохо.
...Долго мне будут сниться во сне
Ее голубые глаза на сосне...

Это же тихий ужас, с оригиналом ничего общего, практически...
 

Вложения

  • 7-Mackenzie-Davis[1].jpg
    7-Mackenzie-Davis[1].jpg
    109.9 КБ · Просм.: 163
...Долго мне будут сниться во сне
Ее голубые глаза на сосне...

с оригиналом ничего общего, практически...
Кто-то лучше справится с десятикратным увеличением? Я показал, что картинка сделана не из оригинала, а из спичечного коробка!-) Из оригинала куда как круче и апскейлить не надо.
 
Как впрочем и до/после обычного макияжа
Ну я даже не тренировал модель по фоткам Маккензи Дэвис, чтобы отрисовать все вообще реалистично, это чуть большего времени требует - создание такой модели. Было бы желание.
 
Известная проблема нейросетевого увеличения - теперь это будет похоже на нечто среднее по больнице, но не на оригинал
 
Известная проблема нейросетевого увеличения - теперь это будет похоже на нечто среднее по больнице, но не на оригинал
Я бы сказал немного иначе. Если реально потренировать модель недельку ну хоть на пушистых котиках, штук 300 хватит, то нейросеть нарисует пушистого котика круче оригинала. А мы пока приводим примеры фактически без тренировки, что-то нам дают производители какой-то набор сборный всего на свете, не индивидуализированный под задачу, конечно не идеально. Но важно понимать перспективу, что тут возможно очень серьезное обучение. Уже вон были кадры, когда персонаж в телевизоре проносит руку сквозь микрофон, если бы ни эта погрешность нейросети - никто бы и не узнал, что в кадре не человек, а модель нейросети. Натренированная модель, не людей вообще, а более конкретизированная.
 
Последнее редактирование:
А вот это не пробовали? Я для себя улучшал картинки из сети, а-ля 1920*1080, до печатного размера в 50*70 и 300dpi.
Ходить через ВПН.

Ссылка на летсэнханс.ио. Ссылка блокируется.
 
  • Спасибо
Реакции: mihas
А вот это не пробовали? Я для себя улучшал картинки из сети, а-ля 1920*1080, до печатного размера в 50*70 и 300dpi.
Ходить через ВПН.

Ссылка на летсэнханс.ио. Ссылка блокируется.
Ходили-ходили. Все нормально, пока картинка чего-то широко распространенного. Как только эксклюзива - оно дает такое мутное пятно, как и Фотошоп. Из ничива нечива не вытащишь
 
  • Спасибо
Реакции: alex103
Сдаётся мне, пройдет еще несколько лет и в интернете темы "как нейросетями улучшить фотографию" сменятся темами "где найти фотографию такого-то объекта не тронутую нейросетями" или "как определить, что фотография действительно не тронута нейросетями".
Потому что:
Из ничива нечива не вытащишь
А вот нарисовать красиво выдуманное в это самое "ничево" за милую душу, а потом гадай, так оно было или нарисовали.