Улучшатель имиджей родился ли?

  • Автор темы Автор темы Evgen
  • Дата начала Дата начала
А вот нарисовать красиво выдуманное в это самое "ничево" за милую душу, а потом гадай, так оно было или нарисовали.
Логичное развитие проблемы "цитаты из интернета"
 
Сдаётся мне, пройдет еще несколько лет и в интернете темы "как нейросетями улучшить фотографию" сменятся темами "где найти фотографию такого-то объекта не тронутую нейросетями" или "как определить, что фотография действительно не тронута нейросетями".
Потому что:

А вот нарисовать красиво выдуманное в это самое "ничево" за милую душу, а потом гадай, так оно было или нарисовали.
Да это можно и без нейросетей. Они, конечно, процесс ускорят и упростят, но как такой он давно уже имеется)
 
Нормальные такие хотелки у StableDiffusionGui потренировать модель на dream booth - 24 гига памяти на GPU, при том, что сегодня актуально как бы 12 для топовой карты 3090. Реально, на 12 гигах 3060 у меня не работает, конкретно видеопамяти не хватает, пришлось найти постарее версию dreambooth-gui на Гитхабе - там 10 гигов должно хватать по описанию, там тянет видеокарта тренировку модели. Центральный процессор не сильно нагружает, процентов на 20, можно спокойно параллельно работать комфортно, ибо эти процессы обучения надолго, если хочется качественного результата. Никакие онлайн-сервисы такого себе позволить не могут, а тут вся фишка в том, чтобы не генерить улучшайзер всего на свете из случайных имиджей, а создать модель, которая обучена конкретным имиджам, стилю. Это долго, но попробовать пообучать интересно, просто понять, на сколько это подействует на конечную картинку.
 

Вложения

  • Screenshot 2023-01-30 152441.png
    Screenshot 2023-01-30 152441.png
    117 КБ · Просм.: 165
  • Screenshot 2023-01-30 154350.png
    Screenshot 2023-01-30 154350.png
    141.6 КБ · Просм.: 164
  • Screenshot 2023-01-30 160137.png
    Screenshot 2023-01-30 160137.png
    83.9 КБ · Просм.: 159
Есть интересный проект - Upscaly, можно скачать на гитхабе или офф. сайте. Предлагает несколько вариантов апскейла, к ресурсам не особо требователен.
 
12 для топовой карты 3090
на 3090 как раз 24 гига, проф ускорители имеют 48 гигов на борту...
если хочется поиграться с генерацией на слабом железе, то к AUTOMATIC1111's Stable Diffusion Web UI есть дополнение Stable Horde в котором генерация производится на сетевых ресурсах.
 
  • Спасибо
Реакции: mihas
на 3090 как раз 24 гига
Спасибо! Точно. Я был уверен, что 12 гигов, просто друг брал 3090 с 12 гигами летом. А сейчас смотрю - и правда 24 гига мейнстрим для RTX 3090. Я отстал от жизни всего чуть более чем на полгода, и нате, интересовался в июне последний раз этими железками, когда брал 3060 с 12 гигами.
Пока мои успехи в расчете модели никакие, но я снял все распланированные вперед на месяц задачи с одного из GPU, и пробую еще посчитать что-то приемлемое через dreambooth-gui. Сетевые вычислительные ресурсы я пока не пробовал арендовать, обхожусь своим железом.
 
Опять видяхи подорожают - для тренировки нейросеток будут фермы собирать '))' А что нормальный такой вариант натренировать на конкретные задачи продавать доступ.
 
Последнее редактирование:
Опять видяхи подорожают
После того, как Китай где-то год назад запретил весь этот идиотизм с майнингом - видюхи постепенно подешевели вдвое. То что я брал в июне 22 года со всеми многочисленными скидками за 68 тысяч, сегодня 31 января 23 года стоит 35 тысяч даже без скидок. Так что ловите момент - GPU не дорожают, а хорошо так дешевеют, рынок насытился, дефицита как бы больше нет.
Не знаю, можно ли назвать это фермой, но да - сервера с десятками Тесла на борту - это не экзотика, а современная реальность. Вот например проект GAN и разработки Nvidia тут на Гитхабе требуют для быстрой работы желательно нескольких GPU топового уровня Тесла, даже в часах указано, сколько чего будет считать по времени, типа одна Тесла будет считать модель 1024×1024 px в течении 41 дня, а 8 этих GPU посчитают за 6 дней.
 
Так просто для справки, чтобы задействовать машинное обучение на обычном оборудовании среднего уровня RTX 2080 - RTX 3060 c 8-12 гигами памяти на борту, и чтобы результат достигался за какое-то вменяемое время, исчисляемое сутками, а не годами, реалистичная графическая модель для вычислений - всего-то примерно 160х160 пикселей, а лучше 128 px, если хочется побыстрее. Поэтому как бы понятно, что 512 px и 1024 px моделирование требуют куда более серьезных ресурсов, памяти, времени и производительности. И такое оборудование есть, только простым смертным пока не доступно. Но поучиться новым технологиям, я считаю, можно и "на кошках" 128 пикселей уже сейчас.
 
  • Спасибо
Реакции: jazzy и almastu
Не смотря на рост курса валют, RTX 3060 еще немножко подешевели. Мне кажется, добрая цена сейчас около 33 тысяч за новую, в июне со всеми скидками было 68 тр. Она конечно хорошо потрудилась за 10 месяцев, пора менять на 3090 с 24 гигами памяти, поактуальнее для современных задач. И вот тут цены кусаются, под сотку т.р., и главное не понятно, стоит ли выжидать снижения цены, или его в ближайшее время в рублевом исчислении не дождешься. Взять-не взять Asus RTX 3090 с 24 гигами здесь и сейчас за сотню - вот в чем дилемма!-)) Меньше чем на Asus я естественно не согласен, к хорошему сильно привыкаешь.
 
Последнее редактирование:

Не по теме:
А какое отношение имеет ваше дрочево на железяку к теме?
 
Последнее редактирование:
Она конечно хорошо потрудилась за 10 месяцев, пора менять на 3090 с 24 гигами памяти, поактуальнее для современных задач.
Смотря какие задачи, но я бы подождал серию 50х0.
Четырехтысячная серия неплохая по скорости, местами в два раза обгоняет старые поколения. Но проблема с разъемами питания не позволяют однозначно рекомендовать к покупке.
Проблема 3090 они горячие и память там с двух сторон распаяна, вот как раз со стороны где нет вентиляторов ее очень проблемно охлаждать. Нужен большой просторный и продуваемый корпус и то он не спасает.
У 4090 другая проблема, это просто огромные размеры и новый капризный разъем питания.
 
  • Спасибо
Реакции: mihas
Спасибо! 4090 мне пока дороговато, а до серий 5х надо еще дожить. Меня устраивает производительность 3060, но мало памяти 12. Удвоить память и почти удвоить производительность было бы то что надо. Почитаю про терморегуляцию 3090, корпус огромный и с продувом, но тут как бы да еще плюс 100-150 ватт.
 
Почитал, померил, прикинул. Немного обожду с 3090, может и правда еще послежу за динамикой цен и более топовыми моделями. Прямо сейчас длиннющая 3090 мне в корпус не влезает так, чтобы не вынимать корзины с дисками. И если бы одну корзину - а то теряю корзины сразу под 4 диска. 2 диска я бы стерпел, вставил бы их в DVD-отсеки, но 4 - перебор. Ради GPU я пока не готов расстаться с шикарным корпусом штатно под 6 дисков, который только в сентябре взял. Так что вначале следующий комп распланирую под GPU более 30 сантиметров длиной, вот тогда и подумаю над новым ускорителем. Интересно же попробовать пообучать модели улучшения имиджей на 24 гигах видеопамяти, онлайн такого на бесплатных аккаунтах не получается, мне кажется проще железо купить, чем платить за доступ к чужому серьезному железу по их меняющимся правилам, сегодня разрешим, завтра запретим, ну их.
 
Последнее редактирование:

Не по теме:
А какое отношение имеет ваше дрочево на железяку к теме?
По моему скромному мнению хороший улучшатель имиджей не может родиться для i3 процессора 4 поколения. Этот вариант уже исчерпан существующими программами с посредственным качеством. Сегодня интересное что-то получается сделать на хороших графических процессорах. То что CPU i9 двенадцатого поколения будет считать месяц - средней паршивости современный GPU просчитает за сутки. Потому такое внимание уделяется железу, без него тема как бы бессмысленна. Apple кстати тоже ввязался в эту гонку GPU, отстает примерно на 2 поколения от Nvidia, но тоже во всю тему роет на своем новом железе.
 
Попробовал некую очередную реализацию технологии GAN по улучшению и увеличению имиджей. Запустил на часок старый фильм покадрово отреставрировать и параллельно вот три картинки сваял в трех имеющихся режимах (претренированных моделях). Как бы эта технология не заточена исключительно на лицах, но раз уж начал экспериментировать на Маккензи - так пока и продолжаю. Форум принципиально недружелюбен к высоким разрешениям иллюстраций, так что обкропил до разрешенных 1500px вчетверо увеличенную фотку, чтобы не пережимать ее форумом обратно с потерями и увеличением размера в мегабайтах.

Проект Real-ESRGAN тут на питоне и есть его релиз для трех операционок. Я релиз и попробовал чтобы делать меньше телодвижений. Скачать модели не забудьте.

На GPU Nvidia почти современном считает шустро, видеопамяти берет всего 4 гига, что весьма щадяще (разгонял SD до FHD, может на 8K и больше потребуется памяти). На встроенной графике Intel i9 UHD 750 молотит кадры, конечно, в десятки раз медленней Nvidia, я попробовал и сразу отказался. Но в принципе если есть время ждать - посчитает и на Intel все то же самое, что тоже полезно. Модель аниме считает быстрее.

В обработке картинок и плюсы и минусы вижу, но что-то интересно сделал. Пока не уяснил, как тренировать предлагаемые готовые модели, наверное никак, что есть с тем и работаем.

Как сваяю несколько вариантов фильма во всех моделях и сравню с топазом - посмотрю кто интереснее старье низкого разрешения с шумами восстановил.
 

Вложения

  • gpu_usage_realesrgan.png
    gpu_usage_realesrgan.png
    36 КБ · Просм.: 164
  • realesr-animevideov3-x4-Mackenzie-Davis_4x_1500.jpg
    realesr-animevideov3-x4-Mackenzie-Davis_4x_1500.jpg
    368.4 КБ · Просм.: 165
  • realesrgan_x4plus_Mackenzie-Davis+x4_1500px.jpg
    realesrgan_x4plus_Mackenzie-Davis+x4_1500px.jpg
    530.7 КБ · Просм.: 163
  • realesrgan-x4plus-anime-Mackenzie-Davis_4x_1500.jpg
    realesrgan-x4plus-anime-Mackenzie-Davis_4x_1500.jpg
    269.7 КБ · Просм.: 169
Действительно удивлен, что это еще не было упомянуто здесь. Офлайн, множество алгоритмов, бесплатно. Один из лучших вариантов, имхо.