Начал потихоньку сравнивать модели, пока тестирую на онидхзуке в 480п
Модельки пока такие TAH, Swin2SR,а внизу оригинал
В принципе, если дообучить сетки на похожих новых аниме, то можно улучшить качество.
Так же позамерял LPIPS везде в районе 0.06
Модельки пока такие TAH, Swin2SR,а внизу оригинал
В принципе, если дообучить сетки на похожих новых аниме, то можно улучшить качество.
Так же позамерял LPIPS везде в районе 0.06
🔥7
По итогам выбора аниме на улучшение выиграл "Ковбой Бибоп".
Осталось выбрать озвучку. Предлагайте
А так же накидайте в комменты похожие аниме, главное что бы 4К/1080p было, будем использовать для дообучения в сайфай домене.
Осталось выбрать озвучку. Предлагайте
А так же накидайте в комменты похожие аниме, главное что бы 4К/1080p было, будем использовать для дообучения в сайфай домене.
❤7
Поставил вчера на обработку 3 разными сетями, координальная разница видна исключительно на мелких объектах.
Последовательность такая
Оригинал
AnimeSR
Real-ESRGAN 6b
Real-ESRGAN v3
Последовательность такая
Оригинал
AnimeSR
Real-ESRGAN 6b
Real-ESRGAN v3
Forwarded from Love. Death. Transformers.
Действительно призошла утечка, я в ахуе, гпт4 level waifus goes brr.
А кто то знает способы конвертации ггуф в fp16? Мне для друга.
деквант версия
cайт
А кто то знает способы конвертации ггуф в fp16? Мне для друга.
деквант версия
cайт
huggingface.co
152334H/miqu-1-70b-sf · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Привет всем!
🚀 Вчера выступил на захватывающем семинаре, посвященном технологиям LLM (Large Language Models), где мне посчастливилось обсудить будущее искусственного интеллекта вместе с Александром Крайновым из "Яндекса" и Даниилом Гудыниным.
Мы затронули множество важных тем: от истоков развития LLM до насущных проблем, с которыми сталкиваются разработчики при внедрении этих технологий в продукты. В частности, обсудили вызовы, связанные с ускорением инференса LLM, и возможные пути их решения. Один из захватывающих моментов обсуждения касался RAG LLM (Retrieval-Augmented Generation for Large Language Models), который представляет собой новый шаг в улучшении качества и эффективности моделей.
Также Даня Гудынин поделился опытом создания DS-платформы для МАИ, что вызвало большой интерес, учитывая растущую потребность в специализированных инструментах для разработки и тестирования искусственного интеллекта.
Мне кажется, что совместное обсуждение и сотрудничество в таких важных направлениях как искусственный интеллект может привести нас к разработке более эффективных, безопасных и этичных технологий, которые в итоге изменят мир к лучшему.
Прилагаю несколько фотографий с семинара, чтобы поделиться с вами атмосферой мероприятия. Огромное спасибо всем, кто принял участие в обсуждении и поделился своими идеями и знаниями. Вместе мы сможем достичь невероятных высот!
🚀 Вчера выступил на захватывающем семинаре, посвященном технологиям LLM (Large Language Models), где мне посчастливилось обсудить будущее искусственного интеллекта вместе с Александром Крайновым из "Яндекса" и Даниилом Гудыниным.
Мы затронули множество важных тем: от истоков развития LLM до насущных проблем, с которыми сталкиваются разработчики при внедрении этих технологий в продукты. В частности, обсудили вызовы, связанные с ускорением инференса LLM, и возможные пути их решения. Один из захватывающих моментов обсуждения касался RAG LLM (Retrieval-Augmented Generation for Large Language Models), который представляет собой новый шаг в улучшении качества и эффективности моделей.
Также Даня Гудынин поделился опытом создания DS-платформы для МАИ, что вызвало большой интерес, учитывая растущую потребность в специализированных инструментах для разработки и тестирования искусственного интеллекта.
Мне кажется, что совместное обсуждение и сотрудничество в таких важных направлениях как искусственный интеллект может привести нас к разработке более эффективных, безопасных и этичных технологий, которые в итоге изменят мир к лучшему.
Прилагаю несколько фотографий с семинара, чтобы поделиться с вами атмосферой мероприятия. Огромное спасибо всем, кто принял участие в обсуждении и поделился своими идеями и знаниями. Вместе мы сможем достичь невероятных высот!
👍7🔥4❤1😎1
Сегодня я хочу поделиться с вами проектом, который, по моему мнению, имеет огромный потенциал в области распознавания речи. Речь идет о https://github.com/ggerganov/whisper.cpp - порте модели Whisper от OpenAI на C/C++. Этот проект позволяет выполнять высокопроизводительное распознавание речи с минимальными зависимостями, поддерживает различные архитектуры и платформы, включая Apple Silicon и x86. Поддержка квантизации и Core ML открывает новые горизонты для оптимизации и интеграции в различные приложения и системы.
Для быстрого запуска и обработки аудиофайла вам нужно выполнить следующие шаги:
1. Клонировать репозиторий:
2. Скачать модель Whisper в формате ggml:
3. Собрать и запустить пример, чтобы транскрибировать аудиофайл:
Простота интеграции и высокая производительность делают whisper.cpp идеальным выбором для разработчиков, стремящихся внедрить распознавание речи в свои приложения.
Скорость тоже поражает видео длинною в 90 минут обрабатывает за 10 минут на M1 Max
Для быстрого запуска и обработки аудиофайла вам нужно выполнить следующие шаги:
1. Клонировать репозиторий:
git clone https://github.com/ggerganov/whisper.cpp.git
2. Скачать модель Whisper в формате ggml:
bashCopy code
bash ./models/download-ggml-model.sh base.en
3. Собрать и запустить пример, чтобы транскрибировать аудиофайл:
bashCopy code
make
./main -f samples/jfk.wav
Простота интеграции и высокая производительность делают whisper.cpp идеальным выбором для разработчиков, стремящихся внедрить распознавание речи в свои приложения.
Скорость тоже поражает видео длинною в 90 минут обрабатывает за 10 минут на M1 Max
GitHub
GitHub - ggml-org/whisper.cpp: Port of OpenAI's Whisper model in C/C++
Port of OpenAI's Whisper model in C/C++. Contribute to ggml-org/whisper.cpp development by creating an account on GitHub.
👍6❤1