MLPops
760 subscribers
424 photos
120 videos
5 files
180 links
We are ML&MLOps community based in 🇷🇺Russia

Наш чат - t.me/+qJm7Ak4nU4EwZmJi
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Ну что гЕЕЕймеры, как игра? Стоит ставить себе Xbox Game Pass ради нее? Много русофобии?
2
Arch - это прокся, созданная для защиты, мониторинга и созданию AI-агентов.

Эта штука позволяет строить своих LLM-Агентов используя под капотом модели OpenAI и модели с тем же форматом API.
Плюс оч много полезных инструментов для мониторинга и трейсинга промтов к LLM. Всяких защит на уровне промтов и тд.
Маст хев штука если делаете своих агентов.

GitHub
3
Новая дифузионка от Nvidia

SANA — text2image модель, SOTA в text2image, низкий FID и высокакя скорость.
По метрике FID - 5,76, тот же Flux - 7,94. По сути это значит что модель генерит оч реальные изображения.
Может генерить изображения от 512x512 до 4096x4096 за секунды. И рабоает на ноуте, что не может радовать.

Судя по всему модель может следовать очень хорошо по заданному промту.
Обещают скоро добавить в diffusers
Короче новый топ.

HuggingFace
Папира
Демка Gradio
GitHub
🔥4
Media is too big
VIEW IN TELEGRAM
Очень жду подобных видос от МАИ
🔥10
Ждем бенча по Marco-o1 с СoT
This media is not supported in your browser
VIEW IN TELEGRAM
- ChatGPT, создай самую мерзкую CAPTHCA в мире

- Сделай ее еще более бесячей

- Сделай ее ДЕЙСТВИТЕЛЬНО бесячей

(хочу себе такую в сервис)
🦄3🔥2
Ох и ох
Тут такое Эндрю Ын (Andrew Ng) представил


Vision Agent. По сути это замена джунов в CV командах, результаты прям на дастойном уровне.
Даешь видос, пишешь че надо сделать, на выходе код.

Для примера взял два их примера, и свой с упаковками соусов. Ну где-то качество храмает, но как итог это вау. Я потратил 5 секунд, а уже имею относительно рабочее решение для проверки гипотез и отмазок для своего руководителя.


Презентация сервиса
Сервис
👍41
Media is too big
VIEW IN TELEGRAM
Типикал я на работе
👍4
Новая дообучения модель gpt-4o-2024-11-20 имеет куда хуже метрики на MMLU, GPQA, MATH и SimpleQA чем gpt-4o-2024-08-06

Чет слабо вериться что они обучают модели, мб просто косты режат, и делают модели меньше, вот и тупеют
1
Macro-o1 MCTS

Китайцы опубликовали, статейку, и модель.
Че сделали? Добавили новую модель рассуждения, на базе поиска по дереву Монте Карло (Monte Carlo Tree Search) (MCTS) .
Смысл в том, что модель не стремиться как можно скорее предти к единственному решени, а используется MCTS для оценки различных подходов к рассуждению. Кратко, взяли qwen 7b, добавили ветвь рассуждения с возможностью отката, все.

Основные нововведения:
- MCTS используется для построения деревьев потенциальных шагов рассуждения и решений.
- Каждая вершина в дереве представляет состояние рассуждения, а ветви — возможные следующие шаги.
- Модель включает функцию ценности для оценки многообещающих путей.
- Реализует "стратегическое отступление (strategic retreat)" — возможность вернуться назад, когда путь рассуждения кажется непродуктивным.

Какие резы получили
- Превзошли базовые большие языковые модели на математических задачах GSM8K на 12%.
- Достигли 78% точности на задачах рассуждения "цепочка мыслей".
- Сгенерировали в среднем 3.2 действительных различных решения на задачу.
- Показали 15% улучшение в точности декомпозиции задач.

Самый большой кайф от этого, это то, что всякие маркетологи и тд, смогут видеть как модель расскуждает, по вычислениям занимает много ресов, но она пытается прорабатывать несколько возможных путей, а не пытаться выдать что то быстрое.

Папира
HuggingFace
GitHub
2