MLPops
786 subscribers
424 photos
120 videos
5 files
180 links
We are ML&MLOps community based in 🇷🇺Russia

Наш чат - t.me/+qJm7Ak4nU4EwZmJi
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Наконец-то сетки сделали что то годно
Please open Telegram to view this post
VIEW IN TELEGRAM
Вакаса в нашу команду

https://hh.ru/vacancy/104412412

Сейчас в команду ищу Go lang разраба, для работы над новым продуктом - ML Inference
Ищем где-то от джуна плюс до сыра.

Че будем делать?
Пилить систему распределенного инференса, что бы сделать копеечный инференс на A100 и выше.

По работке
Пилить сервисы на го
Писать тесты
Code-review

Что нужно знать?
Нужно шарить за postgres (индексы хотя бы, знаешь как работает репликация, шардирование, партиционирование - тебе же плюс)
Мы тут код стараемся долгоживущий и понятный писать так что знание чистой архитектуры в плюс
Понимание 12 FA тоже в плюс
Понимание работы DS'ера в плюс
Многопоточность, горутины
Понимание паттернов ООП, паттернов в межсервисной архитектуре, паттерны DDD тоже в плюс, знание чем отличается синхронное взаимодействие икросервисов от асинхронного


Команда
Все парни (и не только) молодые, скуфов нет, токсиков тоже

Приоритет
Приоритет больше отдаю тем, кто проходил ML курсы в инситуте
Так же роляет высокий MMR (нужен core игрок тянуть рейтинг игры)

Формат работы
Лучше всего гибрид но и полную удаленку тоже принимаем
Технику всю выдаем Mac, Монитор и тд

+ есть отсрочка от призыва и мобилизации

По зп не обидем, если есть за что платить

В рассмотрение примем даже тех у кого мало опыта коммерческой разработки, но при этом есть знания че и как делать.

По вопросам и резюме пишите в лс @amazaew
VPN

Накатал тут гайд по создаю VPN сервера, расписал как можно подробнее с скринами и командами. В принципе его можно раскатать где угодно главное, что бы виртуалка была за бугром.
Я знаю только два облака, которые дают норм ВМки за бугром TimeWeb и Aeza. По цене плюс минус одно и тоже.

Если будут проблемы или пожелания пишите в комменты, резберемся.

https://telegra.ph/Rukovodstvo-po-sozdaniyu-sobstvennogo-VPN-servera-na-baze-TimeWeb-08-02-2
Как-то меня спросили, как посадить 4-ех разработчиков на один стул.

Ответ убил.
Как же хорошо, что хотя бы в Европе есть свобода, нет гэбни которая следит за каждым сообщением в сети, и предпринимателей не прессуют 🤙
Please open Telegram to view this post
VIEW IN TELEGRAM
Любой разговор DS тех лида с менеджером AI проектов:

- Ты чо ебанутый? 
- Ну а что ai встроить нельзя?
- Ебанутый.
Регаемся по ссылке, буду рассказывать про ML Inference и его развитие

Стикеры и мерч за хорошие вопросы обещаю
Forwarded from Cloud.ru Tech
⚡️ Только tech, только хардкор!

🟢 Открываем регистрацию на GoCloud Tech 2024 — масштабную IT-конференцию, посвященную облачным решениям и русскому AI.

Весной прошла первая конференция GoCloud. Мы поняли, что один раз в год — слишком мало, чтобы вместить все, что мы хотим рассказать о наших технологиях!
Поэтому в октябре мы возвращаемся с новой порцией хардкорных докладов про облака, искусственный интеллект, изнанку наших сервисов и возможности платформы Cloud․ru Evolution.

Вас ждут:
▫️ 4 технологических трека и дополнительный soft-трек
▫️ Демозоны новых сервисов и обновлений Cloud․ru Evolution
▫️ Много нетворкинга и новые знакомства
▫️ Интересные активности и afterparty

Где и когда:
😶‍🌫️24 октября, Москва, Лофт-пространство Goelro.
😶‍🌫️Для онлайн-участников будет доступна трансляция.

🟢 Подать заявку на участие можно на сайте.

👀 Следите за новостями: совсем скоро мы объявим программу!
Please open Telegram to view this post
VIEW IN TELEGRAM
Всем привет! Долго не было постов, потому что было много работы.

Вчера прошла конференция GoCloud Tech, где мы с командой наконец представили свое детище - ModelRUN.

ModelRUN - это сервис по запуску ML моделей из HuggingFace на Shared GPU.

Мы долго думали, как сделать Inference проще и дешевле, поэтому мы убрали все лишние элементы, которые могут мешать запуску ML моделей Docker-образа, Inference-код и тд., оставили только запуск весов моделей. Это все сильно упростит запуск ML модели для DS'ов.

А потом решили, что упростить запуск, этого мало. И мы решили добавить Shared GPU, систему которая позволяет делить GPU по памяти, то есть, если ваша модель потребляет 8Gb видео памяти, то только за этим 8Gb вы и будете платить и в равном соотношение выделяются Cuda ядра.

Доступные на текущий момент видео карты V100 и H100.
Поддерживаем из framework’ов пока только Transformers, но в планах есть дополнить список vLLM и Nvidia Triton.

Мы не заменяем Inference с Docker-образом, а дополняем еще одним типом запуска ML модели.

Записывайтесь на Private Preview, получите доступ первыми!
Я тут замутил новый сайтец, где собрал все популярные и не очень инструменты для MLOps.

Тут есть раздел с разметкой данных, обучения моделей, инференса, хранение данных, экспериментинг, и в добавок множество других полезных штук, которые помогут тебе прокачать работу в ML теме.

Если знаете какой-то крутой инструмент, там есть кнопка “Рекомендовать” нажимаете, заполняете и отправляете форму, а потом добавим его в список инструментов.

https://tools.mlpops.ru
Все новые сервисы, всего лишь блеклые копии той самой скрепки из ворда
Написал статейку о том, как запустить Firefly III в приватной сети ВМки.

Это помогает обеспечить постоянный доступ к сервису в интернете, но только через VPN-подключение, что снижает риск взлома.
В своей статье я подробно описал шаги, которые нужно выполнить, чтобы успешно реализовать эту конфигурацию.


https://mlpops.ru/blog/private-firefly-iii-with-wireguard/
Вышла ультра крутая локальная нейронка для кода — Qwen 2.5.1 Coder.

Она почти не отстает от GPT-4, и при этом запустить можно на любом чайнике.

Это просто нечто!


Сама модель здесь