Там Google релизнули обновленную версию Gemeni-Exp-1206, пока что топ по задачам в коде
Как использовать Gemini-Exp-1206 бесплатно?
1. Перейдите в Google AI Studio и войдите в систему (бесплатно).
2. Перейдите в раздел "Создать запрос" (Create prompt).
3. В настройках измените модель на Gemini Experimental 1206.
4. Начните чатес.
Как использовать Gemini-Exp-1206 бесплатно?
1. Перейдите в Google AI Studio и войдите в систему (бесплатно).
2. Перейдите в раздел "Создать запрос" (Create prompt).
3. В настройках измените модель на Gemini Experimental 1206.
4. Начните чатес.
Пару дней назада релизнули LLama 3.3 70B
Че сделали лучше?
- Подтянули математику
- Подтянули работу с кодом
На это все, больше различий не замети
HuggingFace
Че сделали лучше?
- Подтянули математику
- Подтянули работу с кодом
На это все, больше различий не замети
HuggingFace
huggingface.co
meta-llama/Llama-3.3-70B-Instruct · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
🌟EXAONE 3.5: LG AI и их новая "магия".
Короче, LG AI Research выкатили тройку свежих моделей EXAONE 3.5, которые теперь разговаривают сразу на двух языках — английском и корейском. Плюс, контекстное окно аж на 32 тысячи токенов!
Как сделали лучше? Просто почистили датасет убрав дубликаты и персоналку.
🟠 2.4B — малышка для девайсов, можно таскать с собой, как пачку чипсов.
🟠 7.8B — середнячок, который хорош везде, куда не сунь.
🟢 32B — это уже пушка-гонка, если нужно решить что-то сложное и на максималках.
Вопросов если честно много, модельки глуповаты, плюс странный бэнч почему нет сравнения с другими моделями?
Короче жду статейку где разберут модельку или прогонят на арене
Короче, LG AI Research выкатили тройку свежих моделей EXAONE 3.5, которые теперь разговаривают сразу на двух языках — английском и корейском. Плюс, контекстное окно аж на 32 тысячи токенов!
Как сделали лучше? Просто почистили датасет убрав дубликаты и персоналку.
🟠 2.4B — малышка для девайсов, можно таскать с собой, как пачку чипсов.
🟠 7.8B — середнячок, который хорош везде, куда не сунь.
🟢 32B — это уже пушка-гонка, если нужно решить что-то сложное и на максималках.
Вопросов если честно много, модельки глуповаты, плюс странный бэнч почему нет сравнения с другими моделями?
Короче жду статейку где разберут модельку или прогонят на арене
Все больше и больше погружаясь в работу с большими дадьками, начинаю ловить полный кринж от непонимания разработки, процессов и жизини микрочеликов который код пишут.
Вот наша платформа это гига квантовый скачек для разработчиков, смотришь а это тупо гиталаб со своими логотипами.
Чем он лучше чем GitHub? ПЛАТФОРМА НАША
Нахера мне это все? У меня есть GitHub, нужна будет какая то он прем история, то GitLab, а если захочу поизвращаться то gitea
У меня 33 платформы для разраба имеют авторизацию через GitHub
Ворваться на рынок где уже есть сформированные игроки? И идти говорить это наше, збс стратегия
Если хотите перебрать к себе клиентов то блин, делеайте плюшки как у GitHub Student Pack, завлекайте студентов, на хаки ходите с униками начните работать ваша база это студенты. Я вот вспоминаю первые курсы нашем собществе в институте начинались как раз с git и работы с ним, промики, лицензии на ide и тд
Или вот есть обучение МЛ моделей, а мы вот делаем инструменты для ДООБУЧЕНИЯ, это совершенно другое!
У меня только один вопрос, а они вообще понимают в чем разница между этим? Ну типо ручками хоть раз что то делали?
Короче чем выше к дядькам тем больше ор
Вот наша платформа это гига квантовый скачек для разработчиков, смотришь а это тупо гиталаб со своими логотипами.
Чем он лучше чем GitHub? ПЛАТФОРМА НАША
Нахера мне это все? У меня есть GitHub, нужна будет какая то он прем история, то GitLab, а если захочу поизвращаться то gitea
У меня 33 платформы для разраба имеют авторизацию через GitHub
Ворваться на рынок где уже есть сформированные игроки? И идти говорить это наше, збс стратегия
Если хотите перебрать к себе клиентов то блин, делеайте плюшки как у GitHub Student Pack, завлекайте студентов, на хаки ходите с униками начните работать ваша база это студенты. Я вот вспоминаю первые курсы нашем собществе в институте начинались как раз с git и работы с ним, промики, лицензии на ide и тд
Или вот есть обучение МЛ моделей, а мы вот делаем инструменты для ДООБУЧЕНИЯ, это совершенно другое!
У меня только один вопрос, а они вообще понимают в чем разница между этим? Ну типо ручками хоть раз что то делали?
Короче чем выше к дядькам тем больше ор
Раньше смотрели сборки игровых компов, теперь смотрим сборки серваков
https://www.youtube.com/watch?v=RjWRXNiz50c
https://www.youtube.com/watch?v=RjWRXNiz50c
YouTube
Inside a MEGA AI GPU Server with the NVIDIA HGX H200
We take apart an NVIDIA HGX H200 8 GPU server from Aivres. The Aivres KR6288 is the company's Intel Xeon-powered AI server for the NVIDIA Hopper generation, and we have installed over 3.6Tbps of networking for a massive AI server.
STH Main Site Article:…
STH Main Site Article:…
This media is not supported in your browser
VIEW IN TELEGRAM
Ох ох скоро скоро прием зачетов и экзаменов и сотни клоунов будут ждать когда можно смехуечку закинуть
MLPops
Там Google релизнули обновленную версию Gemeni-Exp-1206, пока что топ по задачам в коде Как использовать Gemini-Exp-1206 бесплатно? 1. Перейдите в Google AI Studio и войдите в систему (бесплатно). 2. Перейдите в раздел "Создать запрос" (Create prompt).…
Релизнули Gemeni 2.0 Flash Experemental
Ну релизнули и релизнули
Как тыкать бесплатно в посте выше написал.
Все равно пока нет сетки которая напишет за меня диссер по RL в САУ ЛА.
Ну релизнули и релизнули
Как тыкать бесплатно в посте выше написал.
Все равно пока нет сетки которая напишет за меня диссер по RL в САУ ЛА.
txtai: новая тулза работы с LLM и векторными поисками
✏️ Что это вообще такое?
txtai — это база данных эмбеддингов, которая умеет:
- Делать семантический поиск,
- Управлять рабочими процессами с большими языковыми моделями (LLM),
- Оркестрировать всякие сложные штуки, типа Retrieval Augmented Generation (RAG).
Короче, txtai — это микс векторных индексов, графов и реляционных баз. Это звучит сложно, но в реале всё просто, как шавуху макнуть в чесночный соус.
📦 Фишки txtai:
1. 🔎 Векторный поиск. SQL, графы, мультимодальная индексация — всё это в одном пакете.
2. 📄 Эмбеддинги для всего: текста, документов, аудио, картинок и даже видео.
3. 💡 Pipelines: отвечают на вопросы, маркируют данные, транскрибируют аудио, переводят текст и ещё много всего.
4. ↪️ Workflows: микросервисы для автоматизации бизнес-логики.
5. 🤖 Агенты: они связывают все эти штуки и решают сложные задачи сами. Типа Skynet, только без апокалипсиса.
6. ⚙️ Для разработчиков: Python и YAML в деле. Плюс API для JavaScript, Rust, Go и Java.
7. ☁️ Локально или в облаке: выбирай, что тебе удобнее.
📚 На чём работает?
- Python 3.9+
- Hugging Face Transformers
- Sentence Transformers
- FastAPI
🔗 Полезные ссылки:
- Официальная дока
- GitHub
- Примеры использования
✏️ Что это вообще такое?
txtai — это база данных эмбеддингов, которая умеет:
- Делать семантический поиск,
- Управлять рабочими процессами с большими языковыми моделями (LLM),
- Оркестрировать всякие сложные штуки, типа Retrieval Augmented Generation (RAG).
Короче, txtai — это микс векторных индексов, графов и реляционных баз. Это звучит сложно, но в реале всё просто, как шавуху макнуть в чесночный соус.
📦 Фишки txtai:
1. 🔎 Векторный поиск. SQL, графы, мультимодальная индексация — всё это в одном пакете.
2. 📄 Эмбеддинги для всего: текста, документов, аудио, картинок и даже видео.
3. 💡 Pipelines: отвечают на вопросы, маркируют данные, транскрибируют аудио, переводят текст и ещё много всего.
4. ↪️ Workflows: микросервисы для автоматизации бизнес-логики.
5. 🤖 Агенты: они связывают все эти штуки и решают сложные задачи сами. Типа Skynet, только без апокалипсиса.
6. ⚙️ Для разработчиков: Python и YAML в деле. Плюс API для JavaScript, Rust, Go и Java.
7. ☁️ Локально или в облаке: выбирай, что тебе удобнее.
📚 На чём работает?
- Python 3.9+
- Hugging Face Transformers
- Sentence Transformers
- FastAPI
🔗 Полезные ссылки:
- Официальная дока
- GitHub
- Примеры использования
Команда TGI из HuggingFace реально постаралась!
Теперь прямо "из коробки" вы получаете улучшения по сравнению с vLLM — и всё это без настройки. Всё, что нужно, — это указать Hugging Face model ID.
Основные моменты релиза:
🚀 Рывок в производительности:
- 3x больше токенов: TGI обрабатывает в 3 раза больше токенов.
- 13x быстрее: На длинных промптах ответы генерируются в 13 раз быстрее, чем в vLLM.
- Zero config: Никакой настройки, просто работай!
Подробности:
3x больше токенов
- Cократили потребление памяти, что позволяет обрабатывать значительно больше токенов.
- На одной L4 (24GB) TGI тянет 30k токенов на llama 3.1-8B, тогда как vLLM справляется с едва ли 10k.
- Огромная работа была проделана, чтобы уменьшить runtime и оптимизировать работу на ограниченных ресурсах.
13x быстрее
- На длинных промптах (200k+ токенов) время ответа в vLLM составляет 27,5 секунд, а в TGI — всего 2 секунды.
- Как это работает? Cохраняется первоначальный разговор, так что новый ответ можно сгенерировать почти мгновенно. Задержка при поиске — всего ~5us.
Zero config
- Убирайте все ваши флаги — скорее всего, вы получите лучшую производительность без них.
- TGI автоматически подбирает оптимальные значения в зависимости от оборудования и модели.
- В продакшене у нас больше нет флагов в деплоях (но для редких сценариев они остаются доступны).
Доку смотри тут:
👉 Документация по TGI
Теперь прямо "из коробки" вы получаете улучшения по сравнению с vLLM — и всё это без настройки. Всё, что нужно, — это указать Hugging Face model ID.
Основные моменты релиза:
🚀 Рывок в производительности:
- 3x больше токенов: TGI обрабатывает в 3 раза больше токенов.
- 13x быстрее: На длинных промптах ответы генерируются в 13 раз быстрее, чем в vLLM.
- Zero config: Никакой настройки, просто работай!
Подробности:
3x больше токенов
- Cократили потребление памяти, что позволяет обрабатывать значительно больше токенов.
- На одной L4 (24GB) TGI тянет 30k токенов на llama 3.1-8B, тогда как vLLM справляется с едва ли 10k.
- Огромная работа была проделана, чтобы уменьшить runtime и оптимизировать работу на ограниченных ресурсах.
13x быстрее
- На длинных промптах (200k+ токенов) время ответа в vLLM составляет 27,5 секунд, а в TGI — всего 2 секунды.
- Как это работает? Cохраняется первоначальный разговор, так что новый ответ можно сгенерировать почти мгновенно. Задержка при поиске — всего ~5us.
Zero config
- Убирайте все ваши флаги — скорее всего, вы получите лучшую производительность без них.
- TGI автоматически подбирает оптимальные значения в зависимости от оборудования и модели.
- В продакшене у нас больше нет флагов в деплоях (но для редких сценариев они остаются доступны).
Доку смотри тут:
👉 Документация по TGI
Оч весело провел выходные, дисеры и 1000 эксперементов в RL
Самое сложное в политиках RL добиться стабильной сходимости, а то такая стабильность что из 100 раз 2 раза сходиться на 2 сек
Короче, январские будут збс прям чувствую
Самое сложное в политиках RL добиться стабильной сходимости, а то такая стабильность что из 100 раз 2 раза сходиться на 2 сек
Короче, январские будут збс прям чувствую