autoflow
RAG на базе графа знаний. Сделали на основе TiDB Vector, LLamaIndex и DSPy
Какие приколы есть
- Диалог в виде рассуждения
- Можно редактировать граф знаний добавляя/изменяя/удаляя информацию
- Легко встроить к себе куда удобно, есть JavaScipt снипет, что бы как Jivo было, вопросики писать
GitHub
RAG на базе графа знаний. Сделали на основе TiDB Vector, LLamaIndex и DSPy
Какие приколы есть
- Диалог в виде рассуждения
- Можно редактировать граф знаний добавляя/изменяя/удаляя информацию
- Легко встроить к себе куда удобно, есть JavaScipt снипет, что бы как Jivo было, вопросики писать
GitHub
Ну че походу Sora слили
Бета тестировщики слили в сеть Sora в качестве протеста против ИИ
Слили ли веса модели? ХзХзХз
Точно слили примеры генерации
Бета тестировщики слили в сеть Sora в качестве протеста против ИИ
Слили ли веса модели? ХзХзХз
Точно слили примеры генерации
This media is not supported in your browser
VIEW IN TELEGRAM
В продолжение вчерашних новостей....
SmolVLM
Hugging Face объявила о выпуске SmolVLM, компактной VLM с 2B параметров, разработанной для выполнения локального инференса. SmolVLM превосходит все модели с аналогичным использованием GPU RAM и скоростью обработки токенов.
- SmolVLM генерирует токены в 7,5–16 раз быстрее, чем Qwen2-VL.
- В то время как другие модели такого размера не всегда можно запустить, SmolVLM стабильно генерирует 17 токен/сек на MacBook M1.
- Модель SmolVLM можно дообучить в Google Colab или использовать для обработки документов обычные GPU (не серверные).
- Кроме того, SmolVLM превосходит более крупные модели в видеотестах, несмотря на то, что она не была обучена на видео.
Демо
HuggingFace
Hugging Face объявила о выпуске SmolVLM, компактной VLM с 2B параметров, разработанной для выполнения локального инференса. SmolVLM превосходит все модели с аналогичным использованием GPU RAM и скоростью обработки токенов.
- SmolVLM генерирует токены в 7,5–16 раз быстрее, чем Qwen2-VL.
- В то время как другие модели такого размера не всегда можно запустить, SmolVLM стабильно генерирует 17 токен/сек на MacBook M1.
- Модель SmolVLM можно дообучить в Google Colab или использовать для обработки документов обычные GPU (не серверные).
- Кроме того, SmolVLM превосходит более крупные модели в видеотестах, несмотря на то, что она не была обучена на видео.
Демо
HuggingFace
Хайп по LLM спадает
Если наложить график создания LLM то придем прямо к Gartner Hype Cycle. Этот тренд виден как по анонсам от крупных компаний, так и в OpenSource (HuggingFace)
Мы прошли этап Завышиных ожиданий (Peak of Inflated Expectations), и прямо сейчас находимся/скримимся к спаду разочарований (Trough of Disillusionment)
Думаю к концу следующего года придем к плато продуктивности.
Если наложить график создания LLM то придем прямо к Gartner Hype Cycle. Этот тренд виден как по анонсам от крупных компаний, так и в OpenSource (HuggingFace)
Мы прошли этап Завышиных ожиданий (Peak of Inflated Expectations), и прямо сейчас находимся/скримимся к спаду разочарований (Trough of Disillusionment)
Думаю к концу следующего года придем к плато продуктивности.
screenshot-to-code
Тулза для преобразования скринов, макетов и дизайнов в функциональный кодес.
Работает средне, но пока что это лучшее что есть в этой теме.
GitHub
Тулза для преобразования скринов, макетов и дизайнов в функциональный кодес.
Работает средне, но пока что это лучшее что есть в этой теме.
GitHub
Они умнеют милорд.
Тянки на патриках стали искать конретно эмельщиков и датасатанистов для отношений.
Ну че 4 года зубрешки матана скоро окупятся?
Тянки на патриках стали искать конретно эмельщиков и датасатанистов для отношений.
Ну че 4 года зубрешки матана скоро окупятся?