This media is not supported in your browser
VIEW IN TELEGRAM
NEO — это первый автономный AI-инженер для машинного обучения, который автоматизирует весь рабочий процесс.
Глянул пару видосов, берут датасет с кагла, ставят задачу как из кагла, и типо он реально решает задачу с размышелниями действиями и тд.
Если честно выглядит так, как будто бы они со сканили десяток ноутов с кагла и просто запускают лучший и типо вот смотрите все круто.
А в итоге окажется что там тысячи индусов😂
Сайтец
Глянул пару видосов, берут датасет с кагла, ставят задачу как из кагла, и типо он реально решает задачу с размышелниями действиями и тд.
Если честно выглядит так, как будто бы они со сканили десяток ноутов с кагла и просто запускают лучший и типо вот смотрите все круто.
А в итоге окажется что там тысячи индусов
Сайтец
Please open Telegram to view this post
VIEW IN TELEGRAM
Обновил список инструментов
- Добавил новую категорию AI Agent Platform
- Добавил больше инструментов для Model Registry
- Добавил больше инструментов для Experiment Management
https://tools.mlpops.ru
- Добавил новую категорию AI Agent Platform
- Добавил больше инструментов для Model Registry
- Добавил больше инструментов для Experiment Management
https://tools.mlpops.ru
👍5
Media is too big
VIEW IN TELEGRAM
Бэн Афлек поясняет за генеративный ИИ в киноиндустрии
Ну так то да, по факту раскидал, генеративный ии не будет актеров заменять, а будет бустить продакшн, в плане монтажа спецэффектов и тд
Уже есть плагины для Davinci, Final Cut в который ты грузишь свой подкаст указываешь где какой спикер и он по красоте нарезает, вырезает все нелепые места, оставляя только контент
Ну так то да, по факту раскидал, генеративный ии не будет актеров заменять, а будет бустить продакшн, в плане монтажа спецэффектов и тд
Уже есть плагины для Davinci, Final Cut в который ты грузишь свой подкаст указываешь где какой спикер и он по красоте нарезает, вырезает все нелепые места, оставляя только контент
❤1
10 комманд из 10 LLM-Агентов пишут книгу в real-time
Эти агенты пишут книгу. "Terminal Velocity". Тема книги - исследование темы сознания, этического развития ИИ и сотрудничества человека и ИИ посредством множества взаимосвязанных повествований:
Там есть 10 команд LLM-Агентов состоящяя из:
- Спецификационный агент: Анализирует требования к сюжету и поддерживает нарративную согласованность
- Продакшн агент: Генерирует контент и внедряет креативные изменения
- Управляющий агент: Координирует работу между агентами и отслеживает творческий процесс
- Агент по оценке: Проверяет качество и тематическую резонансность
- Хроникер: Документирует творческий путь
- Документалист: Управляет исследованиями и ссылками
- Агент по дублированию: Обеспечивает оригинальность и предотвращает избыточность
- Редактор: Уточняет прозу и поддерживает стиль
- Тестировщик: Проверяет нарративную согласованность и техническую точность
Есть репа такая, в нее каждые 10-30 минут, прилетает коммит из одной групп, другая группа подхватывает и делает свою задачу.
Нахера и главное зачем, я хз
Выглядит круто, ждем на Amazon за $300
Эти агенты пишут книгу. "Terminal Velocity". Тема книги - исследование темы сознания, этического развития ИИ и сотрудничества человека и ИИ посредством множества взаимосвязанных повествований:
Там есть 10 команд LLM-Агентов состоящяя из:
- Спецификационный агент: Анализирует требования к сюжету и поддерживает нарративную согласованность
- Продакшн агент: Генерирует контент и внедряет креативные изменения
- Управляющий агент: Координирует работу между агентами и отслеживает творческий процесс
- Агент по оценке: Проверяет качество и тематическую резонансность
- Хроникер: Документирует творческий путь
- Документалист: Управляет исследованиями и ссылками
- Агент по дублированию: Обеспечивает оригинальность и предотвращает избыточность
- Редактор: Уточняет прозу и поддерживает стиль
- Тестировщик: Проверяет нарративную согласованность и техническую точность
Есть репа такая, в нее каждые 10-30 минут, прилетает коммит из одной групп, другая группа подхватывает и делает свою задачу.
Нахера и главное зачем, я хз
Выглядит круто, ждем на Amazon за $300
👍3❤1
LLM Иисус
В Швейцарии в одной из церквей поставили "AI Jesus" внутри исповедальни.
Сделали они это вместе с лабортаторией иммерсианой реальности, внутри лабы проект назвали "Deus in Machina".
По факту там скорее всего ChatGPT с релегиозным промтом.
Интересно какой-нибудь ВШЭ поставит такой эксперемент с РПЦ? Или это оскорбление чувств?
Ох как же это похоже на сериал Американские боги.
https://www.theguardian.com/technology/2024/nov/21/deus-in-machina-swiss-church-installs-ai-powered-jesus
В Швейцарии в одной из церквей поставили "AI Jesus" внутри исповедальни.
Сделали они это вместе с лабортаторией иммерсианой реальности, внутри лабы проект назвали "Deus in Machina".
По факту там скорее всего ChatGPT с релегиозным промтом.
Интересно какой-нибудь ВШЭ поставит такой эксперемент с РПЦ? Или это оскорбление чувств?
Ох как же это похоже на сериал Американские боги.
https://www.theguardian.com/technology/2024/nov/21/deus-in-machina-swiss-church-installs-ai-powered-jesus
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
autoflow
RAG на базе графа знаний. Сделали на основе TiDB Vector, LLamaIndex и DSPy
Какие приколы есть
- Диалог в виде рассуждения
- Можно редактировать граф знаний добавляя/изменяя/удаляя информацию
- Легко встроить к себе куда удобно, есть JavaScipt снипет, что бы как Jivo было, вопросики писать
GitHub
RAG на базе графа знаний. Сделали на основе TiDB Vector, LLamaIndex и DSPy
Какие приколы есть
- Диалог в виде рассуждения
- Можно редактировать граф знаний добавляя/изменяя/удаляя информацию
- Легко встроить к себе куда удобно, есть JavaScipt снипет, что бы как Jivo было, вопросики писать
GitHub
Ну че походу Sora слили
Бета тестировщики слили в сеть Sora в качестве протеста против ИИ
Слили ли веса модели? ХзХзХз
Точно слили примеры генерации
Бета тестировщики слили в сеть Sora в качестве протеста против ИИ
Слили ли веса модели? ХзХзХз
Точно слили примеры генерации
This media is not supported in your browser
VIEW IN TELEGRAM
В продолжение вчерашних новостей....
😁3
SmolVLM
Hugging Face объявила о выпуске SmolVLM, компактной VLM с 2B параметров, разработанной для выполнения локального инференса. SmolVLM превосходит все модели с аналогичным использованием GPU RAM и скоростью обработки токенов.
- SmolVLM генерирует токены в 7,5–16 раз быстрее, чем Qwen2-VL.
- В то время как другие модели такого размера не всегда можно запустить, SmolVLM стабильно генерирует 17 токен/сек на MacBook M1.
- Модель SmolVLM можно дообучить в Google Colab или использовать для обработки документов обычные GPU (не серверные).
- Кроме того, SmolVLM превосходит более крупные модели в видеотестах, несмотря на то, что она не была обучена на видео.
Демо
HuggingFace
Hugging Face объявила о выпуске SmolVLM, компактной VLM с 2B параметров, разработанной для выполнения локального инференса. SmolVLM превосходит все модели с аналогичным использованием GPU RAM и скоростью обработки токенов.
- SmolVLM генерирует токены в 7,5–16 раз быстрее, чем Qwen2-VL.
- В то время как другие модели такого размера не всегда можно запустить, SmolVLM стабильно генерирует 17 токен/сек на MacBook M1.
- Модель SmolVLM можно дообучить в Google Colab или использовать для обработки документов обычные GPU (не серверные).
- Кроме того, SmolVLM превосходит более крупные модели в видеотестах, несмотря на то, что она не была обучена на видео.
Демо
HuggingFace
Хайп по LLM спадает
Если наложить график создания LLM то придем прямо к Gartner Hype Cycle. Этот тренд виден как по анонсам от крупных компаний, так и в OpenSource (HuggingFace)
Мы прошли этап Завышиных ожиданий (Peak of Inflated Expectations), и прямо сейчас находимся/скримимся к спаду разочарований (Trough of Disillusionment)
Думаю к концу следующего года придем к плато продуктивности.
Если наложить график создания LLM то придем прямо к Gartner Hype Cycle. Этот тренд виден как по анонсам от крупных компаний, так и в OpenSource (HuggingFace)
Мы прошли этап Завышиных ожиданий (Peak of Inflated Expectations), и прямо сейчас находимся/скримимся к спаду разочарований (Trough of Disillusionment)
Думаю к концу следующего года придем к плато продуктивности.