Встречаемся на митапе по машинному обучению: в программе — эксперты Т-Банка и Smart Engines, которые приготовили для вас три доклада о компьютерном зрении:
  • обсудим текущий уровень развития VisualLM и основные инсайты по их обучению;
  • рассмотрим технологии Text2Img-моделей через призму задачи переноса стиля;
  • узнаем, как квантовать модели для edge-устройств, сохраняя высокую точность.
Сразу после докладов — время для дискуссий и нетворкинга. Сможете пообщаться со спикерами и задать им вопросы, поближе узнать единомышленников и обсудить важные темы.

Больше новостей комьюнити — в телеграм-канале «Желтый AI».

Доклады

19:00 – 19:40
Методы переноса стиля в современных Text2Img-моделях
За последние годы область генеративного искусственного интеллекта претерпела значительные изменения благодаря развитию Text2Img-моделей, которые могут создавать реалистичные изображения на основе текстовых описаний. Я рассмотрю ключевые технологии, лежащие в основе этих моделей, и их применение в сфере переноса стиля. 
Обсужу с вами современные подходы к синтезу изображений, позволяющие интегрировать художественные эффекты и стилистические особенности, сферу их использования и ограничения методов
Александр Весельев
старший исследователь-разработчик, Т-Банк
19:45 – 20:25
Как делать вычислительно-эффективные нейронные сети для edge-устройств
В последние годы нейронные сети де-факто стали стандартным инструментом во всех задачах, требующих распознавания, синтеза или сложной обработки изображений на edge-системах. В таких системах есть жесткие ограничения на время исполнения и вычислительную сложность методов и объем памяти. 
Для решения этих проблем специалисты используют комплекс подходов, которые направлены на создание компактных квантованных нейронных сетей малых разрядностей. Я расскажу о новой разработке Smart Engines — 4,6-битных квантованных нейронных сетях, которые объединяют высокую точность и вычислительную эффективность
Елена Лимонова
к.т.н., руководитель отдела оптимизации алгоритмов компьютерного зрения, Smart Engines
20:45 – 21:25
Visual Language Model в 2024, какая она?
2024 год стал большим шагом в развитии VLM-моделей, которые позволяют работать с набором изображений и текстов с помощью инструкций на естественном языке. За год эксперты выпустили сотни статей об аспектах визуально-текстовой мультимодальности и десятки открытых VLM-моделей разного размера и направленности. Я проанализировал их и теперь расскажу о новых инженерных идеях и инсайтах 2024 года в построении сильной VLM, поделюсь современными VLM-приложениями и их ограничениями
Максим Евдокимов
исследователь-разработчик, Т-Банк
Регистрация на митап
Все поля обязательны для заполнения
Регистрируясь, я соглашаюсь с правилами поведения на мероприятии

Подписывайтесь на Т-Банк