DTM: новая аппаратная архитектура снижает энергопотребление до 10000 раз по сравнению с GPU

1 ноября 2025

DTM: новая аппаратная архитектура снижает энергопотребление до 10000 раз по сравнению с GPU

Исследователи из Extropic Corporation представили эффективную аппаратную архитектуру для вероятностных вычислений, основанную на Denoising Thermodynamic Models (DTM). Анализ показывает, что устройства на базе этой архитектуры могут достичь паритета производительности с…

Metaflow: фреймворк для управления data science проектами от Netflix

7 декабря 2019

Metaflow: фреймворк для управления data science проектами от Netflix

Netflix опубликовали фреймворк на Python для создания и управления data science проектов. Metaflow представляет собой API к инфраструктуре для запуска ML пайплайнов: от прототипирования до внедрения в продукт. Библиотека была…

NVIDIA Turing GPU и Xavier установили рекорд по скорости на MLPerf

14 ноября 2019

NVIDIA Turing GPU и Xavier установили рекорд по скорости на MLPerf

MLPerf — это открытая платформа для тестирования оборудования для обучения ML-моделей. Продукты от NVIDIA, — Turing GPU и система Xavier, — заняли первые места на MLPerf Inference 0.5 по скорости…

Какие ошибки чаще всего совершают при обучении нейросетей

6 ноября 2019

Какие ошибки чаще всего совершают при обучении нейросетей

Исследователи из USI выделили основные проблемы, с которыми сталкиваются разработчики при обучении нейросетей. Выборка состояла из 1059 проблем и коммитов ML-репозиториев на GitHub, которые были вручную проанализированы. Чтобы валидировать выделенный…

Gradient: инструмент для обучения ML моделей на GPU

1 ноября 2019

Gradient: инструмент для обучения ML моделей на GPU

Компания Paperspace опубликовала инструмент для обучения ML алгоритмов на бесплатных GPU. Gradient Community Notebooks — это бесплатный облачный GPU сервис, который основан на Jupyter ноутбуках.  Настройка и поддержка окружения для…

Как упорядочить работу с моделями машинного обучения

22 октября 2019

Как упорядочить работу с моделями машинного обучения

MLFlow, DVC и Sacred — это три инструмента для поддержки воспроизводимости моделей машинного обучения. Каждый из них решает отдельные задачи. DVC приоритезирует воспроизводимость моделей простоте использования. MLFlow используется  для проверки…

CrypTen: инструмент для обучения моделей на зашифрованных данных

15 октября 2019

CrypTen: инструмент для обучения моделей на зашифрованных данных

CrypTen — это обертка над PyTorch для обучения нейросетевых моделей на зашифрованных данных. Это снимает ограничения в использовании PyTorch в задачах, где секретность данных приоритетна. Несмотря на прогресс в обучении…

Sotabench: платформа с лучшими моделями для отдельных задач

15 октября 2019

Sotabench: платформа с лучшими моделями для отдельных задач

Sotabench — это платформа для агрегации и ранжирования моделей, которые решают отдельные задачи. Любой желающий может проверить свою модель на доступных задачах и сравнить с остальными моделями. На текущий момент…

Hydra: фреймворк для разработки приложений Python

14 октября 2019

Hydra: фреймворк для разработки приложений Python

Facebook опубликовали фреймворк для разработки приложений на Python, — Hydra. Python является наиболее популярным языком для обучения нейросетевых моделей. Hydra может быть полезен для прототипирования приложений с использование нейросетей. В…

Популярность PyTorch в среднем выросла на 243% за год

11 октября 2019

Популярность PyTorch в среднем выросла на 243% за год

Исследователи из The Gradient опубликовали сравнительное исследование популярности фреймворков PyTorch и TensorFlow. Исследование основывается на данных крупных ML-конференций: CVPR, NAACL, ACL, ICLR, ICML и др. Использование PyTorch в среднем выросло…

Google опубликовали финальную версию Tensorflow 2.0

1 октября 2019

Google опубликовали финальную версию Tensorflow 2.0

TensorFlow 2.0 — это более гибкий фреймворк для обучения ML-моделей от Google. Он основан на высокоуровневой библиотеке над TensorFlow 1.x, — Keras. Ключевые отличия новой версии заключаются в дефолтных eager…

HuggingFace опубликовали библиотеку с трансформерами для TF

29 сентября 2019

HuggingFace опубликовали библиотеку с трансформерами для TF

Transformers 2.0 — это библиотека со всеми state-of-the-art моделями для предобработки естественного языка на TensorFlow. Использование библиотеки позволяет сократить количество строк кода для обучения модели до 3-х. Разработчиками библиотеки являются…

Как выдавать предсказания с BERT-Large за 5.8 миллисекунд

20 сентября 2019

Как выдавать предсказания с BERT-Large за 5.8 миллисекунд

NVIDIA обновили инструмент для ускорения инференса модели TensorRT 6. В новой версии TensorRT оптимизировали BERT-Large. BERT-Large — это полная версия модели BERT, state-of-the-art модели в обработке естественного языка. Теперь есть…

ABlaze: как проводят A/B тесты в Netflix

16 сентября 2019

ABlaze: как проводят A/B тесты в Netflix

ABlaze — это проприетарный фреймворк для проведения A/B тестов. Netflix рассказали, как в компании работает система аналитики. Перед внедрением ML-моделей в продукт компании оценивают с помощью A/B тестов, как модель…

NVIDIA выпустили обертку над PyTorch для обучения моделей

16 сентября 2019

NVIDIA выпустили обертку над PyTorch для обучения моделей

Neural Modules (NeMo) — это библиотека от NVIDIA для обучения нейросетевых моделей. NeMo основана на PyTorch. NeMo делится на коллекции моделей для задач из отдельных сфер. Сейчас доступны две коллекции:…

Google открыли разработку компилятора для ML-моделей

10 сентября 2019

Google открыли разработку компилятора для ML-моделей

Google отдают разработку инфраструктуры для обучения ML-моделей организации open-source разработчиков LLVM Foundation. Ранее Google анонсировали MLIR, компилятор для внедрения ML-моделей в приложения. MLIR позволяет исполнять модели на разных устройствах. Компания…

PyTorchPipe: инструмент для обучения нейросетей от IBM

12 июля 2019

PyTorchPipe: инструмент для обучения нейросетей от IBM

PyTorchPipe (PTP) — это фреймворк, который облегчает создание и поддержание системы обучения нейросети. PTP разбит на блоки по этапам обучения нейросети, которые связываются в единую систему.  Блоки PTP — это…