Google Brain разработали MLP-Mixer, архитектуру компьютерного зрения на основе многослойных перцептронов

11 мая 2021

Google Brain разработали MLP-Mixer, архитектуру компьютерного зрения на основе многослойных перцептронов

MLP-Mixer — архитектура от Google Brain, которая показала высокие результаты в компьютерном зрении, используя только линейные слои. Является сопоставимой альтернативой свёрточным нейросетям и трансформерам. Код доступен на Github. Зачем это…

Оптимальная аугментация данных для задачи распознавания объектов от Google Brain

29 июня 2019
аугментация данных

Оптимальная аугментация данных для задачи распознавания объектов от Google Brain

Исследователи из Google Brain разработали метод аугментации данных, который увеличивает точность модели на 2.3 пункта для COCO и на 2.7 для PASCAL-VOC. Аугментация данных — это увеличение выборки для обучения…

Google Brain смоделировала процесс отрисовки шрифтов

10 апреля 2019
В Google Brain смоделировали процесс отрисовки шрифтов

Google Brain смоделировала процесс отрисовки шрифтов

Ученые из Google Brain исследовали, как извлечь представления высокоуровневых характеристик объектов из векторных изображений, и использовали это для генерации шрифтов в формате SVG. Несмотря на текущие успехи в применении GANов…

Google Brain оптимизировали время обучения BERT с 3-х дней до 76 минут

8 апреля 2019
google brain bert ai

Google Brain оптимизировали время обучения BERT с 3-х дней до 76 минут

Команда Google Brain представила оптимайзер LAMB, способный сократить время предобучения языковой модели BERT с 3-х дней до 76 минут (вычисления проводились на TPU). Transfer learning и проблема BERT BERT (Bidirectional…