IBM создали алгоритм для подбора оптимальной структуры нейросети без участия разработчика

Зарабатывайте (и теряйте) виртуальные состояния, изучая реальный Python

При решении задач машинного обучения разработчики подбирают архитектуры нейросетей вручную. Это трудно и занимает много времени. IBM создали алгоритм, который ускоряет поиск рациональной структуры нейросети. При этом ошибка увеличивается всего на 0,6%, а скорость обучения сокращается до 50,000 раз.

Для ускорения подбора разработчик подхода, Martin Wistuba, использовал эволюционные алгоритмы. По его словам «этот подход существенно сокращает время обучения сети».

optimization
Каждая точка на графике — мутация, каждая линия — «эволюция»

В основе эволюционного подхода лежит идея применения методов случайного подбора. Сверточная нейронная сеть «эволюционирует» с помощью случайных мутаций, пока не будет достигнута нужная точность. Подход улучшает производительность нейронной сети и сокращает время обучения. Архитектура сети может меняться и усложняться непрерывно.

Работу алгоритма сравнили с другими подходами, протестировав его на задачах классификации изображений с помощью датасетов CIFAR-10 и CIFAR-100 с размеченными изображениями. В результате время обучения сети сократилось в 50000 раз по сравнению с некоторыми подходами, а ошибка выросла всего на 0,6%.

Схема демонстрирует процесс оптимизации нейросети и снижения error rate во времени. Некоторые из этапов пропущены.

network evolution

В будущем алгоритм интегрируют в облачные сервисы IBM.

Подписаться
Уведомить о
guest

0 Comments
Межтекстовые Отзывы
Посмотреть все комментарии

gogpt