Chess Transformer: нейросеть учится играть в шахматы

Chess Transformer — это языковая модель, которую обучили игре в шахматы. Нейросеть предсказывает следующий ход на основе истории ходов в игре. Transformer-модель обучалась на 2.8 миллионах шахматных партий в Portable Game Notation. Разработчики опубликовали Colab-ноутбук, в котором можно сыграть партию в шахматы с моделью.

Детали обучения

В качестве архитектуры трансформера использовали GPT-2 с 774 миллионами параметров. GPT-2 является state-of-the-art генеративной моделью для задач обработки естественного языка. Разработкой модели занимались исследователи из OpenAI.

 Дообучали модель в течение 30 тыс. шагов. Обученная модель корректно фильтрует некорректные ходы и демонстрирует такие стратегии защиты, как, например, Slav Exchange

Пример механизма внимания в Chess Transformer

Chess Transformer является примером того, что transformer-модели, изначально адаптированные для работы с NLP задачами, способны решать более общие задачи стратегического моделирования.

Подписаться
Уведомить о
guest

0 Comments
Межтекстовые Отзывы
Посмотреть все комментарии

gogpt