На каком языке «мыслят» большие языковые модели

unnamed

Новое исследование EPFL проливает свет на внутренние механизмы обработки многоязычных данных в LLM, что критично для понимания принципов работы современных языковых моделей и их оптимизации. Исследователи применили метод Logit lens для анализа скрытых состояний в слоях моделей семейства Llama-2, чтобы понять, как происходит обработка инференса на разных языках.

Основные выводы:

  • Процесс обработки языка в LLM проходит через три distinct states;
  • На средних слоях наблюдается доминирование английского языка;
  • Модель оперирует не прямым переводом, а абстрактными концептами.

Обучение и тестирование моделей

Модели Llama-2 7B, 13B и 70B обучались на датасете, где почти 90% данных составляли англоязычные тексты, при этом даже малая доля в 0.13% токенов на китайском включала 2.6 миллиарда образцов. На всех моделях наблюдался схожий паттерн обработки многоязычных данных.

Используя метрики энергии и энтропии, исследователи EPFL детально проанализировали процесс обработки многоязычных данных в недрах трансформера. Выявлены три четких фазы обработки информации:

Фаза 1 — Начальное представление (Initial representation):

  • Характеризуется высокой энтропией около 14 бит
  • Низкая энергия токенов указывает на то, что модель еще не пытается предсказывать следующий токен
  • Отсутствует доминирование какого-либо языка
  • На этом этапе модель формирует базовые представления входных токенов, сохраняя максимальную гибкость для дальнейшей обработки

Фаза 2 — Концептуальная обработка (Conceptual processing):

  • Энтропия резко падает до 1-2 бит
  • Энергия остается низкой, что говорит о продолжающемся процессе обработки
  • Начинает доминировать английский язык, но это связано с преобладанием английского в тренировочных данных
  • В этой фазе формируются абстрактные концепции и смысловые связи

Фаза 3 — Генерация на целевом языке (Target language generation):

  • Энергия токенов возрастает до 20-30%, что указывает на активную подготовку к генерации ответа
  • Энтропия остается низкой, показывая высокую определенность в выборе следующего токена
  • Доминирует целевой язык
  • Происходит проецирование абстрактных концепций в конкретные языковые конструкции выходного языка

Эти наблюдения подтверждают, что процесс не является простым последовательным переводом, а представляет собой сложную трансформацию информации через промежуточное концептуальное представление.

Результаты исследования

Исследование EPFL опровергает распространенную гипотезу о последовательном переводе в LLM. Ранее считалось, что модели сначала преобразуют входные данные в английский язык, обрабатывают их, а затем переводят обратно. Однако анализ внутренних состояний Llama-2 с помощью метода Logit lens показал более сложный процесс.

Вместо прямого перевода модель формирует промежуточный уровень абстрактных концепций — своеобразный «язык мышления». В средних слоях трансформера действительно наблюдается преобладание английского языка, но это скорее следствие доминирования английского в обучающих данных, чем необходимый этап обработки информации. На этом уровне модель оперирует абстрактными смысловыми конструкциями, которые затем проецируются в целевой языковой домен.

Это открытие имеет важные практические следствия для развития мультиязычных моделей. Во-первых, оно объясняет удивительную эффективность LLM при работе с языками, слабо представленными в обучающих данных — модель может использовать универсальные концептуальные представления, сформированные на основе более богатых языковых данных. Во-вторых, понимание этого механизма может помочь в разработке более эффективных архитектур для zero-shot и few-shot learning, особенно для низкоресурсных языков. Наконец, это исследование открывает новые перспективы для изучения «мышления» языковых моделей и их способности к абстрактным рассуждениям.

Подписаться
Уведомить о
guest

0 Comments
Межтекстовые Отзывы
Посмотреть все комментарии

gogpt