В FAIR нашли пересечения данных в популярных QA датасетах

Задача open domain вопросно-ответных систем предполагает, что модель умеет отвечать на новые вопросы с помощью знаний, выученных во время обучения. Кроме того, модель должна уметь генерализовать имеющиеся знания для ответа на новые вопросы. Однако результаты на тестовом наборе данных не показывают реальное качество моделей. Исследователи в FAIR проанализировали топ-3 популярных open domain QA датасета. В 60-70% ответы на вопросы в тестовой выборке были в обучающей выборке. Кроме того, 30% тестовых вопросов имели дубликат в обучающей выборке. Затем исследователи протестировали state-of-the-art модели. Скор всех моделей падал значительно ниже, когда необходимо было дать ответ на вопрос, которого напрямую не было в обучающем сете. Среднее различие в точности предсказания между повторяющимися и неповторяющимися данными было 63%.

Подробнее про анализ

Датасеты, которые анализировали исследователи, включали в себя Natural Questions, TriviaQA и WebQuestions.

WebQuestions 

WebQuestions — это датасет из 3,778 обучающих и 2,032 тестовых пар вопросов и ответов. Вопросы вытащили из поисковой системы, а ответы — из Freebase.

TriviaQA 

TriviaQA — это датасет из 78,785 обучающих, 8,837 валидационных и 11,313 тестовых пар вопросов и ответов. Создатили соскрепили вопросы и ответа с сайтов с викторинами.

Open-Natural Questions 

Natural Questions состоит из вопросов из поисковой системы и ответов из Википедии. В обучающей, валидационной и тестовой выборках было 79,168, 8,757 и 3,610 пар вопросов и ответов.

Пример пересекающихся вопросов в Open-Natural Questions

Перед тем как искать пересечения ответов в выборках, исследователи нормализовали ответы. Пересечения вопросов определяли частично вручную с помощью разметки перефраза. Подробнее о методе поиска пересечений можно почитать в оригинальной статье.

Подписаться
Уведомить о
guest

0 Comments
Межтекстовые Отзывы
Посмотреть все комментарии

gogpt