Первый в мире сервис такси без водителей Waymo начал работу в США

6 декабря 2018
беспилотное такси waymo начало работу в сша

Первый в мире сервис такси без водителей Waymo начал работу в США

Waymo запускает первый в мире коммерческий сервис беспилотных такси. Компания пока не сообщает, когда поездки станут доступны широкой аудитории — сегодня вызвать автомобиль могут только люди, которые участвовали в предварительных…

Waymo запускает первый в мире коммерческий сервис беспилотных такси. Компания пока не сообщает, когда поездки станут доступны широкой аудитории — сегодня вызвать автомобиль могут только люди, которые участвовали в предварительных тестированиях.

Waymo принадлежит Google и в течение 10 лет занимается разработкой беспилотных автомобилей. С 2017 года компания тестирует поездки на машинах без водителей в реальных городских условиях.

Приложение для вызова такси называется Waymo One и доступно на Android и IOS. Оно работает как обычные сервисы наподобие Uber — пользователю нужно указать свое местонахождение и точку, куда нужно доехать. После этого приложение рассчитывает стоимость поездки. Как и в предварительных испытаниях, зона работы автомобилей будет ограничена городами Финикс, Чендлер, Меса, Гилберт и Темпе в штате Аризона.

Приложение Waymo One

В машине помещаются трое взрослых и один ребенок. В салоне есть специальные экраны, на которых отображается основная информация о поездке и c помощью которых пассажиры могут связаться со службой поддержки. Кроме того, на начальных этапах запуска в такси будет находиться пилот, хотя компания уже проводила испытания автомобиля без подстраховки. В Waymo подчеркивают, что пилот нужен в большей степени для психологического комфорта пассажиров, которые могут чувствовать себя неуютно в машине без водителя. 

Посмотрите видео о беспилотных автомобилях Waymo:

Нейросети от DeepMind удалось сделать прорыв в создании структуры молекулы белка

4 декабря 2018
создание молекулы белка

Нейросети от DeepMind удалось сделать прорыв в создании структуры молекулы белка

Команда разработчиков DeepMind создала новый метод предсказания трехмерной структуры белка, основываясь на его генетической последовательности. 3D-модели белков, созданные нейронной сетью AlphaFold намного точнее, чем модели предыдущих разработок. Технология поможет в…

Команда разработчиков DeepMind создала новый метод предсказания трехмерной структуры белка, основываясь на его генетической последовательности. 3D-модели белков, созданные нейронной сетью AlphaFold намного точнее, чем модели предыдущих разработок. Технология поможет в диагностике и лечении заболеваний, которые связаны с неправильным свертыванием белков — кистозный фиброз, болезни Альцгеймера, Паркинсона и Хантингтона.

Модель AlphaFold заняла первое место на конкурсе Critical Assessment of protein Structure Prediction (CASP), правильно предсказав структуру для 23 из 45 белков.

Структуры белка. Оригинальные (зеленые), предсказанные AlphaFold (голубые)

Использование нейронных сетей 

Команда сосредоточилась на сложной проблеме моделирования целевых структур белков с нуля, без использования ранее созданных белков в качестве шаблонов.

В основе метода — глубокие нейронные сети, которые обучались предсказывать свойства белка на основе его генетической последовательности. AlphaFold нужно было предсказать свойства молекул белка:

  • расстояния между парами аминокислот и
  • углы между химическими связями, которые соединяют эти аминокислоты.
Схема Alphafold
Схема алгоритма AlphaFold

Генеративная нейронная сеть создавала новые фрагменты для постоянного улучшения предлагаемой структуры белка. Ученые так же использовали метод градиентного спуска для оптимизации оценки структуры и добавления небольших улучшений в конечный результат.

Визуализация градиентного бустинга при предсказании структуры белка
Визуализация работы градиентного спуска для предсказания структуры белка

Где будут применять результаты AlphaFold

Использование ИИ для прогнозирования структуры снизит затраты и ускорит разработку эффективных лекарств. Технология также может помочь создавать новые структуры белка, которые будут бороться с загрязнениями: исследователи уже разрабатывают бактерии для секреции белков, которые сделают отходы (пластик, продукты нефтепереработки и др.) биологически разлагаемыми.

В Google разработали алгоритм для разделения звуков на видео. Он определяет говорящего с точностью 92%

19 ноября 2018

В Google разработали алгоритм для разделения звуков на видео. Он определяет говорящего с точностью 92%

Разработчики Google AI представили новый алгоритм для разделения звуковых потоков на видео. Модель разделяет аудио на сегменты и определяет, кто из участников диалога говорит в данный момент. Алгоритм работает лучше,…

Разработчики Google AI представили новый алгоритм для разделения звуковых потоков на видео. Модель разделяет аудио на сегменты и определяет, кто из участников диалога говорит в данный момент. Алгоритм работает лучше, чем подходы, основанные на кластеризации, и распознает говорящего с точностью 92,4%. Технология может применяться, например, для создания субтитров к видеозаписям в реальном времени.

Контролируемое обучение RNN

Процесс разделения аудиопотока на сегменты называется диаризацией. Другие современые подходы к диаризации используют метод kсредних или спектральную кластеризацию и обычно обучаются неконтролируемо. Ключевое отличие разработки Google в использовании обучения с учителем. Все компоненты системы, включая распознавание спикеров и работу с метками времени, обучаются контролируемо, поэтому извлекают больше пользы из размеченных данных.

Онлайн диаризация потокового аудио. Разные цвета на нижней дорожке обозначают разных спикеров.

Исследователи создали алгоритм на базе рекуррентной нейронной сети. Для каждого говорящего используется отдельная RNN. Рекуррентная нейросеть моделирует математические представления слов и фраз и постоянно обновляет данные при этом сохраняя состояние, полученное при обработке предыдущих элементов. Это позволяет модели изучать высокоуровневые признаки для каждого говорящего.

Результат

Работу алгоритма проверили с помощью тестирования NIST. Частота ошибок составила 7,6 %. Предыдущие подходы, использующие кластеризацию и глубокие нейронные сети, показали погрешность 8,8 % и 9,9%. Код модели доступен на GitHub.

Night Sight для Google Pixel: как работает новый режим ночного видения

15 ноября 2018

Night Sight для Google Pixel: как работает новый режим ночного видения

В октябре компания Google представила новую технологию съемки фотографий в ночном режиме. Night Sight использует алгоритмы машинного обучения, чтобы получить яркие и четкие снимки даже в условиях недостаточного освещения. С…

В октябре компания Google представила новую технологию съемки фотографий в ночном режиме. Night Sight использует алгоритмы машинного обучения, чтобы получить яркие и четкие снимки даже в условиях недостаточного освещения. С 14 ноября технология доступна для всех поколений Pixel.

Посмотрите сравнение, опубликованное разработчиками.  Один и тот же снимок, сделанный с помощью iPhone XS (сверху) и Pixel 3 Night Sight (снизу)

Как работает Night Sight

Прежде чем сделать снимок, камера производит множество вычислений. Pixel учитывает движение рук пользователя (или его отсутствие), движение объектов в сцене, количество света. На основе данных об освещении алгоритм регулирует выдержку. В случае с неподвижными объектами используется максимально длинная выдержка для захвата большего количества света. В Pixel установлены лимиты для экспозиций каждого кадра. Если телефон неподвижен — лимит 1 секунда, если камера в движении — 0,33 секунды. Для захвата одного изображения нужно до 15 кадров и до 6 секунд времени. 

Технология основана на алгоритме HDR+, представленном компанией в 2014 году.  Чтобы фотографии были четкими, даже если дрожит рука или объект движется, HDR+ захватывает и объединяет несколько кадров, выравнивая их с помощью программного обеспечения. Кадры, для которых невозможно найти хорошее выравнивание, не используются. Слияние нескольких снимков уменьшает шум даже при тусклом освещении, а яркость и четкость фотографии увеличиваются. Night Sight работает в диапазоне освещения между 0,3 lux и 3 lux. 

Еще один алгоритм — ABW — обучен различать баланс белого на изображении. Если цвета на фотографии не сбалансированы, он предлагает сделать их более нейтральными.

Пример работы алгоритма AWB

Как отмечают в блоге Google, лучше всего Night Sight будет работать на Pixel 3 из-за особенностей обучения алгоритмов и различиях в ПО. Также, разработчики подготовили советы для пользователей, как извлечь максимум возможностей из Night Sight.

 

Google запустила соревнование для поддержки социальных ИИ-проектов

6 ноября 2018

Google запустила соревнование для поддержки социальных ИИ-проектов

Google открыла программу AI for Social Good для поддержки проектов, которые занимаются решением глобальных экологических и социальных проблем, и запустила AI Impact Challenge — соревнование, в котором научные и общественные организации могут предложить…

Google открыла программу AI for Social Good для поддержки проектов, которые занимаются решением глобальных экологических и социальных проблем, и запустила AI Impact Challengeсоревнование, в котором научные и общественные организации могут предложить свои наработки. Лучшие проекты поделят грант в 25 млн долларов. Победителей объявят в мае 2019 на конференции Google I/O.

В блоге компании опубликованы примеры, как организации уже применяют машинное обучение в решениях глобальных проблем человечества. Среди тем: охрана природы, занятость населения, прогнозирование и предотвращение природных катастроф, здравоохранение. Компании, которые не специализируются на машинном обучении и разработке ИИ, тоже могут принять участие в соревновании. Для них Google выпустила пособие по ML.

Заявку на участие в AI Impact Challenge можно подать до 22 января 2019 года. Помимо гранта победители примут участие в программе Launchpad Accelerator и получат поддержку AIэкспертов Google и DataKind.

Google Assistant научился распознавать музыку с помощью сверточной нейросети

19 сентября 2018

Google Assistant научился распознавать музыку с помощью сверточной нейросети

В 2017 Google представила функцию для распознавания музыки Now Playing для смартфона Pixel 2. Теперь компания усовершенствовала разработку используя глубокое обучение и добавила её в Google Assistant в качестве инструмента Sound Search.…

В 2017 Google представила функцию для распознавания музыки Now Playing для смартфона Pixel 2. Теперь компания усовершенствовала разработку используя глубокое обучение и добавила её в Google Assistant в качестве инструмента Sound Search. Говорите «Окей, Google, какая это песня?», и получаете ответ меньше чем за 10 секунд.

В основе технологии свёрточная нейросеть, которая создаёт «отпечаток» песни и ищет его соответствие в базе данных. Sound Search работает быстрее и находит больше музыки, чем Now Playing, потому что операции осуществляются в облаке — инструмент не сталкивается с ограничениями при обработке и хранении данных. Это также позволило увеличить базу данных песен в 1000 раз.

Для поиска соответствия Google использует алгоритм с двумя фазами. Сначала быстрый, но неточный алгоритм анализирует всю базу данных, чтобы найти несколько похожих на фрагмент песен. Затем проводится детальный анализ каждого из подходящих треков для поиска максимального соответствия.

Google увеличили размерность эмбеддинга с 96 до 128, уменьшив объем работы, которую нейронная сеть должна делать, чтобы обработать входные данные. Качество распознавания при этом не ухудшается, но второй этап обработки проходит быстрее. Также разработчики увеличили плотность эмбеддингов: нейросеть создает уникальный отпечаток аудиоданных каждые пол секунды вместо одной секунды. Это удвоило количество эмбеддингов, которые можно использовать, чтобы найти участок записи.

Функция доступна для смартфонов на Android. Подробнее о разработке в блоге Google.

Google запустил соревнование для оценки надежности ML-моделей

17 сентября 2018

Google запустил соревнование для оценки надежности ML-моделей

Google запустил конкурс для оценки надёжности работы моделей машинного обучения в решении задач распознавания объектов на изображениях. В основе челленджа простая классификационная задача «птица или велосипед». Классификатор должен определить, точно…

Google запустил конкурс для оценки надёжности работы моделей машинного обучения в решении задач распознавания объектов на изображениях. В основе челленджа простая классификационная задача «птица или велосипед». Классификатор должен определить, точно ли на изображении птица или велосипед, или изображение было изменено.

image1
Примеры ошибок классификаторов

Участвовать в соревновании можно в качестве «атакующего» или «защитника».

Цель защитника — создать модель, которая будет правильно маркировать чистые изображений птиц и велосипедов, и работать без погрешности на изображениях птицы или велосипеда, представленных атакующим. Цель атакующего — найти или создать изображение птицы, которое классификатор уверенно назовёт велосипедом (или наоборот). Можно использовать фотографии, изменять изображения с помощью 3D-рендеринга, создавать новые изображения птиц, используя генеративные модели и другие техники.

Победителем станет участник, чей классификатор продержится и будет правильно маркировать изображения в течение 90 дней. Подробнее о челлендже можно прочитать в блоге Google. GitHub конкурса.

Google представила What-If — инструмент для тестирования работы ML-моделей без написания кода

14 сентября 2018

Google представила What-If — инструмент для тестирования работы ML-моделей без написания кода

Google AI выпустила дополнение к TensorBoard — инструмент What-If, который позволяет анализировать производительность и тестировать сценарии работы моделей ML без написания кода. С помощью Whaе-If Tool разработчики могут визуализировать и редактировать…

Google AI выпустила дополнение к TensorBoard — инструмент What-If, который позволяет анализировать производительность и тестировать сценарии работы моделей ML без написания кода.

С помощью Whaе-If Tool разработчики могут визуализировать и редактировать данные, используя Facets, анализировать графики частичной зависимости и видеть как меняются предсказания алгоритма, если изменить отдельную функцию. Кроме того, можно исследовать похожие примеры изображений из датасетов, если модель показывает для них разные результаты.

Чтобы проиллюстрировать работу What-If, Google выпустила набор демонстраций с предварительно обученными алгоритмами:

Инструмент имеет интерактивный визуальный интерфейс и доступен open source.

Google запустил Kaggle Challenge по созданию глобального классификатора изображений

12 сентября 2018
kaggle competition глобальный классификатор

Google запустил Kaggle Challenge по созданию глобального классификатора изображений

Информация в больших наборах данных с открытым исходным кодом таких как ImageNet, Open Images, Conceptual Captions часто искажена географически. В датасетах представлены данные только той страны, в которой они были…

Информация в больших наборах данных с открытым исходным кодом таких как ImageNet, Open Images, Conceptual Captions часто искажена географически. В датасетах представлены данные только той страны, в которой они были собраны. Это приводит к ошибкам моделей ML: алгоритмы работают менее эффективно на изображениях, полученных из других географических регионов.

google challenge
Примеры неточной классификации

На картинке показан классификатор изображений, обученный на наборе данных Open Images. Алгоритм неправильно применяет ярлыки, связанные со свадьбой, к изображениям свадебных традиций разных стран.

Условия конкурса

Чтобы поощрить разработку методов машинного обучения, которые будут более надежными и географически инклюзивными, обучаясь на несовершенных наборах данных, Google объявил конкурс Inclusive Images на Kaggle совместно с NIPS Competition Track.

Конкурс официально стартовал 5 сентября и завершится 5 ноября. Результаты соревнования будут представлены на конференции NIPS 2018. Призовой фонд — $25 000. Так выглядит турнирная таблица на утро 12 сентября:

kaggle challenge inclusive dataset

Соревнование состоит из трёх этапов: сначала участникам нужно обучить модель на датасете Open Images, который содержит изображения, собранные в Северной Америке и Западной Европе. На втором и третьем этапах работа моделей будет оцениваться с помощью тестовых изображений, собранных волонтёрами в других географических регионах.

Подробности в блоге Google.


Интересные статьи по теме: