Глубокое обучение в облаке: полный список GPU провайдеров

24 октября 2018

Глубокое обучение в облаке: полный список GPU провайдеров

Использование облачных GPU для машинного обучения — один из лучших способов выполнения высокопроизводительных вычислений. Не нужно приобретать дорогостоящую аппаратуру и ПО, нанимать специалистов для обслуживания. Публикуем список облачных платформ –…

Использование облачных GPU для машинного обучения один из лучших способов выполнения высокопроизводительных вычислений. Не нужно приобретать дорогостоящую аппаратуру и ПО, нанимать специалистов для обслуживания. Публикуем список облачных платформ – провайдеров ресурсов, сервисов и услуг для облачных вычислений.

Список провайдеров

1 Alibaba https://www.alibabacloud.com
2 AWS EC2 https://aws.amazon.com/machine-learning/amis
3 AWS Sagemaker https://aws.amazon.com/sagemaker
4 Cirrascale http://www.cirrascale.com
5 Cogeco Peer 1 https://www.cogecopeer1.com
6 Crestle https://www.crestle.com
7 Deep Cognition https://deepcognition.ai
8 Exoscale https://www.exoscale.com
9 FloydHub https://www.floydhub.com/jobs
10 Google Cloud https://cloud.google.com/products/ai
11 Google Colab https://colab.research.google.com
12 GPUEater https://www.gpueater.com
13 Hetzner https://www.hetzner.com
14 IBM Watson https://www.ibm.com/watson
15 Kaggle https://www.kaggle.com
16 Lambda https://lambdalabs.com
17 LeaderGPU https://www.leadergpu.com
18 Microsoft Azure https://azure.microsoft.com
19 Nimbix https://www.nimbix.net
20 Oracle https://cloud.oracle.com
21 Outscale https://en.outscale.com
22 Paperspace https://www.paperspace.com
23 Penguin Computing https://www.penguincomputing.com
24 Rapid Switch https://www.rapidswitch.com
25 Rescale https://www.rescale.com
26 Salamander https://salamander.ai
27 Snark.ai https://snark.ai
28 Tensorpad https://www.tensorpad.com
29 Vast.ai https://vast.ai
30 Vectordash https://vectordash.com

Архитектура Turing от Nvidia: что она дает и как получить максимум производительности

24 сентября 2018
Turing SDK

Архитектура Turing от Nvidia: что она дает и как получить максимум производительности

Архитектура Turing – одно из главных достижений в компьютерной графике за 20 лет, по заявлению самой Nvidia. Turing SDK теперь доступен для разработчиков. Дизайнеры и художники могут создавать контент с улучшенной…

Архитектура Turing – одно из главных достижений в компьютерной графике за 20 лет, по заявлению самой Nvidia. Turing SDK теперь доступен для разработчиков. Дизайнеры и художники могут создавать контент с улучшенной графикой, фотореалистичным рендерингом, использовать AI для обработки изображений и видео в режиме реального времени с помощью NVIDIA RTX. Рассказываем о разработках Nvidia, которые помогут исследователям раскрыть все возможности новой архитектуры.

CUDA 10

CUDA 10 включает поддержку Turing GPUs, оптимизированных по производительности библиотек, новую асинхронную модель программирования графов, улучшенную интеграцию CUDA и графического API и новые инструменты разработки. CUDA 10 также предоставляет все составляющие, необходимые для создания серверных платформ NVIDIA для AI и нагрузок высокопроизводительных вычислений (HPC), как локально (DGX-2), так и в облаке (HGX-2).

TensorRT 5 (доступен с 20 сентября)

TensorRT 5 показывает до 40 раз производительность вывода по сравнению с CPUs благодаря новым оптимизациям, APIs и поддержке Turing GPUs. Он оптимизирует точность в рекомендательные системах, машинном переводе, обработке естественного языка. Основными особенностями TensorRT 5 являются INT8 APIs, предлагающие новые гибкие схемы работы, оптимизация для глубокой свертки, поддержка платформ NVIDIA Drive на основе Xavier и акселератор NVIDIA DLA. Кроме того, TensorRT 5 поддерживает операционные системы Windows и CentOS. Смотрите туториал.

cuDNN 7.3

Главные особенности фреймворка cuDNN 7.3 — улучшенная сгруппированная свертка для формата данных NHWC и расширенная производительность сверток для ResNet50, DeepSpeech2 и Wavenet.

NCCL 2.3

Фреймворки, использующие NCCL 2.3 и более поздние версии, заточены на работу с архитектурами Volta и Turing для обеспечения высокой производительности многоузловых и многопроцессорных вычислений глубокого обучения. Новые функции включают улучшенные алгоритмы с низкой задержкой для сообщений небольших размеров и удобная регулировка при использовании графических процессоров Direct P2P и RDMA.

CUTLASS 1.1

CUTLASS 1.1 позволяет использовать Tensor Cores Turing для высокопроизводительного умножения матриц в CUDA C ++. Новые особенности включают поддержку CUDA 10 и новых матричных функций для доступа к Turing.

NVIDIA RTX — NGX SDK

Архитектура Turing заточена под новейшее GPU — Nvidia RTX. Стоимость новых видеокарт — от $599 до $1199. NGX — новый технологический стек, в котором реализованы алгоритмы, которые ускоряют и улучшают графику, обработку изображений и видео непосредственно в приложениях. NGX SDK использует предварительно подготовленные сети, что позволяет разработчикам легко интегрировать алгоритмы.

SDK будет доступен в ближайшее время.

VRWorks Graphics 3.0

Функциональные особенности VRWorks Graphics предлагают новый уровень визуальной точности, производительности и скорости реагирования в виртуальной реальности. Эта версия, объединенная с Turing на базе GPU, включает в себя переменную скорость раскраски (Variable Rate Shading) и визуализация в нескольких проекциях (Multi-View Rendering). Variable Rate Shading — новая технология визуализации, которая выделяет больше мощности GPU для обработки полутонов детализированных областей сцены и меньшую для менее подробных участков.

Multi-view рендеринг
Multi-view рендеринг

Multi-View Rendering расширяет возможности Single Pass Stereo, увеличивая количество проекционных центров или представлений для одного прохода с двух до четырех. Все четыре вида, доступные за один проход, теперь не зависят от положения и перемещаются вдоль любой оси в проекционном пространстве, что позволяет поддерживать новые конфигурации дисплея.

Инструменты разработчика

Nsight Compute 1.0

NVIDIA Nsight Compute — это инструмент нового поколения, который обеспечивает интерактивную отладку CUDA API и профилирование ядра. Эта версия Nsight Compute предлагает быстрый сбор данных о показателях производительности и отладке API с помощью пользовательского интерфейса и командной строки.

Nsight Systems 2018.2

NVIDIA Nsight Systems — это инструмент для анализа производственных характеристик, позволяющий разработчики оптимизировать программное обеспечение, например, выявлять узкие места в процессорах и графических процессорах. Обновления в Nsight Systems 2018.2 включают поддержку CUDA 10, обновление интерфейса командной строки для реализации новых сценариев использования, улучшенную совместимость и удобство использования.

Nsight Graphics 2018.5

Nsight Graphics — автономный инструмент разработки, позволяющий отлаживать, профилировать и экспортировать фреймы, созданные с помощью популярных графических API. Версия 2018.5 обеспечивает публичную доступность GPU Trace, поддерживает расширения Direct3D 12 DXR и Vulkan Ray Tracing, расширяет функционал для DirectX 12 и поддерживает Windows RS3 DirectX 12 SDK.

Nsight VSE 6.0

NVIDIA Nsight Visual Studio Edition — это среда разработки приложений для GPUs, которая позволяет создавать, отлаживать, профилировать и отслеживать набор приложений. Обновления в Nsight VSE 6.0 включают графическую отладку с поддержкой трассировки лучей, расширенную отладку и анализ с поддержкой CUDA 10.


Интересные статьи:

Сравнение GPU для машинного обучения: Amazon, Google, IBM

25 июня 2018
GPU для машинного обучения

Сравнение GPU для машинного обучения: Amazon, Google, IBM

Результаты тестов популярных GPU для машинного обучения: Amazon AWS, Google Cloud Engine, Hetzner, Leader GPU, IBM, Paperspace. Тестируемые GPU платформы  В этот тест включены: Amazon Web Services AWS EC2, Google Cloud Engine…

Результаты тестов популярных GPU для машинного обучения: Amazon AWS, Google Cloud Engine, Hetzner, Leader GPU, IBM, Paperspace.

Тестируемые GPU платформы 

В этот тест включены: Amazon Web Services AWS EC2, Google Cloud Engine GCE, IBM Softlayer, Hetzner, Paperspace and LeaderGPU.

Поскольку многие современные задачи машинного обучения используют графические процессоры, понимание компромиссов по стоимости и производительности различных поставщиков GPU становится решающим.

Я хотел бы поблагодарить провайдеров GPU для машинного обучения за любезное предоставление нам тестовых кредитов и отличную поддержку в течение всего моего тестирования. Каждая платформа имеет свои собственные плюсы и минусы, а рынок GPUaaS — очень интересное и оживленное пространство.

Отмечу что, единственный крупный провайдер, который не отвечал, на самом деле у нас не было ответа даже по официальным каналам поддержки, был Microsoft Azure. Сделайте свои собственные выводы.

Мы рассмотрим два типа графических процессоров на основе цен инстансов на каждой платформе — «low-end» и «high-end» (см. Таблицу 1). Цель состоит в том, чтобы показать, стоят ли дорогие инстансы своих денег.

Настройка Benchmark для машинного обучения

Постановка задачи

В RARE Technologies, мы часто занимаемся проблемами обработки естественного языка (NLP), поэтому я остановился на задаче классификации настроений для бенчмарка. Двунаправленная сеть долгой краткосрочной памяти (LSTM) обучается выполнять двоичную категоризацию твитов. Выбор алгоритма не очень важен; моим единственным истинным требованием для этого бенчмарка является то, что он должен загружать GPU. Чтобы обеспечить максимальное использование графического процессора, я воспользовался быстрой реализацией LSTM Keras (v2.1.3), поддерживаемой CuDNN — слоем CuDNNLSM.

Набор данных

В качестве набора данных мы взяли Twitter Sentiment Analysis Dataset, содержащий 1 578 627 классифицированных твитов, каждая строка помечена 1 для положительной тональности и 0 для отрицательной тональности. Модель обучается в течение 4 эпох на 90% перемешанных данных, а оставшиеся удерживаемые 10% используются для оценки модели.

Docker

В целях воспроизводимости я создал Nvidia Docker image, который содержит все зависимости и данные, необходимые для повторного запуска этого бенчмарка . Dockerfile и весь необходимый код можно найти в этом архиве Github.

Мы публикуем настройки и код в полном объеме, не только для того, чтобы каждый мог воспроизвести эти результаты, но так же чтобы вы могли подключить свою собственную HW платформу или другой алгоритм выбора, чтобы сделать свой собственный бенчмарк.

Результаты

GPU для машинного обучения
Таблица 1: сводка результатов тестов GPU для машинного обучения

* Это multiple GPU инстансы, в которых модели прошли обучение на всех графических процессорах с использованием функции multi_gpu_model, которая позже была признана не оптимальной при использовании нескольких графических процессоров.

** Это multiple GPU инстансы, в которых модели прошли обучение с использованием только одного из своих графических процессоров из-за вышеуказанных причин.

+ Hetzner предоставляет выделенные серверы ежемесячно. Цифры здесь отражают почасовые пропорциональные затраты.

Простота заказа, настройки и удобство пользования

Я прокомментировал опыт использования AWS, Softlayer и GCE в моем предыдущем сообщении. Заказать инстанс на LeaderGPU и Paperspace было проще простого без каких-либо сложных настроек. Время предоставления ресурсов для Paperspace и LeaderGPU было порядка пары минут, по сравнению с AWS или GCE, которые предоставили в течение нескольких секунд.

LeaderGPU, Amazon и Paperspace предлагают в свободном доступе Deep Learning Machine Images, которые идут в комплекте с предустановленными драйверами Nvidia вместе со средой разработки Python, и Nvidia-Docker необходим полностью для немедленного начала экспериментов. Для облегчения жизни, особенно для начинающих пользователей, которые просто хотят экспериментировать с моделями машинного обучения, я настроил все с нуля (за исключением LeaderGPU) по старым правилам, чтобы оценить легкость настройки экземпляра по индивидуальным потребностям. В этом процессе я столкнулся с несколькими проблемами, присущими всем платформам, такими как несовместимость драйвера NVIDIA с установленной версией gcc или использование GPU, достигающее 100% после установки драйвера без каких-либо доказательств текущего процесса. Неожиданно, запуск моего Docker на low-end инстансе Paperspace (P6000) привел к ошибке. Эта проблема была вызвана тем, что Tensorflow on Docker строился из источника с оптимизацией ЦП (MSSE, MAVX, MFMA), который Paperspace инстанс не поддерживал. Запуск Docker без этих оптимизаций исправил ошибку.

Что касается стабильности, я не сталкивался с какой-либо проблемой с любой из платформ.

Стоимость

Неудивительно, что выделенные серверы — лучший вариант, чтобы держать расходы под контролем. Это объясняется тем, что Hetzner ежемесячно взимает плату, что приводит к чрезвычайно низким почасовым ценам. На рисунке показаны пропорциональные затраты. Конечно, это справедливо только в том случае, если у вас необходимое количество задач, чтобы сервер был достаточно занят. Среди поставщиков виртуальных инстансов Paperspace является явным победителем. В два раза дешевле обучать модель на Paperspace, чем на AWS в сегменте низкопроизводительных графических процессоров. Кроме того, Paperspace демонстрирует аналогичную экономическую эффективность в классе высокопроизводительных графических процессоров.

Рисунок 1: Стоимость обучения двунаправленной LSTM по задаче классификации настроений в twitter (~ 1,5 миллиона твитов, 4 эпохи) на разных аппаратных платформах GPU
Рисунок 1: Стоимость обучения двунаправленной LSTM по задаче классификации настроений в twitter (~ 1,5 миллиона твитов, 4 эпохи) на разных аппаратных платформах GPU

Между AWS и GCE, похоже, происходит изменение тенденции при переходе с графических процессоров с низким уровнем производительности к высокому уровню. GCE значительно дешевле, чем AWS в классе графических процессоров с низким уровнем, и он немного дороже, чем AWS в классе графических процессоров с высокой производительностью. Это говорит о том, что дорогостоящие графические процессоры AWS могут стоить дополнительных затрат.

IBM Softlayer и LeaderGPU кажутся дорогими, в основном из-за недостаточного использования инстансов с несколькими GPU. Benchmark был выполнен с использованием фреймворка Keras, реализация которого на нескольких GPU была неожиданно неэффективной, иногда хуже, чем работа одного графического процессора на том же компьютере. Но ни одна из этих платформ не предлагает single GPU инстанс. Бенчмарк проводимый на Softlayer использовал все доступные графические процессоры, использующие multi_gpu_model, тогда как на LeaderGPU использовался только один из доступных графических процессоров. Это привело к значительным дополнительным расходам для недостаточно используемых ресурсов. Кроме того, LeaderGPU предоставляет более мощные графические процессоры, GTX 1080 Ti & Tesla V100, по тем же ценам за минуту, что и GTX 1080 и Tesla P100 соответственно. Запуск на этих серверах определенно снизил бы общие затраты. Принимая во внимание все это, стоимость low-end LeaderGPU вполне разумна. Имейте это в виду, особенно если вы планируете использовать не Keras фреймворк, который лучше использует несколько графических процессоров.

Также существует другая общая тенденция: более дешевые графические процессоры обеспечивают лучшее соотношение цена / производительность, чем более дорогие графические процессоры, что указывает на то, что сокращение времени обучения не компенсирует увеличение общей стоимости.

Замечание по подготовке обучающих мульти-графических моделей с использованием Keras

Огромному количеству людей в академических кругах и промышленности очень удобно использовать высокоуровневые API, такие как Keras для моделей глубокого обучения. Благодаря одной из наиболее приемлемых и активно разработанных систем глубокого обучения пользователи ожидают ускорения при переключении на многопроцессорную модель без какой-либо дополнительной обработки. Но это, конечно, не так, как видно из графика ниже. Ускорение довольно непредсказуемо. На графике видно, что на сервере «dual GTX 1080» скорость обучения выше, в то время как обучение с multi-GPU заняло больше времени, по сравнению с обучением на single-GPU на сервере «Dual P100». Такое же мнение отражено в других статьях и вопросах на Gidhub , с которыми я столкнулся, исследуя стоимостью.

Рисунок 2: Время обучения, проведенное с помощью multi-GPU и обучения с single-GPU на идентичных машинах с использованием Keras
Рисунок 2: Время обучения, проведенное с помощью multi-GPU и обучения с single-GPU на идентичных машинах с использованием Keras

Точность модели

Для проверки работоспособности мы проверили окончательную точность модели в конце обучения. Как видно из таблицы 1, существенных различий не было, что подтверждает, что базовое оборудование / платформа не влияет на качество обучения и что бенчмарк был правильно настроен.

Стоимость

Цены на графические процессоры часто меняются, но на данный момент AWS предоставляет графические процессоры K80, начиная с $0,9 в час, которые выставляются с шагом в одну секунду, тогда как более мощные и эффективные графические процессоры Tesla V100 стоят от $3,06 в час. Дополнительные услуги, такие как передача данных, Elastic IP адреса и оптимизированные инстансы EBS, предоставляются за дополнительную плату. GCE — экономичная альтернатива, которая предоставляет Tesla K80 и P100 по запросу, начиная с $0,45 в час и $1,46 в час. Они тарифицируются с шагом в одну секунду и предлагают значительные льготы через скидки на их использование.

Paperspace конкурирует с GCE в низкой ценовой категории со ставками для выделенных графических процессоров, начиная с Quadro M4000 по цене $0,4 в час до Tesla V100 по цене $2,3 в час. Помимо обычных почасовых сборов, они также взимают ежемесячную абонентскую плату в размере $5, включающая в себя хранение и обслуживание. Paperspace предоставляет дополнительные услуги за дополнительную плату. Hetzner предлагает только один выделенный сервер с GTX 1080 ежемесячно с дополнительной одноразовой настройкой.

IBM Softlayer — одна из немногих платформ на рынке, которая предоставляет bare metal GPU сервера на ежемесячной и ежечасной основе. IBM Softlayer предлагает 3 GPU сервера с Tesla M60s & K80s, начиная с $2,8 в час. Эти серверы имеют статическую конфигурацию, что означает, что их возможности настройки ограничены по сравнению с другими облачными провайдерами. Стоимость Softlayer с почасовыми надбавками будет финансово невыгодно и может оказаться более дорогостоящим для краткосрочных задач.

LeaderGPU, относительно новый участник на рынке, предоставляет выделенные серверы с широким спектром графических процессоров (P100, V100, GTX 1080, GTX 1080Ti). Пользователи могут воспользоваться ежемесячной, ежечасной или ежеминутной оплатой, которая рассчитывается по секундам. Серверы имеют от 2 до 8 графических процессоров, со стоимостью от 0,02 € до 0,08 € в минуту.

Спотовые/вытесняемые инстансы

Некоторые из платформ предоставляют значительные скидки (50% -90%) на их запасную вычислительную мощность (AWS spot instances and GCE’s preemptive instances), хотя скидки могут неожиданно закончиться или вновь появиться. Это приводит к крайне непредсказуемому времени обучения, так как нет никакой гарантии, когда инстанс снова появится. Это нормально для приложений, которые могут обрабатывать такие завершения, но многие задачи, например, time-bound projects будут плохо выполняться в таком случае, особенно если вы считаете потраченное рабочее время. Выполнение задач на Spot/Preemptive Instances требует дополнительного кода для корректного завершения и повторного запуска инстансов. (проверка / сохранение данных на постоянный диск и т.д.).

Кроме того, колебания спотовых цен (в случае AWS) могут привести к тому, что затраты будут в значительной степени зависеть от спроса на предложение мощности во время контрольного прогона. Нам потребуется несколько прогонов, чтобы усреднить затраты.

Поэтому, вы можете сэкономить деньги с помощью spot/preemptive инстансов, если вы будете осторожны. Что касается меня, то я не стал включать их в этот бенчмарк из-за этих осложнений.

Результаты тестов

  • Paperspace на один шаг вперед в отношении производительности и стоимости. Это особенно верно для разовых или нечастых пользователей, которые просто хотят экспериментировать с методами глубокого обучения (аналогичный вывод в другом бенчмарке).
  • Выделенные серверы (например, предоставляемые LeaderGPU) и bare metal servers, например, Hetzner подходят для пользователей, которые рассматривают долговременную работу этих ресурсов. Обратите внимание, что ваша задача прилично загружает CPU / GPU, чтобы действительно выиграть в цен
  • Новые игроки, такие как Paperspace и LeaderGPU, не должны быть списаны со счетов, поскольку они могут помочь сократить основную часть затрат. Предприятия могут быть против смены провайдеров из-за связанных инерционных и коммутационных расходов, но эти небольшие платформы, безусловно, стоит рассмотреть.
  • AWS и GCE могут быть потрясающими вариантами для тех, кто ищет объединение со своими другими сервисами (Amazon Rekognition, Google Cloud AI).
  • Если Вы не планируете выполнять задачу, выполнение которой займет несколько дней, лучше всего выбрать lower-end single-GPU инстанс с одним графическим процессором (см. также здесь).
  • Higher-End GPUs значительно быстрее, но на самом деле имеют плохую окупаемость. Вы должны выбрать их только тогда, когда короткое время обучения является приоритетней, чем затраты на оборудование.

Перевод статьи Шива Манне Machine learning mega-benchmark: GPU providers.

Kepler.gl — мощный инструмент визуализации карт от Uber с открытым исходным кодом

4 июня 2018
Kepler.gl 

Kepler.gl — мощный инструмент визуализации карт от Uber с открытым исходным кодом

Big Data — термин, который часто используется, но ни одно определение не объясняет, что это такое. Большинство людей сходятся во мнении, что big data — набор данных, который со временем растет в…

Big Data — термин, который часто используется, но ни одно определение не объясняет, что это такое. Большинство людей сходятся во мнении, что big data — набор данных, который со временем растет в геометрической прогрессии. Проще говоря, такие данные настолько объемны и сложны, что традиционные средства обработки данных и управления ими не способны эффективно обрабатывать их или управлять ими.

По мере того, как мы продвигаемся в мир искусственного интеллекта, интернета вещей (Internet of Things) и “облачных вычислений” (Cloud Computing), объем данных, которые генерируются и хранятся, растет невероятно быстрыми темпами. Big data становится еще больше, и визуализация — еще один способ использовать эти данные.

Визуализация обеспечивает доступ к огромному количеству данных в легко понимаемой форме. Хорошо продуманная графика данных, как правило, самая простая и в то же время самая удобная. Тем не менее, чтобы воспользоваться преимуществами визуализации данных и иметь возможность использовать эти данные наилучшим образом, нам нужны эффективные, хорошо продуманные инструменты визуализации, которые предоставят нам возможность манипулировать и извлекать полезную информацию.

Что такое Kepler.gl?

Разработчики из Uber выпустили новый инструмент визуализации и исследования данных под названием Kepler.gl. В Uber описывают его как высокопроизводительное веб-приложение для визуального исследования крупномасштабных наборов геолокационных данных.

Population map of New York City
Карта населения Нью-Йорка, сделанная с помощью Kepler.gl

Фактически, это гибкий инструмент визуализации карт, основанный на работе со слоями данных. Визуализации строятся путем укладки слоев данных один поверх другого. Приложение работает полностью в браузере (данные не отправляются на удаленные серверы), куда пользователи могут перетаскивать CSV или GeoJSON файлы. Автоматическое обнаружение данных включено в инструмент, поэтому Kepler.gl может аналитику сразу после загрузки данных.

Слои данных в Kepler.gl

Слои могут быть надстроены один поверх другого для создания одной общей визуализации карты, включающей различные связи между слоями. Они представляют собой базовые строительные блоки интерактивных карт Кеплер. Несмотря на то, что слои могут быть одного типа, они могут значительно отличаться:

Kepler.gl’s data layers
Немного слоёв из Kepler.gl — точки, дуги и тепловая карта (вверху), сетки, слои разбиения на пятиугольники и многоугольники (ниже)
Data visualization flow in Kepler.gl
Пять слоев данных в Kepler.gl

Как поясняется в официальном введении в Kepler от Uber: “Все вычисления геометрии слоёв ускоряются на GPU, что позволяет нам плавно отображать миллионы точек. Это делает Kepler.gl гораздо более мощным веб-инструментом, чем традиционные картографические приложения.”

Фильтры

Kepler.gl может показывать эволюцию данных во времени благодаря гибкой пространственно-временной конфигурации. Фильтры основаны на столбцах в наборах данных, их также можно использовать для управления объемом данных, представленном на картах.

Кроме того, Kepler.gl предлагает уникальную географическую функцию фильтрации под названием “чистка” (“brushing”). Чистка позволяет выделить и показать точки или дуги в пределах определенного радиуса на карте. Эта простая функция достаточно полезна, когда дело доходит до визуализации геопространственных данных (где очень часто нужны значения корреляции “источник-назначение”). Анимация ниже показывает одно из применений этого вида фильтрации.

Kepler Visualisation
Визуализация поездок из определенной области на карте

В сухом остатке

Слои данных, фильтры, базовые карты с низким контрастом и возможностью смешивания цветов делают Kepler очень гибким инструментом для создания красивых карт. Визуализации в считанные минуты можно экспортировать в статические карты или анимированные видео. Uber выложил свой инструмент open source. Ссылка на руководство “get started” Kepler.gl доступна здесь.

Перевод — Виктор Новосад, оригинал — Dane Mitrev.