Автономный транспорт: наблюдая за поведением водителей

На конференции GPU Technology Conference глава Nvidia рассказал, как нейронные сети помогут автомобилям стать действительно автономными 19 Март 2015, 10:06
Распознавание объектов — одна из основных составляющих концепции автономных автомобилей. Но что происходит потом, после того, как объект был идентифицирован? Какова должна быть «реакция» автомобиля на то или иное препятствие? Генеральный директор Nvidia Йен-Сун Хуан (Jen-Hsun Huang) в ходе выступления, состоявшегося на технологической конференции разработчиков, сказал, что поведение автономного транспортного средства не может быть выражено только лишь через условие «если… то…» — автомобиль необходимо научить поведению, которое поможет ему реагировать на самый широкий набор ситуаций.

Основной посыл доклада Хуана состоял в том, как графические процессоры Nvidia могут быть использованы для создания искусственных нейронных сетей, которые позволяют реализовать глубинное обучение (deep learning). Одно из практических применений такой технологии, которое изменит нашу жизнь и облик городов — автономный транспорт.

В январе этого года на выставке CES компания Nvidia представила Drive PX, бортовой компьютер для автономных автомобилей, использующий глубокие нейронные сети. Устройство выйдет на рынок в мае, но представители Audi уже заявили, что собираются использовать эту технологию в собственных разработках.

Обрабатывая видимый мир

Конек Nvidia — графические процессоры. Поэтому большая часть выступления главы компания содержала описание того, как компьютеры могут научиться распознавать объекты во входящих видеоданных, будь то статичные изображения или видеопоток. Для этого Nvidia «загружает» в глубокую нейронную сеть миллионы изображений, снабженных метками с названиями объектов, которые они содержат. Сеть обрабатывает изображения разбивая их на мельчайшие детали (узоры и текстуры).
Глава Nvidia Йен-Сун Хуан демонстрирует бортовой компьютер Drive PX. На заднем плане — изображения автомобиля Project Dave
Если сеть впервые сталкивается с предложенным ей изображением, она разбивает его по схожему алгоритму и сравнивает содержащиеся в нем элементы с теми, которые ей доступны. Если сличение приводит к положительному результату, компьютер может идентифицировать объекты, содержащиеся в новом изображении.

Исследования подобного рода ведутся уже полвека и Хуан сделал акцент на том, как процессоры Nvidia в 2012 году помогли осуществить качественный скачок в точности распознавания. Результаты специального теста AlexNet показывают, что глубокие нейронные сети сегодня более точны чем люди в распознавании визуальных объектов. В ходе выступления Йен-Сун Хуан продемонстрировал как сеть может не только «понять» изображен ли на картинке кот, но и определить его породу.

Такие алгоритмы будут необходимы для автомобилей будущего, которые смогут распознавать широкий набор объектов, пересекающих их маршрут в реальном мире.

Человеческие реакции

Хуан сделал следующий шаг: глубокие нейронные сети смогут решать, что необходимо предпринять автомобилю после того, как объект был распознан. По словам главы Nvidia, речь идет не о системах предотвращения столкновения, когда бортовой компьютер автомобиля, к примеру, активирует тормозную систему, если датчики обнаруживают что-то в непосредственной близости перед транспортным средством — глубинное обучение поможет справляться с более сложными ситуациями.

В качестве примера Хуан привел программу DARPA под названием Project Dave, в которой экспериментаторы научили дистанционно управляемую машину осуществлять автономное вождение. Приоритетом в обучении были не точная прокладка маршрута и не алгоритмы, описывающие реакции автомобиля на то или иное препятствие — исследователи использовали видео, отображающие то, как обычные водители реагируют на ту или иную ситуацию на дороге. В ходе реализации проекта была извлечена информация о том, как люди, находящиеся за рулем, избегают столкновения с препятствиями. Когда «обученный» автомобиль был помещен в реальную среду, он реагировал на объекты, находящиеся на пути его следования, аналогично водителям.
Компьютер Nvidia Drive PX использует два процессора Tegra X1 и может превратить обычный автомобиль в автономный
Технологии глубинного обучения позволят автомобилям будущего — как это было с программой Project Dave — более гибко подходить к решению проблемных ситуаций на дороге. 

К примеру некоторые современные системы предотвращения столкновений, установленные на автомобилях, активируются когда датчики обнаруживают яму на пути транспортного средства. Бортовой компьютер на основе глубокой нейронной сети не только точно классифицирует угрозу, но и сможет отреагировать на нее, как опытный водитель — вместо резкого торможения система выберет замедление движения для избежания травмирования пассажиров.

Вместо скрупулезного программирования условий «если… то…», применительно к бесконечному количеству дорожных ситуаций, автопроизводители смогут залить в нейронную сеть видео с поведением водителей в той или иной проблемной ситуации.

Глава Nvidia в своем выступлении также заметил, что даже у самой умной нейронной сети есть свои ограничения, поэтому автоинженеры смогут запрограммировать набор правил, регулирующих образцы поведения водителей, почерпнутые компьютером из видео. Таких как, «никогда не сталкивайся с монолитным объектом». И здесь мы вплотную подходим к знаменитым трем законам роботехники, предложенным Айзеком Азимовым, где автономные автомобили смогут быть запрограммированы на избежание столкновений с человеком на дороге.