ИИ/AI прав, пока он совсем неправ.

Питер Хаас разбирается в роботехнике. Создал акселератор соответствующих стартапов. Со-основал робокомпанию. Сейчас один из директоров центра гуманной роботехники.

Питер Хаас боится искусственного интеллекта. И он доступно рассказывает об этом в ted talk. На примере собаки хаски и волка. Определения вероятности рецидивиста и одобрения кредита. И, конечно же, на примере вождения.

Разберем краткую суть.

Механизм страха очень простой. Он происходит из существующего алгоритма машинного обучения.

Например, вы даете тысячи фото волков и собак, фильтр машинного обучения начинает распознавать волков и собак. Но вот именно эту хаски он называет волком.

Далее разбираемся, почему алгоритм решил, что собака — это волк, почему на этой фотографии он ошибся. Потому что на фото был снег. То есть в библиотеке обучающих изображений волки обычно были на снегу. Хаски на снегу = волк.

Ловушка в том, что при машинном обучении не всегда разбираются, откуда ошибка, просто добавляют еще примеров в библиотеку обучения, пока вероятность попадания в цель не становится приемлемой.

Ну ладно, с фото это не смертельно в этом случае. Но.

Если алгоритм используется в судебной системе для определения вероятности рецидивиста. А далее есть два прецедентных решения суда. Раз, что алгоритм можно применять слепо. Два, что обвиняемые не могут посмотреть код алгоритма из-за, скажем, копирайта. Получается на выходе, что вас под залог или досрочно не выпустят, и никто не скажет, почему так есть. Просто «Алгоритм Сказал».

Хорошо, вы скажете, что вы не уголовник, это вас не касается. Но именно эти алгоритмы будут использоваться в скоринге на ипотеку и прочих других темах. И все равно ошибки в них к вам придут и вас заденут.

И рано или поздно машина, которую обучили ехать по трассе в дождь и снег, попадет в ситуацию, когда будет, скажем, град, а алгоритм этого не признает. И вы улетите с трассы в кювет. Потому что в библиотеке этого случая не было.

Что предлагает Питер?

Питер предлагает притормозить. То есть не пускать машинное обучение, пока, скажем, не пройдет так много времени, чтобы увидеть практически все ошибки и баги. Скажем, круиз контроль на машине как механизм был отлажен за тридцать лет до его массовой эксплуатации в автопроме.

Вывод автора простой. «Искусственный интеллект» обычно прав, но если он ошибается, то это капитально.

Вам выбирать, ставить ли умный дом, умную колонку и заводить Теслу.

По данной тематике из стратоновостей и других публикаций можно еще почитать:
Этого человека не существует.
Как видит будущее IBM.
Дом-шпион или интернет вещей.
Ружье, черепаха и десятый айфон.
Мы знаем, что вы купили прошлым летом.
Математика как ненужное знание?
Побочные эффекты машин.

На прошлой неделе опубликовали: Преодоление. Команда. Бизнес-машина.

Все публикации копируются в канал Телеграм.

Позиция в данной статье является частным мнением автора в частном блоге и не является официальным заявлением или публичной рекомендацией от имени компании-работодателя.