ИИ/AI прав, пока он совсем неправ.
Питер Хаас разбирается в роботехнике. Создал акселератор соответствующих стартапов. Со-основал робокомпанию. Сейчас один из директоров центра гуманной роботехники.
Питер Хаас боится искусственного интеллекта. И он доступно рассказывает об этом в ted talk. На примере собаки хаски и волка. Определения вероятности рецидивиста и одобрения кредита. И, конечно же, на примере вождения.
Разберем краткую суть.
Механизм страха очень простой. Он происходит из существующего алгоритма машинного обучения.
Например, вы даете тысячи фото волков и собак, фильтр машинного обучения начинает распознавать волков и собак. Но вот именно эту хаски он называет волком.
Далее разбираемся, почему алгоритм решил, что собака – это волк, почему на этой фотографии он ошибся. Потому что на фото был снег. То есть в библиотеке обучающих изображений волки обычно были на снегу. Хаски на снегу = волк.
Ловушка в том, что при машинном обучении не всегда разбираются, откуда ошибка, просто добавляют еще примеров в библиотеку обучения, пока вероятность попадания в цель не становится приемлемой.
Ну ладно, с фото это не смертельно в этом случае. Но.
Если алгоритм используется в судебной системе для определения вероятности рецидивиста. А далее есть два прецедентных решения суда. Раз, что алгоритм можно применять слепо. Два, что обвиняемые не могут посмотреть код алгоритма из-за, скажем, копирайта. Получается на выходе, что вас под залог или досрочно не выпустят, и никто не скажет, почему так есть. Просто “Алгоритм Сказал”.
Хорошо, вы скажете, что вы не уголовник, это вас не касается. Но именно эти алгоритмы будут использоваться в скоринге на ипотеку и прочих других темах. И все равно ошибки в них к вам придут и вас заденут.
И рано или поздно машина, которую обучили ехать по трассе в дождь и снег, попадет в ситуацию, когда будет, скажем, град, а алгоритм этого не признает. И вы улетите с трассы в кювет. Потому что в библиотеке этого случая не было.
Что предлагает Питер?
Питер предлагает притормозить. То есть не пускать машинное обучение, пока, скажем, не пройдет так много времени, чтобы увидеть практически все ошибки и баги. Скажем, круиз контроль на машине как механизм был отлажен за тридцать лет до его массовой эксплуатации в автопроме.
Вывод автора простой. “Искусственный интеллект” обычно прав, но если он ошибается, то это капитально.
Вам выбирать, ставить ли умный дом, умную колонку и заводить Теслу.
По данной тематике из стратоновостей и других публикаций можно еще почитать:
Этого человека не существует.
Как видит будущее IBM.
Дом-шпион или интернет вещей.
Ружье, черепаха и десятый айфон.
Мы знаем, что вы купили прошлым летом.
Математика как ненужное знание?
Побочные эффекты машин.
На прошлой неделе опубликовали: Преодоление. Команда. Бизнес-машина.
Все публикации копируются в канал Телеграм.
Позиция в данной статье является частным мнением автора в частном блоге и не является официальным заявлением или публичной рекомендацией от имени компании-работодателя.