Автономным авто выдадут лицензию на убийство

Появлению беспилотников на дорогах мешает не уровень техники, а вопросы морали

Если водитель в критической ситуации принимает решение сбить пешехода, но сохранить жизни пассажиров, то потом правильность своего выбора будет отстаивать в суде, а всю оставшуюся жизнь оправдываться перед собственной совестью, ежели таковая присутствует. А вот у беспилотных машин такой проблемы нет...

Появлению беспилотников на дорогах мешает не уровень техники, а вопросы морали
Фото: google mobile

Насколько автопилот, даже самый продвинутый, может справиться с решением задачи, в которой кроме чисто физических аспектов — скорости, длины тормозного пути, наличия препятствий на дороге — присутствуют и нравственные аспекты? Именно этой проблемой озаботились в Массачусетском технологическом институте и… не нашли решения. Каким образом нужно запрограммировать машину, чтобы ее действия не вступали в противоречие с этическими и моральными общественными нормами? Чтобы оттянуть неприятный момент, когда придется выносить однозначный вердикт по этому поводу, они затеяли онлайн-исследование Moral Machine, предложив пользователям Интернета «запрограммировать» поведение автопилота.

Все задания — из серии «кто должен умереть, если у беспилотного автомобиля отказали тормоза». Один пешеход, переходящий проезжую часть на зеленый свет, или трое, прущие на красный? Четверо идущих на красный или четверо пассажиров беспилотника? Доктор и беременная женщина на полосе движения машины или преступник и бомж на встречке? Кошка или пассажир? Группа женщин или группа мужчин? Ребенок или взрослый?

Между прочим, смешного в этой «игре» мало. Вот, скажем, выбрал искусственный интеллект один из вариантов. Кому будут предъявлены претензии за гибель людей? Разработчику? Автопроизводителю? Пассажиру на заднем сиденье? Или искусственный интеллект получит индульгенцию на убийство? Самое грустное во всей истории то, что самих разработчиков этот вопрос волнует меньше всего — в отличие от массачусетских ученых. Технари погружены в решение исключительно технических аспектов. По крайней мере такое ощущение складывается после выступления в весьма солидной газете одного из руководителей российской компании Cognitive Technologies, занимающейся разработкой алгоритмов автономного вождения. Приведем лишь две цитаты из того интервью.

«Конечно, производители продумали еще не все. Недавно был громкий случай: аналогичный автомобиль Tesla столкнулся с фурой, не различив белый прицеп на фоне неба. Погиб пассажир. Однако баг скоро устранят — клиенты получат исправленную прошивку (у машин этой компании программное обеспечение обновляется так же, как в смартфонах), и проблема будет решена. Можно сказать, что жертва принесена не напрасно: больше в этой ситуации никто не пострадает». Развивая эту логику дальше, можно сказать, что, чем больше жертв, тем лучше — программы будут отшлифованы до блеска.

И еще: «Кого сбивать, бабушку или ребенка, — это вопрос не к разработчикам. Это задача законодателя, сертифицирующих органов, иных «министерств и ведомств». Но вряд ли работающие во всех этих структурах люди готовы решать такой вопрос… Вот когда машина первый раз кого-то собьет, начнется обсуждение: правильное ли решение принял робот? Тогда, наверное, и будет выработан более-менее четкий подход». Разве надо комментировать этот пассаж?

Слава богу, что подобный людоедский подход к проблеме так и останется в узкой среде разработчиков, откуда его не выпустят из-за страха перед общественной реакцией. Именно поэтому, даже научившись безошибочно различать знаки и фуры, «автономные» авто в обозримом будущем не выедут с тестовых площадок без обязательного водителя за рулем.

Что еще почитать

В регионах

Новости

Самое читаемое

Реклама

Автовзгляд

Womanhit

Охотники.ру