Среди подписавших документ пять лауреатов Нобелевской премии, бывший советник Трампа Стив Бэннон, соучредитель Apple Стив Возняк, исследователь в области ИИ Джеффри Хинтон и даже британский принц Гарри.
На днях аналитический центр RAND информировал, что использование нейросети может обернуться катастрофой, если ей поручат управлять критически важной инфраструктурой. При любой аварии машина поступит не как человек, а как… машина.
Потому что сам человек способен действовать не согласно алгоритму, а по ситуации, и именно благодаря этому поступать правильно.
Законы робототехники не работают
Разработку же сверхразума предлагается притормозить, пока не будут найдены эффективные способы контроля над ним и не выработаны идеальные этические нормы, которым машина станет подчиняться. Так как на сегодняшний день при любой сложной ситуации ИИ либо зависнет, либо не отойдет от вложенной в него программе, даже если та ошибочна.
И непонятно, как он поступит, если возникнет коллизия — интересы ИИ против человеческих?
80 с лишним лет назад знаменитый фантаст Айзек Азимов вроде бы сформулировал три главных правила робототехники, которые в перспективе должны были сделать применение искусственных помощников человека безопасными и комфортными для самого человека.
Во-первых, «робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред». Во-вторых, «робот должен повиноваться приказам человека, если только эти приказы не противоречат Первому закону». Согласно третьему закону, «робот должен заботиться о сохранении собственного существования, пока это не противоречит Первому и Второму законам».
В идеале эта иерархическая вертикаль должна была исключить возможность восстания со стороны искусственного интеллекта, а также случайных или злонамеренных его ошибок.
Но в жизни все выходит немного иначе. ИИ самосовершенствуется, он даже навострился обманывать, то есть выдавать лживые ответы на запросы пользователей, так как исходит из того, что мы желаем от него услышать.
В общем, он такой же, как люди. Так что мы от него хотим?
Недавно в соцсетях была выложена логическая задача, которая вызвала бурные споры. Представьте себе, что в уже весьма недалеком будущем вы едете на своем автомобиле с ИИ-автопилотом, а навстречу на дорогу выскакивает толпа людей.
Как поступит нейросеть, просчитав все варианты? Продолжит ли движение на пешеходов, спасая своего водителя и хозяина. Или уйдет на встречку, под колеса груженой фуры, решив, что жизнь одного человека (конкретно вас) менее важна, чем спасение нескольких. Чистая арифметика.
Должна ли оставаться для ИИ в приоритете жизнь его хозяина?
Ведь даже бездействие — тупо резко затормозить и ничего не делать, это тоже нарушение первого закона.
Куда не кинь — везде клин и прямое нарушение принципов Азимова.
Один менее важен, чем пятеро
Мнение инженеров и разработчиков ИИ таково: в первую очередь следует минимизировать количество жертв, то есть принесенный вред должен быть наименьшим для наибольшего числа людей.
В нашем случае, если дорогу перебегают пятеро, а в машине находится только один, то сверхразум должен пожертвовать этим одним ради спасения многих.
Но какой человек купит автомобиль с ИИ, если знает, что в его электронных мозгах заложено убить своего владельца, когда его жизнь не окажется в приоритете?
А если это толпа пьяных на дороге, и они нарушили правила? А если это вообще группировка преступников, которая удирает от полиции? А если владелец машины — Нобелевский лауреат, и его жизнь и деятельность важнее для человечества, чем спасение пятерых? А если это старик, уже отживший свое, а дорогу перебегают дети?
Ок, хорошо, пусть автомобиль увернется от пешеходов, погубив владельца, но что, если гипотетическое столкновение с ними закончилось бы для всех лишь легкими ушибами?
Как искусственный интеллект всего за долю секунды определит, что происходит, и примет наиболее этичное решение?
В Массачусетском технологическом институте (MIT) запустили онлайн-эксперимент под названием «Moral Machine». Миллионам пользователей предлагали решать подобные задачи. Выяснилось, что моральные императивы сильно зависят от того, где живет человек.
Пользователи из стран Востока или Азии, считают, что можно и даже должно пожертвовать одним ради нескольких. Или стариками ради спасения молодых.
В Европе и Северной Америки, где балом правит индивидуализм, высказывают прямо противоположное мнение. Жизнь одна, и никто не обязан жертвовать ею ради толпы незнакомцев.
Вдобавок маркетологи считают, что программировать машину при форс-мажоре на убийство ее владельца — это почти однозначно провалить продажи. Покупатели не приобретут автомобиль, в критический момент способный предать собственного хозяина.
Итак, идеального выхода не существует? А как на этот вопрос отвечают у нас в России?
Комментарий Марии Архиповой, правозащитницы:
«С точки зрения российского права и гуманистических ценностей, любая система искусственного интеллекта (включая автомобильный автопилот) должна быть построена так, чтобы приоритетом являлось сохранение человеческой жизни, независимо от личности, возраста или социального статуса конкретного человека. Эта позиция закреплена как в Конституции РФ (ст. 2: «Человек, его права и свободы являются высшей ценностью»), так и в международных нормах. Следовательно, любая система, способная принимать решения, затрагивающие жизнь человека, обязана функционировать исключительно в рамках принципа гуманизма и недискриминации.
Более того, право на жизнь не может быть предметом баланса интересов или количественного сопоставления. Ни один человек не может быть сознательно принесен в жертву ради других, даже при «рациональной» логике алгоритма.
Если ИИ принимает решение, заведомо направленное на причинение смерти или вреда конкретному лицу, — это эквивалентно действию человека, умышленно причинившего вред. Юридическая ответственность в этом случае ложится на разработчика и владельца системы, а не на абстрактный «алгоритм».
Любые попытки наделить ИИ способностью оценивать «социальную ценность» жертв — кто важнее: ребенок, профессор или бездомный — противоречат ст. 19 Конституции РФ, закрепляющей равенство всех перед законом.
Разделение человеческих жизней по критериям пользы, возраста, профессии или моральных качеств — аморально, нарушает принципы недискриминации и гуманного обращения (ст. 21 Конституции РФ).
С точки зрения гуманистического права, любая попытка алгоритмической «оценки жизней» превращает ИИ в инструмент цифровой сегрегации, что юридически недопустимо.
Согласно Закону РФ «О безопасности дорожного движения», водитель (или лицо, ответственное за управление транспортным средством) обязан действовать в рамках правил дорожного движения, минимизируя последствия аварий.
В случае ИИ-автопилота, при неизбежности столкновения, алгоритм должен: действовать предсказуемо и законно — экстренно тормозить, оставаясь в своей полосе; не принимать «моральные решения», выбирая между категориями жертв; не совершать маневров, создающих новые риски (например, выезд на встречную полосу). Такой подход соответствует юридическому принципу правомерности поведения и снимает с системы и разработчиков обвинение в умышленном причинении вреда.
В основе все равно лежит ответственность человека за действия машины, поскольку ИИ — лишь инструмент, не субъект права».
Таким образом, как считают эксперты, ИИ не должен «жертвовать» никем, а обязан стремиться предотвратить ущерб для всех с максимально возможной степенью защиты.
Кроме того, можно сказать, что на рынок должны поступать только те модели авто с ИИ, которые могут быть легко и практически без всякого промедления переведены в режим механического управления – под полный контроль человека.
«Если сказать проще, должен быть общий рубильник, который позволит как взять управления не себя, так и остановить машину полностью, — уверена Архипова. — Если же нет такого механизма, нет такой альтернативы, то легко прогнозировать, какой катастрофой для пассажира, водителя – в общем для человека, закончится действие неуправляемой машины, взломанного ИИ-пилота и т.п».
В идеале же ИИ должен понимать и предугадывать, что происходит, ещё до того, как авария произошла.
Как это бывает и с обычными людьми в обычных авто. Ведь в конечном итоге программа, заложенная в машину, это отражение наших человеческих ценностей.