Искусственный интеллект может вызвать финансовый кризис с “катастрофическими” последствиями, по словам историка и писателя Юваля Ноа Харари, который говорит, что сложность технологии затрудняет прогнозирование ее опасностей.
Харари сказал изданию The Guardian, что беспокойство по поводу безопасности тестирования моделей искусственного интеллекта связано с предвидением всех проблем, которые может вызвать мощная система. По его словам, в отличие от ядерного оружия, не было ни одного “большого, опасного сценария”, который был бы понятен всем.
“С искусственным интеллектом то, о чем вы говорите, - это очень большое количество опасных сценариев, каждый из которых имеет относительно небольшую вероятность, что вместе взятое... представляет собой экзистенциальную угрозу выживанию человеческой цивилизации”, – отмечает Харари.
Автор Sapiens, который стал заметным выразителем озабоченности по поводу развития ИИ, сказал, что многосторонняя декларация, принятая на прошедшем на днях глобальном саммите по безопасности ИИ в Блетчли-Парке, была “очень важным шагом вперед”, потому что ведущие правительства собрались вместе, чтобы выразить обеспокоенность по поводу технологии и что-то с этим сделать.
“Возможно, самое обнадеживающее в этом то, что они смогли заставить подписать декларацию не только Европейский союз, Великобританию, Соединенные Штаты, но и правительство Китая, - сказал он. – Я думаю, что это был очень позитивный знак. Без глобального сотрудничества будет чрезвычайно трудно, если не невозможно, обуздать самый опасный потенциал искусственного интеллекта”.
Саммит завершился соглашением между правительствами 10 стран, включая Великобританию и США, но не Китай, ЕС и крупнейшими компаниями в области искусственного интеллекта, включая разработчика ChatGPT OpenAI и Google, о сотрудничестве в тестировании передовых моделей искусственного интеллекта до и после их выпуска.
Харари сказал, что одной из проблем при тестировании моделей на безопасность было предвидение всех проблем, которые могла вызвать мощная система. “Искусственный интеллект отличается от всех предыдущих технологий в истории человечества, потому что это первая технология, которая может самостоятельно принимать решения, которая может самостоятельно создавать новые идеи и которая может самостоятельно учиться и развиваться. Почти по определению, людям, даже тем, кто создал технологию, чрезвычайно трудно предвидеть все потенциальные опасности и проблемы”.
Правительства ссылались на угрозу систем искусственного интеллекта, помогающих создавать биологическое оружие, когда пытались объяснить его опасность общественности, сказал Харари, но были и другие сценарии, которые можно было рассмотреть. Автор указал на финансы как на сектор, идеально подходящий для систем искусственного интеллекта – “это идеальная область для ИИ, потому что это всего лишь данные” – и потенциальный источник серьезного кризиса, вызванного ИИ.
“Что произойдет, если ИИ не только получит больший контроль над финансовой системой мира, но и начнет создавать новые финансовые устройства, которые может понять только ИИ и которые не может понять ни один человек?” - сказал Харари, добавив, что финансовый кризис 2007-2008 годов был вызван долговыми инструментами, такими как обеспеченные долговые обязательства (CDO), которые мало кто понимал и, таким образом, регулировались неадекватно.
“Искусственный интеллект обладает потенциалом для создания финансовых устройств, которые на порядки сложнее, чем CDO. И только представьте себе ситуацию, когда у нас есть финансовая система, которую ни один человек не в состоянии понять и, следовательно, также не в состоянии регулировать, - сказал он. – А потом наступает финансовый кризис, и никто не понимает, что происходит”.
В прошлом месяце правительство Великобритании выразило обеспокоенность по поводу продвинутой модели искусственного интеллекта, потенциально создающей экзистенциальную угрозу путем контроля и манипулирования финансовыми системами, отмечает The Guardian. Но Харари сказал, что финансовый кризис, созданный искусственным интеллектом, не уничтожит человеческую цивилизацию - “по крайней мере, не напрямую”. Он добавил: “Это может произойти косвенно, если это спровоцирует определенные виды войн или конфликтов. Это катастрофический риск – экономический, социальный, политический, – но сам по себе я бы не назвал его экзистенциальным”.
Израильский автор, который поддержал призывы к шестимесячной паузе в разработке продвинутого ИИ и поддерживает привлечение компаний, занимающихся искусственным интеллектом, к ответственности за ущерб, причиняемый их продуктами, сказал, что основное внимание следует уделять не конкретным нормативным актам и законам, а регулирующим институтам, знающим технологию, которые могут быстро реагировать на появление новых прорывов.
“Нам нужно как можно быстрее создать мощные регулирующие институты, способные выявлять опасности по мере их возникновения и реагировать на них, исходя из понимания того, что мы не можем заранее предсказать все опасности и проблемы и заранее принять законы против них”. Харари добавил: “Это должно быть основным усилием, а не попыткой сейчас написать какое-то очень длинное и сложное постановление, которое к тому времени, когда оно будет принято парламентом или конгрессом, может устареть”.
По словам Харари, в рамках этой программы институтам безопасности ИИ следует нанять экспертов, которые понимают потенциальное влияние искусственного интеллекта на мир финансов.
В прошлом месяце Риши Сунак объявил о создании британского института безопасности искусственного интеллекта, а несколько дней спустя Белый дом объявил о планах создания аналогичного органа, и ожидается, что оба они будут играть ключевую роль в тестировании передовых моделей искусственного интеллекта. Выступая на саммите, Сунак сказал, что Великобритании необходимо сначала понять возможности передовых моделей, прежде чем вводить законодательство для борьбы с ними.