Инициативу открытого письма о договоре по ИИ поддержали ведущие эксперты в сфере ИИ
Международному сообществу накануне проведения Саммита по безопасности ИИ в Великобритании представлено открытое письмо с призывом к созданию международного договора о безопасности искусственного интеллекта. Документ подписали ведущие эксперты в области ИИ. Саммит по безопасности ИИ впервые прошел 1 и 2 ноября 2023 года в Лондоне.
Специалисты выступают с инициативой разработать и ратифицировать договор о безопасности ИИ, предлагая для этого создать на Саммите специальную рабочую группу. Указывается, что в положения документа должны быть включены всемирные ограничения на объем вычислений для обучения какой-либо модели ИИ, организация, объединяющая ресурсы, опыт и знания в деле безопасности ИИ, а также комиссия по соблюдению договора, роль которой аналогична роли МАГАТЭ.
По мнению экспертов, системы ИИ представляют для человечества катастрофические риски. Для сокращения угроз следует остановить бесконтрольное масштабирование возможностей искусственного интеллекта – наряду с обеспечением доступа к благам ИИ для всех людей, это одна из главных целей международного договора по безопасности ИИ.
Ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, известный когнитивист Гари Маркус, а также член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер и многие другие вошли в коалицию научных экспертов, лидеров бизнеса и государственного управления, подписавших письмо.
«Мы не можем знать, каким образом и как ИИ может принести нам катастрофические риски, просто потому что без очень серьезного и тщательного проектирования модели и архитектуры могут развиваться непредсказуемым образом. И именно поэтому нам как человеческому сообществу необходимо сотрудничать и выяснять потенциальные пути и различные угрозы и по возможности готовиться. Для договора по искусственному интеллекту нам нужен глобальный консенсус и глобальное содействие, начиная с крупнейших держав в области искусственного интеллекта, ведущих исследователей искусственного интеллекта и компаний, чтобы показать и привести мир к лучшему будущему, делясь тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность во главу угла, не оставляя никого позади», – так прокомментировал обращение ученый из Китая Йи Цзэн.