Бизнес-магнат-миллиардер и филантроп сделал свое дело в пост в личном блоге GatesNotes сегодня. «Я хочу признать опасения, которые слышу и читаю чаще всего, многие из которых я разделяю, и объяснить, что я о них думаю», — пишет он.
По словам Гейтса, ИИ — это «самая преобразующая технология, которую любой из нас увидит в своей жизни». Это ставит его выше Интернета, смартфонов и персональных компьютеров, технологии, которую он сделал больше, чем большинство, чтобы принести в мир. (Это также говорит о том, что ничего другого, что могло бы соперничать с ним, не будет изобретено в ближайшие несколько десятилетий.)
Гейтс был одним из десятков высокопоставленных лиц, подписавших соглашение. Заявление, опубликованное Центром безопасности ИИ в Сан-Франциско. несколько недель назад, который полностью гласит: «Снижение риска исчезновения из-за ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».
Но в сегодняшнем посте нет паники. На самом деле экзистенциальный риск здесь не рассматривается. Вместо этого Гейтс формулирует дискуссию как противопоставление «долгосрочного» риска «непосредственному» и предпочитает сосредоточиться на «рисках, которые уже существуют или скоро возникнут». ».
«Гейтс уже довольно давно дергает за одну и ту же струну, — говорит Дэвид Лесли, директор по этике и исследованиям в области ответственных инноваций в Институте Алана Тьюринга в Великобритании. Гейтс был одним из нескольких общественных деятелей, которые говорили об экзистенциальном риске ИИ десять лет назад, когда глубокое обучение только начинало развиваться, говорит Лесли: «Раньше он больше беспокоился о сверхразуме. Кажется, это могло быть немного разбавлено».
Гейтс не полностью исключает экзистенциальный риск. Он задается вопросом, что может произойти, «когда» — а не если — «мы разработаем ИИ, который может изучить любой предмет или задачу», часто называемый общим искусственным интеллектом или ОИИ.
Он пишет: «Дойдем ли мы до этого через десятилетие или столетие, обществу придется задуматься над глубокими вопросами. Что, если супер-ИИ ставит перед собой собственные цели? Что, если они противоречат человечеству? Должны ли мы вообще делать супер ИИ? Но размышления об этих долгосрочных рисках не должны происходить за счет более непосредственных».
Гейтс занял своего рода золотую середину между пионером глубокого обучения Джеффри Хинтоном, который ушел из Google и в мае обнародовал свои опасения по поводу ИИ, и другими, такими как Янн ЛеКун и Джоэль Пино из Meta AI (которые думают, что разговоры об экзистенциальном риске — это неуместно). «невероятно смешная» и «безумная») или Мередит Уиттакер из «Сигнала» (которая считает страхи, разделяемые Хинтоном и другими, «призрачными историями»).