Как обеспечить пользу обществу с помощью наиболее эффективных технологий, разрабатываемых сегодня
Будучи главным операционным директором одной из ведущих мировых лабораторий искусственного интеллекта, я провожу много времени, размышляя о том, как наши технологии влияют на жизнь людей – и как мы можем гарантировать, что наши усилия приведут к положительному результату. Это цель моей работы и важное послание, которое я доношу, когда встречаюсь с мировыми лидерами и ключевыми фигурами в нашей отрасли. Например, это было в центре внимания панельной дискуссии «Справедливость через технологии», которую я провел на этой неделе в Всемирный Экономический Форум в Давосе, Швейцария.
Вдохновленный важными дискуссиями, состоявшимися в Давосе о построении более зеленого, справедливого и лучшего мира, я хотел поделиться некоторыми размышлениями о своем собственном пути в качестве технологического лидера, а также некоторым представлением о том, как мы в DeepMind подходим к задаче создания технологии, которые действительно приносят пользу мировому сообществу.
В 2000 году я взял отпуск на работе в Intel, чтобы посетить приют в Ливане, где вырос мой отец. В течение двух месяцев я работал над установкой 20 компьютеров в первом компьютерном классе детского дома и обучал учеников и учителей их использованию. Поездка началась как способ почтить память моего отца. Но пребывание в месте с такой ограниченной технической инфраструктурой также дало мне новый взгляд на мою работу. Я понял, что без реальных усилий со стороны технологического сообщества многие продукты, которые я создавал в Intel, были бы недоступны для миллионов людей. Я остро осознал, как этот разрыв в доступе усугубляет неравенство; хотя компьютеры решали проблемы и ускоряли прогресс в некоторых частях мира, другие все больше отставали.
После той первой поездки в Ливан я начал переоценивать свои карьерные приоритеты. Я всегда хотел участвовать в создании революционных технологий. Но когда я вернулся в США, мое внимание сузилось до помощи в создании технологий, которые могли бы оказать положительное и продолжительное влияние на общество. Это привело меня к различным должностям на стыке образования и технологий, включая соучредителя Тим4Технекоммерческой организации, которая занимается улучшением доступа к технологиям для студентов в развивающихся странах.
Когда я присоединился к DeepMind в качестве главного операционного директора в 2018 году, я сделал это во многом потому, что мог сказать, что основатели и команда одинаково сосредоточены на положительном социальном влиянии. Фактически, в DeepMind мы теперь поддерживаем термин, который идеально отражает мои собственные ценности и надежды на интеграцию технологий в повседневную жизнь людей: ответственное новаторство.
Я считаю, что ответственное новаторство должно быть приоритетом для всех, кто работает в сфере технологий. Но я также признаю, что это особенно важно, когда речь идет о мощных и широко распространенных технологиях, таких как искусственный интеллект. Искусственный интеллект, возможно, является самой эффективной технологией, разрабатываемой сегодня. Оно потенциально может принести пользу человечеству бесчисленными способами – от борьбы с изменением климата до профилактики и лечения болезней. Но очень важно, чтобы мы учитывали как положительные, так и отрицательные последствия этого процесса. Например, нам необходимо тщательно и продуманно разрабатывать системы искусственного интеллекта, чтобы избежать усиления человеческих предубеждений, например, в контексте найма и работы полиции.
Хорошая новость заключается в том, что если мы постоянно подвергаем сомнению наши собственные предположения о том, как ИИ может и должен быть создан и использован, мы сможем создать эту технологию таким образом, чтобы она действительно приносила пользу всем. Это требует приглашения к обсуждению и дебатам, повторения по мере того, как мы учимся, создания социальных и технических гарантий и поиска различных точек зрения. В DeepMind все, что мы делаем, вытекает из миссии нашей компании — решать задачи интеллекта для развития общества и приносить пользу человечеству, и построение культуры ответственного новаторства имеет важное значение для воплощения этой миссии в жизнь.
Как на практике выглядит ответственное новаторство? Я считаю, что все начинается с создания пространства для открытых и честных разговоров об ответственности внутри организации. Одно из мест, где мы в DeepMind это сделали, — это наша междисциплинарная руководящая группа, которая консультирует по потенциальным рискам и социальным последствиям наших исследований.
Развитие нашего этического управления и официальное оформление этой группы было одной из моих первых инициатив, когда я присоединился к компании – и, поступая несколько нетрадиционно, я не дал ей ни названия, ни даже конкретной цели, пока мы не встретились несколько раз. Я хотел, чтобы мы сосредоточились на операционных и практических аспектах ответственности, начиная с пространства, свободного от ожиданий, в котором каждый мог бы откровенно говорить о том, что для него значит ответственное новаторство. Эти разговоры имели решающее значение для установления общего видения и взаимного доверия, что позволило нам проводить более открытые дискуссии в будущем.
Еще одним элементом ответственного новаторства является принятие кайдзен философия и подход. Я познакомился с термином «кайдзен» в 1990-х годах, когда переехал в Токио, чтобы работать над стандартами технологии DVD для Intel. Это японское слово переводится как «постоянное улучшение» — и в самом простом смысле процесс кайдзен — это процесс, в котором небольшие, постепенные улучшения, осуществляемые постоянно с течением времени, приводят к более эффективной и идеальной системе. Но действительно важно то мышление, которое стоит за этим процессом. Чтобы кайдзен работал, каждый, кто соприкасается с системой, должен следить за ее слабостями и возможностями для улучшения. Это означает, что каждый должен обладать как смирением, чтобы признать, что что-то может быть сломано, так и оптимизмом, чтобы верить, что он может изменить это к лучшему.
Когда я работал операционным директором компании онлайн-обучения Coursera, мы использовали подход кайдзен для оптимизации структуры наших курсов. Когда я присоединился к Coursera в 2013 году, у курсов на платформе были строгие сроки, и каждый курс предлагался всего несколько раз в год. Мы быстро поняли, что это не обеспечивает достаточной гибкости, поэтому перешли на формат, полностью отвечающий требованию и в самостоятельном темпе. Набор учащихся увеличился, но процент завершения снизился – оказывается, что, хотя слишком большая структура вызывает стресс и неудобна, слишком малая ее часть приводит к потере мотивации. Поэтому мы снова перешли к формату, в котором занятия курса начинаются несколько раз в месяц, а учащиеся работают над рекомендуемыми еженедельными этапами. Чтобы добиться этого, потребовались время и усилия, но постоянное совершенствование в конечном итоге привело к решению, которое позволило людям в полной мере извлечь выгоду из своего опыта обучения.
В приведенном выше примере наш подход кайдзен оказался в значительной степени эффективным, потому что мы попросили наше сообщество учащихся оставить отзыв и выслушали их опасения. Это еще одна важная часть ответственного новаторства: признание того, что у нас нет ответов на все вопросы, и построение отношений, которые позволяют нам постоянно использовать информацию извне.
Для DeepMind это иногда означает консультации с экспертами по таким темам, как безопасность, конфиденциальность, биоэтика и психология. Это также может означать обращение к различным сообществам людей, на которых непосредственно влияют наши технологии, и приглашение их к обсуждению того, чего они хотят и в чем нуждаются. А иногда это означает просто слушать людей в нашей жизни – независимо от их технического или научного образования – когда они говорят о своих надеждах на будущее ИИ.
По сути, ответственное новаторство означает расстановку приоритетов в инициативах, ориентированных на этику и социальное воздействие. В наших исследованиях в DeepMind все больше внимания уделяется тому, как мы можем сделать системы искусственного интеллекта более справедливыми и инклюзивными. За последние два года мы опубликовали исследование о деколониальный ИИ, странная справедливость в ИИ, снижение этических и социальных рисков в языковых моделях искусственного интеллекта, и более. В то же время мы также работаем над увеличением разнообразия в области искусственного интеллекта с помощью наших специальных стипендиальные программы. Недавно мы начали проводить сессии Сообщества ответственного ИИ, которые объединяют различные команды и усилия, работающие над безопасностью, этикой и управлением, — и несколько сотен человек подписались, чтобы принять в них участие.
Меня вдохновляет энтузиазм наших сотрудников по поводу этой работы, и я глубоко горжусь всеми моими коллегами из DeepMind, которые ставят социальное воздействие на передний план. Я верю, что, убедившись, что технологии приносят пользу тем, кто в них больше всего нуждается, мы сможем добиться реального прогресса в решении проблем, стоящих сегодня перед нашим обществом. В этом смысле ответственное новаторство является моральным императивом – и лично я не могу придумать лучшего пути вперед.