Как гарантировать, что мы приносим пользу обществу с помощью самых эффективных технологий, разрабатываемых сегодня
Как главный операционный директор одной из ведущих мировых лабораторий искусственного интеллекта, я провожу много времени, размышляя о том, как наши технологии влияют на жизнь людей и как мы можем гарантировать, что наши усилия принесут положительный результат. Это основное направление моей работы и важное сообщение, которое я доношу, когда встречаюсь с мировыми лидерами и ключевыми фигурами в нашей отрасли. Например, он был в центре внимания панельной дискуссии «Справедливость через технологии», которую я провел на этой неделе в Всемирный Экономический Форум в Давосе, Швейцария.
Вдохновленный важными разговорами о построении более зеленого, справедливого и лучшего мира в Давосе, я хотел поделиться некоторыми размышлениями о моем собственном пути в качестве технологического лидера, а также о том, как мы в DeepMind подходим к решению задачи построения технология, которая действительно приносит пользу мировому сообществу.
В 2000 году я взял творческий отпуск на работе в Intel, чтобы посетить приют в Ливане, где вырос мой отец. В течение двух месяцев я работал над установкой 20 компьютеров в первой компьютерной лаборатории приюта и обучением учеников и учителей работе с ними. Поездка началась как способ почтить память моего отца. Но пребывание в месте с такой ограниченной технической инфраструктурой также дало мне новый взгляд на мою собственную работу. Я понял, что без реальных усилий со стороны технологического сообщества многие продукты, которые я создавал в Intel, были бы недоступны для миллионов людей. Я остро осознал, как этот разрыв в доступе усугублял неравенство; в то время как компьютеры решали проблемы и ускоряли прогресс в одних частях мира, другие оставались далеко позади.
После той первой поездки в Ливан я начал пересматривать свои карьерные приоритеты. Я всегда хотел быть частью создания новаторских технологий. Но когда я вернулся в США, мое внимание сузилось до помощи в создании технологий, которые могли бы оказать положительное и долгосрочное влияние на общество. Это привело меня к множеству ролей на стыке образования и технологий, включая соучредителя Team4Techнекоммерческая организация, работающая над улучшением доступа к технологиям для студентов в развивающихся странах.
Когда я присоединился к DeepMind в качестве главного операционного директора в 2018 году, я сделал это в значительной степени потому, что я мог сказать, что основатели и команда одинаково сосредоточены на положительном социальном воздействии. На самом деле, в DeepMind мы теперь отстаиваем термин, который идеально отражает мои собственные ценности и надежды на интеграцию технологий в повседневную жизнь людей: новаторство ответственно.
Я считаю, что ответственное новаторство должно быть приоритетом для всех, кто работает в сфере технологий. Но я также признаю, что это особенно важно, когда речь идет о мощных, широко распространенных технологиях, таких как искусственный интеллект. ИИ, возможно, является самой эффективной технологией, разрабатываемой сегодня. Он может принести пользу человечеству бесчисленными способами — от борьбы с изменением климата до профилактики и лечения болезней. Но важно, чтобы мы учитывали как его положительное, так и отрицательное влияние на последующие процессы. Например, нам нужно тщательно и продуманно разрабатывать системы ИИ, чтобы избежать усиления человеческих предубеждений, например, в контексте найма и охраны.
Хорошая новость заключается в том, что если мы постоянно подвергаем сомнению наши собственные предположения о том, как ИИ может и должен создаваться и использоваться, мы можем построить эту технологию так, чтобы она действительно приносила пользу всем. Это требует приглашения к обсуждению и дебатам, повторения по мере того, как мы узнаем, создания социальных и технических гарантий и поиска различных точек зрения. В DeepMind все, что мы делаем, проистекает из миссии нашей компании по решению проблемы интеллекта для развития общества и на благо человечества, и создание культуры ответственного новаторства необходимо для воплощения этой миссии в реальность.
Как ответственное новаторство выглядит на практике? Я считаю, что все начинается с создания пространства для открытых и честных разговоров об ответственности внутри организации. Одно место, где мы сделали это в DeepMind, — это наша междисциплинарная группа лидеров, которая консультирует по потенциальным рискам и социальному влиянию нашего исследования.
Развитие нашего этического управления и формализация этой группы были одной из моих первых инициатив, когда я присоединился к компании, и в несколько нетрадиционном поступке я не дал ей ни названия, ни даже конкретной цели, пока мы не встретились несколько раз. Я хотел, чтобы мы сосредоточились на оперативных и практических аспектах ответственности, начав с свободного от ожиданий пространства, в котором каждый мог бы откровенно рассказать о том, что для него значит быть первооткрывателем. Эти разговоры имели решающее значение для формирования общего видения и взаимного доверия, что позволило нам вести более открытые дискуссии в будущем.
Еще одним элементом ответственного новаторства является принятие кайдзен философия и подход. Я познакомился с термином кайдзен в 1990-х годах, когда переехал в Токио, чтобы работать над стандартами технологии DVD для Intel. Это японское слово переводится как «непрерывное улучшение». В самом простом смысле кайдзен-процесс — это процесс, в котором небольшие постепенные улучшения, осуществляемые непрерывно с течением времени, приводят к созданию более эффективной и идеальной системы. Но действительно важен настрой, стоящий за процессом. Чтобы кайдзен работал, каждый, кто прикасается к системе, должен выявлять слабые места и возможности для улучшения. Это означает, что каждый должен иметь как скромность, чтобы признать, что что-то может быть сломано, так и оптимизм, чтобы верить, что они могут изменить это к лучшему.
Когда я был главным операционным директором компании Coursera, занимающейся онлайн-обучением, мы использовали кайдзен-подход для оптимизации структуры наших курсов. Когда я присоединился к Coursera в 2013 году, у курсов на платформе были жесткие сроки, и каждый курс предлагался всего несколько раз в год. Мы быстро поняли, что это не обеспечивает достаточной гибкости, поэтому мы полностью перешли на формат по запросу и в индивидуальном темпе. Зачисление увеличилось, но процент завершения снизился — оказывается, что если слишком много структуры вызывает стресс и неудобство, то слишком мало приводит к тому, что люди теряют мотивацию. Поэтому мы снова вернулись к формату, в котором занятия по курсу начинаются несколько раз в месяц, а учащиеся работают над достижением рекомендуемых еженедельных этапов. Чтобы добиться этого, потребовались время и усилия, но постоянное совершенствование в конечном итоге привело к решению, которое позволило людям в полной мере извлечь выгоду из своего учебного опыта.
В приведенном выше примере наш подход кайдзен был в значительной степени эффективен, потому что мы попросили сообщество учащихся высказать свое мнение и выслушали их опасения. Это еще одна важная часть ответственного новаторства: признание того, что у нас нет ответов на все вопросы, и построение отношений, которые позволяют нам постоянно получать информацию извне.
Для DeepMind это иногда означает консультации с экспертами по таким темам, как безопасность, конфиденциальность, биоэтика и психология. Это также может означать обращение к различным сообществам людей, на которых непосредственно влияют наши технологии, и приглашение их к обсуждению того, чего они хотят и в чем нуждаются. А иногда это означает просто слушать людей в нашей жизни — независимо от их технического или научного образования — когда они говорят о своих надеждах на будущее ИИ.
По сути, ответственное новаторство означает приоритизацию инициатив, ориентированных на этику и социальное воздействие. В наших исследованиях в DeepMind все больше внимания уделяется тому, как мы можем сделать системы ИИ более справедливыми и инклюзивными. За последние два года мы опубликовали исследование по деколониальный ИИ, странная справедливость в ИИ, снижение этических и социальных рисков в языковых моделях ИИ и многое другое. В то же время мы также работаем над увеличением разнообразия в области ИИ с помощью наших специальных стипендиальных программ. Внутри мы недавно начали проводить сессии сообщества ответственного ИИ, которые объединяют различные команды и усилия, работающие над безопасностью, этикой и управлением, и несколько сотен человек зарегистрировались, чтобы принять участие.
Меня вдохновляет энтузиазм наших сотрудников в отношении этой работы, и я глубоко горжусь всеми своими коллегами по DeepMind, которые уделяют особое внимание социальному воздействию. Я считаю, что благодаря тому, что технологии приносят пользу тем, кто больше всего в них нуждается, мы можем добиться реального прогресса в решении проблем, стоящих перед нашим обществом сегодня. В этом смысле ответственное новаторство является моральным императивом, и лично я не могу придумать лучшего пути вперед.