Джон П. Десмонд, редактор AI Trends
Инженеры склонны видеть вещи в недвусмысленных терминах, которые некоторые могут назвать черно-белыми терминами, например, выбор между правильным и неправильным, хорошим и плохим. Рассмотрение этики в ИИ очень тонкое, с обширными серыми зонами, что затрудняет применение ИИ-разработчиками программного обеспечения в своей работе.
Это был вывод из сессии «Будущее стандартов и этического ИИ» в Мировое правительство ИИ конференция, проведенная лично и виртуально в Александрии, штат Вирджиния, на этой неделе.
Общее впечатление от конференции состоит в том, что обсуждение ИИ и этики происходит практически в каждом квартале ИИ в огромном предприятии федерального правительства, и выделяется согласованность точек зрения во всех этих различных и независимых усилиях.
«Мы, инженеры, часто думаем об этике как о нечеткой вещи, которую никто на самом деле не объяснил», — заявила Бет-Энн Шуэльке-Лич, доцент инженерного менеджмента и предпринимательства в Виндзорском университете, Онтарио, Канада, выступая на сессии Future of Ethical AI. «Инженерам, ищущим твердые ограничения, может быть трудно сказать, что они этичны. Это становится очень сложным, потому что мы не знаем, что это на самом деле означает».
Шуэльке-Лич начала свою карьеру в качестве инженера, а затем решила получить докторскую степень в области государственной политики, что позволяет ей видеть вещи как инженеру и как социологу. «Я получила докторскую степень в области социальных наук, и меня вернули в инженерный мир, где я участвую в проектах по искусственному интеллекту, но работаю на факультете машиностроения», — сказала она.
У инженерного проекта есть цель, которая описывает цель, набор необходимых функций и функций, а также набор ограничений, таких как бюджет и сроки. «Стандарты и правила становятся частью ограничений», — сказала она. «Если я знаю, что должен выполнить его, я сделаю это. Но если вы скажете мне, что это хороший поступок, я могу это принять, а могу и не принять».
Шуэльке-Лич также является председателем Комитета Общества IEEE по социальным последствиям технологических стандартов. Она прокомментировала: «Добровольные стандарты соответствия, такие как стандарты IEEE, необходимы для того, чтобы люди в отрасли собирались вместе, чтобы сказать, что это то, что, по нашему мнению, мы должны делать как отрасль».
Некоторые стандарты, например в отношении функциональной совместимости, не имеют силы закона, но инженеры соблюдают их, поэтому их системы будут работать. Другие стандарты описываются как передовая практика, но не являются обязательными для соблюдения. «Помогает ли это мне достичь моей цели или мешает мне достичь цели, это то, как на это смотрит инженер», — сказала она.
Стремление к этике ИИ описывается как «запутанное и сложное»
Сара Джордан, старший советник форума Future of Privacy Forum, на сессии с Шуэльке-Лич работает над этическими проблемами искусственного интеллекта и машинного обучения и является активным членом Глобальной инициативы IEEE по этике и автономным и интеллектуальным системам. «Этика запутанна, сложна и зависит от контекста. У нас есть множество теорий, структур и концепций», — сказала она, добавив: «Практика этического ИИ потребует повторяемого, строгого мышления в контексте».
Шуэльке-Лич предположила: «Этика — это не конечный результат. Это отслеживаемый процесс. Но я также ищу кого-то, кто сказал бы мне, что мне нужно делать, чтобы выполнять свою работу, сказал бы мне, как быть этичным, каким правилам я должен следовать, чтобы убрать двусмысленность».
«Инженеры закрываются, когда вы произносите смешные слова, которых они не понимают, например, «онтологический». Они изучают математику и естественные науки с 13 лет», — сказала она.
Ей было трудно привлечь инженеров к попыткам разработать стандарты этического ИИ. «Инженеры отсутствуют на столе», — сказала она. «Споры о том, можем ли мы достичь стопроцентной этичности, — это разговоры, которые инженеры не ведут».
Она заключила: «Если их менеджеры скажут им разобраться, они это сделают. Нам нужно помочь инженерам пересечь мост на полпути. Крайне важно, чтобы социологи и инженеры не отказывались от этого».
Панель лидеров описала интеграцию этики в практику разработки ИИ
Тема этики в ИИ все больше поднимается в учебной программе Военно-морского колледжа США в Ньюпорте, Род-Айленд, который был создан для повышения квалификации офицеров ВМС США и теперь обучает руководителей всех служб. Росс Коффи, военный профессор по вопросам национальной безопасности в этом учреждении, участвовал в группе лидеров по ИИ, этике и разумной политике в AI World Government.
«Этическая грамотность студентов со временем повышается по мере того, как они работают с этими этическими проблемами, поэтому это неотложный вопрос, потому что это займет много времени», — сказал Коффи.
Член группы Кэрол Смит, старший научный сотрудник Университета Карнеги-Меллона, изучающая взаимодействие человека и машины, занимается интеграцией этики в разработку систем ИИ с 2015 года. Она отметила важность «демистификации» ИИ.
«Мне интересно понять, какие взаимодействия мы можем создать, когда человек надлежащим образом доверяет системе, с которой он работает, а не чрезмерно или недоверчиво ей», — сказала она, добавив: «В целом люди предъявляют к системам более высокие ожидания, чем должны».
В качестве примера она привела функции Tesla Autopilot, которые реализуют возможности самоуправляемых автомобилей в определенной степени, но не полностью. «Люди предполагают, что система может выполнять гораздо более широкий набор действий, чем она была разработана. Очень важно помочь людям понять ограничения системы. Каждый должен понимать ожидаемые результаты системы и какие могут быть смягчающие обстоятельства», — сказала она.
Член комиссии Така Арига, первый главный специалист по данным, назначенный в Счетную палату правительства США и директор Лаборатории инноваций GAO, видит пробел в грамотности в области искусственного интеллекта для молодых сотрудников, поступающих в федеральное правительство. «Обучение специалистов по данным не всегда включает этику. Подотчетный ИИ — похвальная конструкция, но я не уверен, что все ей верят. Нам нужна их ответственность, чтобы выйти за рамки технических аспектов и быть подотчетными конечному пользователю, которого мы пытаемся обслуживать», — сказал он.
Модератор панели Элисон Брукс, доктор философии, вице-президент по исследованиям умных городов и сообществ в исследовательской фирме IDC, спросила, могут ли принципы этического ИИ быть общими для разных стран.
«У нас будет ограниченная возможность для каждой страны согласовать один и тот же подход, но нам придется в некотором роде согласовать то, что мы не позволим делать ИИ, и за что люди также будут нести ответственность», — заявил Смит из CMU.
Участники дискуссии выразили признательность Европейской комиссии за активное участие в этих вопросах этики, особенно в сфере правоприменения.
Росс из военно-морских колледжей признал важность поиска общих позиций в отношении этики ИИ. «С военной точки зрения наша оперативная совместимость должна выйти на совершенно новый уровень. Нам нужно найти общий язык с нашими партнерами и союзниками в отношении того, что мы позволим делать ИИ, а что не позволим делать ИИ». К сожалению, «я не знаю, происходит ли это обсуждение», — сказал он.
Смит предположил, что обсуждение этики ИИ, возможно, можно продолжить в рамках некоторых существующих договоров.
Многие принципы, рамки и дорожные карты этики ИИ, предлагаемые многими федеральными агентствами, могут быть сложными для соблюдения и согласования. Таке сказал: «Я надеюсь, что в течение следующих года или двух мы увидим слияние».
Для получения дополнительной информации и доступа к записанным сеансам перейдите на Мировое правительство ИИ.