Home Технологии Обещания и риски использования ИИ для найма: остерегайтесь предвзятости данных | DeepTech

Обещания и риски использования ИИ для найма: остерегайтесь предвзятости данных | DeepTech

0
Обещания и риски использования ИИ для найма: остерегайтесь предвзятости данных 
 | DeepTech

Автор: AI Trends Staff

Хотя ИИ при приеме на работу в настоящее время широко используется для составления описаний должностей, проверки кандидатов и автоматизации собеседований, он создает риск широкой дискриминации, если его не применять тщательно.

Кит Сондерлинг, комиссар, Комиссия равных возможностей США

Об этом сообщил Кит Сондерлинг, комиссар Комиссии по равным возможностям США, выступая на Мировое правительство ИИ Мероприятие состоялось в прямом эфире и виртуально в Александрии, штат Вирджиния, на прошлой неделе. Sonderling отвечает за обеспечение соблюдения федеральных законов, запрещающих дискриминацию соискателей по признаку расы, цвета кожи, религии, пола, национального происхождения, возраста или инвалидности.

«Два года назад мысль о том, что ИИ станет популярным в отделах кадров, была ближе к научной фантастике, но пандемия ускорила темпы использования ИИ работодателями», — сказал он. «Виртуальный рекрутинг теперь никуда не денется».

Это напряженное время для HR-специалистов. «Великая отставка ведет к большому повторному найму, и ИИ сыграет в этом роль, которую мы не видели раньше», — сказал Сондерлинг.

ИИ использовался в течение многих лет при найме — «это не произошло в одночасье» — для таких задач, как общение с приложениями, прогнозирование того, возьмет ли кандидат работу, прогнозирование того, каким сотрудником он будет, и определение возможностей повышения квалификации и переквалификации. «Короче говоря, ИИ теперь принимает все решения, когда-то принятые HR-персоналом», которые он не охарактеризовал ни как хорошие, ни как плохие.

«Тщательно разработанный и правильно используемый искусственный интеллект может сделать рабочее место более справедливым», — сказал Сондерлинг. «Но при небрежном внедрении ИИ может проводить дискриминацию в таких масштабах, которых никогда раньше не видел ни один HR-специалист».

Наборы обучающих данных для моделей ИИ, используемых для найма, должны отражать разнообразие

Это связано с тем, что модели ИИ полагаются на обучающие данные. Если в качестве основы для обучения будет использована текущая рабочая сила компании, «это повторит статус-кво. Если это в первую очередь один пол или одна раса, это будет повторяться», — сказал он. И наоборот, ИИ может помочь снизить риски предвзятости при приеме на работу по расовому, этническому происхождению или статусу инвалидности. «Я хочу, чтобы ИИ улучшил дискриминацию на рабочем месте», — сказал он.

Amazon начала создавать приложение для найма в 2014 году и со временем обнаружила, что оно дискриминирует женщин в своих рекомендациях, потому что модель ИИ была обучена на наборе данных собственной записи о найме компании за предыдущие 10 лет, которая в основном касалась мужчин. Разработчики Amazon пытались исправить это, но в 2017 году отказались от системы.

Facebook недавно согласился выплатить 14,25 миллиона долларов для урегулирования гражданских исков правительства США о том, что социальная сеть дискриминировала американских рабочих и нарушала федеральные правила найма. Рейтер. Дело было сосредоточено на использовании Facebook так называемой программы PERM для сертификации труда. Правительство обнаружило, что Facebook отказывается нанимать американских рабочих на рабочие места, которые были зарезервированы для владельцев временных виз в рамках программы PERM.

«Исключение людей из кадрового резерва является нарушением», — сказал Сондерлинг. Если программа искусственного интеллекта «скрывает возможность трудоустройства для этого класса, поэтому они не могут воспользоваться своими правами, или если она понижает защищенный класс, это находится в нашей компетенции», — сказал он.

Оценка занятости, которая стала более распространенной после Второй мировой войны, принесла большую пользу менеджерам по персоналу, и с помощью ИИ они могут свести к минимуму предвзятость при приеме на работу. «В то же время они уязвимы для заявлений о дискриминации, поэтому работодатели должны быть осторожны и не должны занимать позицию невмешательства», — сказал Сондерлинг. «Неточные данные будут усиливать предвзятость при принятии решений. Работодатели должны проявлять бдительность в отношении результатов дискриминации».

Он рекомендовал исследовать решения от поставщиков, которые проверяют данные на предмет риска предвзятости на основе расы, пола и других факторов.

Один пример из HireVue из Южной Иордании, штат Юта, которая создала платформу для найма, основанную на Единых руководящих принципах Комиссии по равным возможностям США, разработанную специально для смягчения несправедливой практики найма, согласно отчету от всеРабота.

В сообщении об этических принципах ИИ на его веб-сайте, в частности, говорится: «Поскольку HireVue использует технологию ИИ в своих продуктах, мы активно работаем над предотвращением введения или распространения предвзятости в отношении какой-либо группы или отдельного лица. Мы продолжим тщательно проверять наборы данных, которые мы используем в нашей работе, и следить за тем, чтобы они были максимально точными и разнообразными. Мы также продолжаем совершенствовать наши возможности по отслеживанию, обнаружению и устранению предвзятости. Мы стремимся создавать команды из разных слоев общества с разными знаниями, опытом и взглядами, чтобы наилучшим образом представлять людей, которым служат наши системы».

Кроме того, «Наши специалисты по данным и психологи IO строят алгоритмы оценки HireVue таким образом, что исключаются данные из рассмотрения алгоритмом, что способствует неблагоприятному воздействию без существенного влияния на точность прогнозов оценки. Результатом является высокодостоверная оценка со сниженным уровнем предвзятости, которая помогает улучшить процесс принятия решений человеком, активно продвигая разнообразие и равные возможности независимо от пола, этнической принадлежности, возраста или статуса инвалидности».

Доктор Эд Икегучи, генеральный директор AiCure

Проблема предвзятости в наборах данных, используемых для обучения моделей ИИ, не ограничивается наймом. Доктор Эд Икегучи, генеральный директор AiCure, аналитической компании ИИ, работающей в отрасли наук о жизни, заявил в недавнем отчете в ЗдравоохранениеITНовостиИИ настолько силен, насколько сильны данные, которые он получает, и в последнее время доверие к этой магистрали данных все чаще ставится под сомнение. Сегодняшние разработчики ИИ не имеют доступа к большим и разнообразным наборам данных, на которых можно обучать и проверять новые инструменты».

Он добавил: «Им часто приходится использовать наборы данных с открытым исходным кодом, но многие из них были обучены с помощью добровольцев-программистов, которые составляют преимущественно белое население. Поскольку алгоритмы часто обучаются на выборках данных из одного источника с ограниченным разнообразием, при применении в реальных сценариях к более широкому населению разных рас, полов, возрастов и т. д. технология, которая показалась очень точной в исследованиях, может оказаться ненадежной».

Кроме того, «для всех алгоритмов должен быть элемент управления и экспертной оценки, поскольку даже самый надежный и проверенный алгоритм обязательно даст неожиданные результаты. Алгоритм никогда не учитсяего необходимо постоянно развивать и предоставлять больше данных для улучшения».

И: «Как отрасль, мы должны более скептически относиться к выводам ИИ и поощрять прозрачность в отрасли. Компании должны с готовностью отвечать на основные вопросы, например: «Как обучался алгоритм?». На основании чего он сделал такой вывод?»

Читайте исходные статьи и информацию на Мировое правительство ИИфПЗУ Рейтер и из ЗдравоохранениеITНовости.

LEAVE A REPLY

Please enter your comment!
Please enter your name here