Традиционно смещение тона кожи в компьютерном зрении измеряется с помощью шкалы Фитцпатрика, которая измеряет от светлого к темному. Первоначально шкала была разработана для измерения загара белой кожи, но с тех пор получила широкое распространение в качестве инструмента для определения этнической принадлежности, говорит Уильям Тонг, исследователь этики искусственного интеллекта в Sony. Он используется для измерения систематической ошибки в компьютерных системах, например, путем сравнения точности моделей ИИ для людей со светлой и темной кожей.
Но описание кожи людей в одномерной шкале вводит в заблуждение, говорит Элис Сян, глобальный руководитель отдела этики искусственного интеллекта в Sony. Классифицируя людей на группы на основе этой грубой шкалы, исследователи упускают из виду предубеждения, которые затрагивают, например, азиатов, которые недостаточно представлены в западных наборах данных ИИ и могут попадать как в светлокожие, так и в темнокожие категории. И при этом не учитывается тот факт, что у людей меняется оттенок кожи. Например, кожа азиатов с возрастом становится темнее и желтее, а белая кожа становится темнее и краснее. исследователи отмечают.
Команда Тонга и Сяна разработала инструмент —общий доступ исключительно с MIT Technology Review, который расширяет шкалу оттенков кожи до двух измерений, измеряя как цвет кожи (от светлого до темного), так и оттенок кожи (от красного до желтого). Sony делает инструмент в свободном доступе в Интернете.
Тонг говорит, что его вдохновил бразильский художник Анжелика Дасс, чья работа показывает, что люди одного происхождения могут иметь самые разные оттенки кожи. Но представление всего спектра оттенков кожи — не новая идея. Косметическая промышленность уже много лет использует одну и ту же технику.
«Для любого, кому приходилось выбирать оттенок тонального крема… вы знаете, насколько важно не только то, светлый или темный тон у человека, но и то, теплый или холодный тон», — говорит Сян.
Работа Sony над оттенком кожи «даёт представление о недостающем компоненте, который люди упускают из виду», — говорит Гуха Балакришнан, доцент Университета Райса, изучающий предвзятости в моделях компьютерного зрения.
Смещение измерения
На данный момент у исследователей не существует единого стандартного способа измерения систематической ошибки в компьютерном зрении, что затрудняет сравнение систем друг с другом.
Чтобы упростить оценку предвзятости, Meta разработала новый способ измерения справедливости в моделях компьютерного зрения, называемый Справедливость в оценке компьютерного зрения (FACET), который можно использовать для решения ряда общих задач, таких как классификация, обнаружение и сегментация. Лаура Густафсон, исследователь искусственного интеллекта в Meta, говорит, что FACET — это первая оценка справедливости, включающая множество различных задач компьютерного зрения, и что она включает в себя более широкий диапазон показателей справедливости, чем другие инструменты предвзятости.