Home Нейронные сети Нам нужно сосредоточиться на уже существующем вреде ИИ | DeepTech

Нам нужно сосредоточиться на уже существующем вреде ИИ | DeepTech

0
Нам нужно сосредоточиться на уже существующем вреде ИИ
 | DeepTech

Одна из проблем с минимизацией существующего вреда ИИ, утверждая, что гипотетический экзистенциальный вред более важен, заключается в том, что это смещает поток ценных ресурсов и внимания законодателей. Компании, которые заявляют, что опасаются экзистенциального риска со стороны ИИ, могли бы продемонстрировать искреннюю приверженность защите человечества, не выпуская инструменты ИИ, которые, по их утверждениям, могут положить конец человечеству.

Я не против предотвращения создания фатальных систем ИИ. Правительства, обеспокоенные летальным использованием систем ИИ, могут принять меры защиты, давно отстаиваемые Кампания по прекращению роботов-убийц запретить смертоносные автономные системы и цифровую дегуманизацию. Кампания направлена ​​на потенциально фатальное использование ИИ, не делая при этом гиперболического прыжка на пути к созданию разумных систем, которые уничтожат все человечество.

Хотя заманчиво рассматривать физическое насилие как величайший вред, это позволяет легко забыть пагубные способы, которыми наше общество увековечивает структурное насилие. Норвежский социолог Йохан Галтунг придумал этот термин, чтобы описать, как институты и социальные структуры мешают людям удовлетворять свои фундаментальные потребности и тем самым причиняют вред. Отказ в доступе к здравоохранению, жилью и трудоустройству из-за использования ИИ увековечивает индивидуальный вред и шрамы поколений. Системы искусственного интеллекта могут убивать нас медленно.

Учитывая то, что мое исследование «Гендерные оттенки» выявило алгоритмическую предвзятость со стороны некоторых ведущих технологических компаний мира, меня беспокоят насущные проблемы и возникающие уязвимости ИИ, а также то, сможем ли мы решить их способами, которые также помогут создать будущее. где бремя ИИ не ложилось непропорционально на маргинализированных и уязвимых слоев населения. Системы искусственного интеллекта с некачественным интеллектом, которые приводят к ложным арестам или неправильным диагнозам, необходимо решать уже сейчас.

Когда я думаю о x-риске, я думаю о людях, которым сейчас причинен вред, и о тех, кому угрожает вред от систем искусственного интеллекта. Я думаю о риске и реальности изгнания. Вас могут исключить из кода, если больница использует ИИ для сортировки и оставляет вас без присмотра или использует клинический алгоритм, который не позволяет вам получить жизненно важную трансплантацию органов. Вас могут экскодировать, когда вам отказывают в кредите на основании алгоритмического принятия решения. Вас могут исключить из кодировки, когда ваше резюме будет автоматически отсеяно и вам будет отказано в возможности претендовать на оставшиеся вакансии, которые не заменены системами искусственного интеллекта. Вас могут исключить из системы, если алгоритм проверки арендаторов откажет вам в доступе к жилью. Все эти примеры реальны. Никто не застрахован от изгнания, а те, кто уже маргинализирован, подвергаются большему риску.

Вот почему мои исследования не могут ограничиваться только инсайдерами отрасли, исследователями искусственного интеллекта или даже влиятельными лицами, имеющими благие намерения. Да, научные конференции являются важным местом проведения. Для многих ученых представление опубликованных статей является краеугольным камнем конкретного исследования. Для меня презентация «Гендерных оттенков» в Нью-Йоркском университете стала стартовой площадкой. Покинув остров декадентских десертов, я почувствовал мотивацию претворить свои исследования в жизнь — помимо разговоров с практиками ИИ, академических презентаций и частных ужинов. Охватить ученых и представителей отрасли просто недостаточно. Нам необходимо убедиться, что обычные люди, рискующие пострадать от ИИ, участвуют в борьбе за алгоритмическую справедливость.

Наше интервью с Джой Буоламвини читайте здесь..

LEAVE A REPLY

Please enter your comment!
Please enter your name here