Home Нейронные сети Люди не должны платить такую ​​высокую цену за призывы к вреду ИИ | DeepTech

Люди не должны платить такую ​​высокую цену за призывы к вреду ИИ | DeepTech

0
Люди не должны платить такую ​​высокую цену за призывы к вреду ИИ
 | DeepTech

«Большая семерка» только что согласовала (добровольный) кодекс поведения, который должны соблюдать компании, занимающиеся искусственным интеллектом, поскольку правительства стремятся свести к минимуму вред и риски, создаваемые системами искусственного интеллекта. А позже на этой неделе Великобритания будет полна сторонников ИИ, которые примут участие в правительственном саммите по безопасности ИИ, целью которого является выработка глобальных правил безопасности ИИ.

В целом эти события позволяют предположить, что идея, продвигаемая Кремниевой долиной, о «экзистенциальном риске», создаваемом ИИ, становится все более доминирующей в общественном дискурсе.

Это вызывает беспокойство, поскольку сосредоточение внимания на устранении гипотетического вреда, который может возникнуть в будущем, отвлекает внимание от вполне реального вреда, который ИИ причиняет сегодня. «Существующие системы искусственного интеллекта, которые причиняют явный вред, более опасны, чем гипотетические «разумные» системы искусственного интеллекта, потому что они реальны», — пишет Джой Буоламвини, известный исследователь искусственного интеллекта и активистка, в своих новых мемуарах «Разоблачение искусственного интеллекта: моя миссия по защите того, что является человеком в мире». Мир машин. Подробнее о ее мыслях читайте в отрывке из ее книги, который выйдет завтра.

Я имел удовольствие поговорить с Буоламвини об истории ее жизни и о том, что беспокоит ее сегодня в AI. Буоламвини – влиятельный голос в этой области. Ее исследование предвзятости в системах распознавания лиц заставило такие компании, как IBM, Google и Microsoft, изменить свои системы и отказаться от продажи своих технологий правоохранительным органам.

Теперь у Буоламвини появилась новая цель. Она призывает к радикальному переосмыслению того, как создаются системы искусственного интеллекта, начиная с более этичных и согласованных методов сбора данных. «Меня беспокоит то, что мы даем стольким компаниям свободу действий или аплодируем инновациям, отворачивая головы (от вреда)», — сказал мне Буоламвини. Прочтите мое интервью с ней.

Хотя история Буоламвини во многих отношениях является вдохновляющей историей, она также является и предупреждением. Буоламвини говорила о вреде ИИ на протяжении большей части десятилетия, и она сделала несколько впечатляющих вещей, чтобы донести эту тему до общественного сознания. Что меня действительно поразило, так это то, какие потери пришлось ей заплатить за откровенность. В книге она описывает, как ей пришлось обратиться в отделение неотложной помощи из-за сильного истощения после того, как она попыталась сделать слишком много вещей одновременно — пропагандистскую деятельность, основание своей некоммерческой организации «Лига алгоритмической справедливости», посещение слушаний в Конгрессе и написание докторской диссертации в Массачусетском технологическом институте. .

Она не одна. Опыт Буоламвини связан со статьей, которую я написал почти ровно год назад о том, что у ответственного ИИ есть проблема выгорания.

Отчасти благодаря таким исследователям, как Буоламвини, технологические компании сталкиваются с более строгим общественным контролем над своими системами искусственного интеллекта. Компании осознали, что им нужны ответственные команды по искусственному интеллекту, чтобы гарантировать, что их продукты разрабатываются таким образом, чтобы минимизировать любой потенциальный вред. Эти команды оценивают, как на нашу жизнь, общество и политические системы влияет то, как эти системы проектируются, разрабатываются и развертываются.

LEAVE A REPLY

Please enter your comment!
Please enter your name here