Эта история первоначально появилась в The Algorithm, нашем еженедельном информационном бюллетене по искусственному интеллекту. Чтобы первыми получать подобные истории в свой почтовый ящик, подпишите здесь.
Я вернулся после полезной недели сбора черники в лесу. Так что эта история, которую мы опубликовали на прошлой неделе о грязной этике ИИ в войне, — это просто противоядие, которое снова поднимает мое кровяное давление.
Артур Холланд Мишель отлично справляется со сложными и нюансированными этическими вопросами, связанными с военными действиями и все более широким использованием военными инструментов искусственного интеллекта. Существует множество способов, которыми ИИ может катастрофически потерпеть неудачу или быть использованным в конфликтных ситуациях, и, похоже, пока нет никаких реальных правил, ограничивающих его. История Холланда Мишеля показывает, как мало людей можно привлечь к ответственности, когда что-то идет не так.
В прошлом году я писал о том, как война в Украине положила начало новому буму в бизнесе стартапов в сфере ИИ для обороны. Последний цикл ажиотажа только добавил к этому, поскольку компании, а теперь и военные, стремятся внедрить генеративный ИИ в продукты и услуги.
Ранее в этом месяце Министерство обороны СШАобъявилон создает Целевую группу по генеративному ИИ, целью которой является «анализ и интеграция» инструментов ИИ, таких как большие языковые модели, по всему отделу.
Департамент видит огромный потенциал для «улучшения разведки, оперативного планирования, административных и бизнес-процессов».
Но история Холланда Мишеля показывает, почему первые два варианта использования могут быть плохой идеей.Инструменты генеративного ИИ, такие как языковые модели, глючат и непредсказуемы, и они компенсируют ситуацию. У них также есть серьезные уязвимости в системе безопасности, проблемы с конфиденциальностью и глубоко укоренившиеся предубеждения.
Применение этих технологий в условиях высоких ставок может привести к несчастным случаям со смертельным исходом, когда неясно, кто или что должно нести ответственность или даже почему возникла проблема. Все согласны с тем, что люди должны сделать последний выбор, но это усложняется технологиями, которые действуют непредсказуемо, особенно в быстро развивающихся конфликтных ситуациях.
Некоторых беспокоит, что люди, занимающие самое низкое положение в иерархии, заплатят самую высокую цену, когда что-то пойдет не так: «В случае аварии — независимо от того, ошибся ли человек, ошибся ли компьютер или ошиблись они вместе, — человек, который сделал «решение» возьмет на себя вину и защитит всех остальных в цепочке подчинения от полного воздействия ответственности», — пишет Холланд Мишель.
Единственные, кто, похоже, не столкнется с какими-либо последствиями, когда ИИ потерпит неудачу в войне, — это компании, поставляющие технологию.
Это помогает компаниям, когда правила, установленные США для управления ИИ в войне, являются просторекомендации, а не законы. Из-за этого очень сложно привлечь кого-либо к ответственности. Даже Закон об искусственном интеллекте, широкомасштабное предстоящее регулирование ЕС для систем искусственного интеллекта с высоким уровнем риска, исключает использование в военных целях, которые, возможно, являются приложениями с самым высоким риском из всех.
В то время как все ищут захватывающие новые способы использования генеративного ИИ, я лично не могу дождаться, когда он станет скучным.
Средиранние признакичто люди начинают терять интерес к технологии, компании могут обнаружить, что такого рода инструменты лучше подходят для обыденных приложений с низким уровнем риска, чем для решения самых больших проблем человечества.
Применение ИИ, например, в программном обеспечении для повышения производительности, таком как Excel, электронная почта или обработка текстов, может быть не самой привлекательной идеей, но по сравнению с военными действиями это приложение с относительно низкими ставками и достаточно простое, чтобы действительно работать так, как рекламируется. Это может помочь нам выполнять утомительную часть нашей работы быстрее и лучше.
Скучный ИИ вряд ли так легко сломается и, самое главное, никого не убьет. Надеюсь, скоро мы вообще забудем, что взаимодействуем с ИИ. (Не так давно машинный перевод был захватывающей новинкой в области искусственного интеллекта. Сейчас большинство людей даже не задумываются о его роли в Google Translate.)
Вот почему я более уверен, что такие организации, как Министерство обороны, добьются успеха, применяя генеративный ИИ в административных и бизнес-процессах.
Скучный ИИ не является морально сложным. Это не магия. Но это работает.
Более глубокое обучение
ИИ плохо расшифровывает человеческие эмоции. Так почему же регуляторы нацелены на эту технологию?
На фоне всех разговоров о ChatGPT, общем искусственном интеллекте и перспективах того, что роботы займут рабочие места людей, регулирующие органы в ЕС и США наращивают предупреждения об искусственном интеллекте и распознавании эмоций. Распознавание эмоций — это попытка определить чувства или душевное состояние человека с помощью ИИ-анализа видео, изображений лица или аудиозаписей.
Но почему это главная проблема? Западные регулирующие органы особенно обеспокоены использованием Китаем этой технологии и ее потенциалом для социального контроля. И есть также доказательства того, что он просто не работает должным образом. Тейт Райан-Мосли проанализировала острые вопросы, связанные с технологиями, в выпуске The Technocrat за последнюю неделю, нашего еженедельного информационного бюллетеня по технической политике.
Биты и байты
Meta готовится к запуску бесплатного программного обеспечения для генерации кода
Версия новой языковой модели LLaMA 2, способная генерировать программный код, составит серьезную конкуренцию аналогичным проприетарным программам генерации кода от конкурентов, таких как OpenAI, Microsoft и Google. По данным The Information, программа с открытым исходным кодом называется Code Llama, и ее запуск неизбежен. (Информация)
OpenAI тестирует GPT-4 для модерации контента
Использование языковой модели для модерации онлайн-контента действительно может помочь облегчить умственную нагрузку модерации контента на людей. OpenAI говорит, что первые результаты были многообещающими, хотя технология не превосходит высококвалифицированных людей. Остается много больших открытых вопросов, например, можно ли настроить инструмент для разных культур и уловить контекст и нюансы. (OpenAI)
Google работает над помощником на основе искусственного интеллекта, который дает жизненные советы
Инструменты генеративного ИИ могут функционировать как лайф-коуч, предлагая идеи, инструкции по планированию и советы по обучению. (Нью-Йорк Таймс)
Два технических специалиста уволились с работы, чтобы создавать системы искусственного интеллекта, вдохновленные пчелами.
Sakana, новая исследовательская лаборатория искусственного интеллекта, черпает вдохновение в царстве животных. Основанная двумя видными отраслевыми исследователями и бывшими сотрудниками Google, компания планирует создать несколько небольших моделей ИИ, которые будут работать вместе. Идея заключается в том, что «рой» программ может быть столь же мощным, как и одна большая модель ИИ. (Блумберг)