У меня также было достаточно времени, чтобы поразмышлять о прошедшем году. «Алгоритм» читает гораздо больше вас, чем когда мы впервые начали этот информационный бюллетень, и за это я бесконечно благодарен. Спасибо, что присоединились ко мне в этой дикой поездке с искусственным интеллектом. Вот вам в подарок мопс-черлидерша!
Так чего же нам ожидать в 2024 году? Все признаки указывают на то, что на компании, занимающиеся ИИ, оказывается огромное давление с целью показать, что генеративный ИИ может приносить деньги и что Кремниевая долина может создать «убийственное приложение» для ИИ. Big Tech, крупнейшие сторонники генеративного ИИ, делают большие ставки на настраиваемых чат-ботов, которые позволят любому стать инженером приложений генеративного ИИ без каких-либо навыков программирования. Дела уже идут быстро: OpenAI как сообщается собирается запустить магазин приложений GPT уже на этой неделе. Мы также увидим новые интересные разработки в области видео, генерируемого ИИ, гораздо больше дезинформации о выборах с помощью ИИ и роботов, которые выполняют несколько задач. На прошлой неделе мы с моим коллегой Уиллом Дугласом Хэвеном поделились нашими четырьмя прогнозами относительно развития ИИ в 2024 году. Полный текст можно прочитать здесь.
Этот год также станет еще одним важным годом для регулирования ИИ во всем мире. В 2023 году в Европейском Союзе был принят первый радикальный закон об искусственном интеллекте, в США прошли слушания в Сенате и были приняты исполнительные указы, а Китай ввел конкретные правила для таких вещей, как рекомендательные алгоритмы. Если в прошлом году законодатели договорились о видении, 2024 год станет годом, когда политика начнет превращаться в конкретные действия. Вместе с моими коллегами Тейтом Райаном-Мосли и Зейи Янг я написал статью, в которой рассказывается, чего ожидать от регулирования ИИ в следующем году. Прочтите это здесь.
Но даже несмотря на то, что революция генеративного искусственного интеллекта разворачивается с головокружительной скоростью, все еще остается несколько больших нерешенных вопросов, на которые срочно необходимо ответить, пишет Уилл. Среди прочего он выделяет проблемы, связанные с предвзятостью, авторским правом и высокой стоимостью создания ИИ. Подробнее читайте здесь.
Я бы добавил к этому списку огромные уязвимости безопасности генеративных моделей. Большие языковые модели, технологию искусственного интеллекта, лежащую в основе таких приложений, как ChatGPT, действительно легко взломать. Например, ИИ-помощники или чат-боты, которые могут просматривать Интернет, очень восприимчивы к атаке, называемой непрямым внедрением подсказок, которая позволяет посторонним управлять ботом, проникая в невидимые подсказки, которые заставляют ботов вести себя так, как хочет злоумышленник. Как я писал еще в апреле, это может сделать их мощным инструментом для фишинга и мошенничества. Исследователям также удалось успешно отравить наборы данных ИИ поврежденными данными, что может навсегда разрушить модели ИИ. (Конечно, это не всегда пытается сделать злоумышленник. Используя новый инструмент под названием Nightshade, художники могут добавлять невидимые изменения к пикселям в своих произведениях перед их загрузкой в Интернет, чтобы, если их вставить в обучающий набор ИИ, они может привести к тому, что полученная модель сломается хаотичным и непредсказуемым образом.)
Несмотря на эти уязвимости, технологические компании стремятся выпускать продукты на базе искусственного интеллекта., например помощники или чат-боты, которые могут просматривать веб-страницы. Хакерам довольно легко манипулировать системами искусственного интеллекта, отравляя их сомнительными данными, поэтому появление систем искусственного интеллекта, взломанных таким образом, является лишь вопросом времени. Вот почему мне было приятно видеть, что NIST, американское агентство по технологическим стандартам, повысило осведомленность об этих проблемах и предложило методы их смягчения. новое руководство опубликовано в конце прошлой недели. К сожалению, в настоящее время не существует надежного решения этих проблем безопасности, и необходимо гораздо больше исследований, чтобы лучше понять их.
Роль искусственного интеллекта в наших обществах и жизни будет только возрастать по мере того, как технологические компании интегрируют его в программное обеспечение, от которого мы все зависим ежедневно, несмотря на эти недостатки. По мере того, как регулирование набирает обороты, сохранять открытый и критический подход к ИИ становится важнее, чем когда-либо.
Более глубокое обучение
Как машинное обучение может помочь в прогнозировании землетрясений