Экзистенциальный риск стал одним из самых популярных мемов в сфере ИИ. Гипотеза состоит в том, что однажды мы создадим ИИ, который будет намного умнее человека, и это может привести к серьезным последствиям. Эту идеологию поддерживают многие в Кремниевой долине, в том числе Илья Суцкевер, главный научный сотрудник OpenAI, сыгравший ключевую роль в смещении генерального директора OpenAI Сэма Альтмана (а затем восстановлении его в должности несколько дней спустя).
Но не все согласны с этой идеей. Лидеры Meta по искусственному интеллекту Янн Лекун и Жоэль Пино заявили, что эти опасения «смехотворны», а разговор о рисках, связанных с искусственным интеллектом, стал «беспорядочным». Многие другие влиятельные игроки в области ИИ, такие как исследователь Джой Буоламвини, говорят, что сосредоточение внимания на гипотетических рисках отвлекает от вполне реального вреда, который ИИ причиняет сегодня.
Тем не менее, повышенное внимание к тому, что технология может нанести огромный вред, побудило многих важных разговоров о политике в области ИИ и побудило законодателей во всем мире принять меры.
4. Времена искусственного Дикого Запада прошли.
Благодаря ChatGPT в этом году все, от Сената США до «Большой семерки», говорили о политике и регулировании ИИ. В начале декабря европейские законодатели завершили напряженный политический год, когда они согласовали Закон об искусственном интеллекте, который введет обязательные правила и стандарты о том, как более ответственно разрабатывать наиболее рискованные виды искусственного интеллекта. Он также запретит некоторые «неприемлемые» применения ИИ, такие как использование полицией распознавания лиц в общественных местах.
Тем временем Белый дом представил указ об искусственном интеллекте, а также добровольные обязательства ведущих компаний, занимающихся искусственным интеллектом. Его усилия были направлены на повышение прозрачности и стандартов ИИ и предоставили агентствам большую свободу адаптировать правила ИИ к своим секторам.
Одним из конкретных политических предложений, получивших большое внимание, были водяные знаки — невидимые сигналы в тексте и изображениях, которые могут быть обнаружены компьютерами для обозначения контента, созданного ИИ. Их можно использовать для отслеживания плагиата или помощи в борьбе с дезинформацией, и в этом году мы увидели исследование, в котором удалось применить их к тексту и изображениям, сгенерированным ИИ.
Были заняты не только законодатели, но и юристы. Мы стали свидетелями рекордного количества судебных исков, поскольку художники и писатели утверждали, что компании, занимающиеся искусственным интеллектом, украли их интеллектуальную собственность без их согласия и без какой-либо компенсации. В захватывающем контрнаступлении исследователи из Чикагского университета разработали Nightshade, новый инструмент для отравления данных, который позволяет художникам дать отпор генеративному ИИ, искажая обучающие данные таким образом, что это может нанести серьезный ущерб моделям ИИ, генерирующим изображения. Назревает сопротивление, и я ожидаю, что в следующем году появятся новые усилия широких масс по изменению баланса сил в сфере технологий.
Более глубокое обучение
Теперь мы знаем, чем занималась команда суперсогласования OpenAI.
OpenAI объявила о первых результатах работы своей команды суперсогласования, собственной инициативы, направленной на предотвращение выхода из-под контроля сверхинтеллекта — гипотетического искусственного интеллекта будущего, который сможет перехитрить людей. Группу возглавляет главный научный сотрудник Илья Суцкевер, который входил в группу, которая только в прошлом месяце уволила генерального директора OpenAI Сэма Альтмана, но через несколько дней восстановила его в должности.
Обычное дело: В отличие от многих заявлений компании, это не предвещает большого прорыва. В скромной исследовательской работе команда описывает метод, который позволяет менее мощной большой языковой модели контролировать более мощную — и предполагает, что это может быть небольшим шагом к выяснению того, как люди могут управлять сверхчеловеческими машинами. Узнайте больше от Уилла Дугласа Хэвена.
Биты и байты
Google DeepMind использовал большую языковую модель для решения неразрешимой математической задачи
В статье, опубликованной в журнале Nature, компания сообщает, что впервые большая языковая модель была использована для решения давней научной загадки — получения поддающейся проверке и ценной новой информации, которой ранее не существовало. (Обзор технологий MIT)