Home Нейронные сети Пришло время повысить прозрачность ИИ | DeepTech

Пришло время повысить прозрачность ИИ | DeepTech

0
Пришло время повысить прозрачность ИИ
 | DeepTech

Но что меня действительно выделяет, так это то, насколько Meta распахивает свои двери. Это позволит более широкому сообществу ИИ загрузить модель и настроить ее. Это может помочь сделать его более безопасным и эффективным. И что особенно важно, это может продемонстрировать преимущества прозрачности над секретностью, когда речь идет о внутренней работе моделей ИИ. Это не может быть более своевременным или более важным.

Технологические компании спешат выпустить свои модели ИИ на волю, и мы видим, как генеративный ИИ внедряется во все большее количество продуктов. Но самые мощные модели, такие как OpenAI GPT-4, тщательно охраняются их создателями. Разработчики и исследователи платят за ограниченный доступ к таким моделям через веб-сайт и не знают деталей их внутренней работы.

Эта непрозрачность может привести к проблемам в будущем, как подчеркивается в новом, не рецензируемая статья что вызвало некоторый шум на прошлой неделе. Исследователи из Стэнфордского университета и Калифорнийского университета в Беркли обнаружили, что GPT-3.5 и GPT-4 хуже справляются с решением математических задач, ответами на деликатные вопросы, генерацией кода и визуальными рассуждениями, чем пару месяцев назад.

Отсутствие прозрачности в этих моделях не позволяет точно сказать, почему это может быть, но, тем не менее, к результатам следует относиться с долей скептицизма, считает профессор компьютерных наук из Принстона Арвинд Нараянан. пишет в его оценке. Они скорее вызваны «причудами авторской оценки», чем свидетельством того, что OpenAI ухудшил модели. Он считает, что исследователи не учли, что OpenAI настроил модели, чтобы они работали лучше, и это непреднамеренно привело к тому, что некоторые методы подсказок перестали работать, как это было в прошлом.

Это имеет некоторые серьезные последствия. Компании, которые создали и оптимизировали свои продукты для работы с определенной итерацией моделей OpenAI, могут «на 100%» увидеть, как они внезапно дают сбой и ломаются, говорит Саша Лучони, исследователь ИИ в стартапе Hugging Face. Когда OpenAI настраивает свои модели таким образом, продукты, которые были созданы с использованием очень специфических подсказок, например, могут перестать работать так, как раньше. Она добавляет, что закрытым моделям не хватает ответственности. «Если у вас есть продукт, и вы что-то в нем меняете, вы должны сообщить об этом своим клиентам».

Открытая модель, такая как LLaMA 2, по крайней мере даст понять, как компания разработала модель и какие методы обучения она использовала. В отличие от OpenAI, Meta поделилась всем рецептом LLaMA 2, включая подробности о том, как он обучался, какое оборудование использовалось, как аннотировались данные и какие методы использовались для уменьшения вреда. По словам Лучони, люди, занимающиеся исследованиями и создающие продукты на основе этой модели, точно знают, над чем они работают.

«После того как у вас есть доступ к модели, вы можете проводить всевозможные эксперименты, чтобы убедиться, что вы получаете лучшую производительность или получаете меньше предвзятости или что-то еще, что вы ищете», — говорит она.

В конечном счете, открытые и закрытые дебаты вокруг ИИ сводятся к тому, кто командует. С открытыми моделями пользователи имеют больше возможностей и контроля. С закрытыми моделями вы полностью зависите от их создателя.

То, что такая крупная компания, как Meta, выпускает такую ​​открытую и прозрачную модель ИИ, кажется потенциальным поворотным моментом в золотой лихорадке генеративного ИИ.

LEAVE A REPLY

Please enter your comment!
Please enter your name here