Home Нейронные сети Никто не знает, как работает ИИ | DeepTech

Никто не знает, как работает ИИ | DeepTech

0
Никто не знает, как работает ИИ
 | DeepTech

Недавно мы стали свидетелями некоторых сбоев ИИ в гораздо большем масштабе. В последней (веселой) оплошности Google Gemini отказался создавать изображения белых людей, особенно белых мужчин. Вместо этого пользователи могли создавать изображения черных пап и женщин-нацистских солдат. Google пытался сделать результаты своей модели менее предвзятыми, но это имело неприятные последствия, и вскоре технологическая компания оказалась в центре культурных войн в США, а консервативные критики и Илон Маск обвинили ее в «проснувшемся». предвзятость и неточное представление истории. Google извинился и приостановил функцию.

В другом, ныне известном инциденте, чат Microsoft Bing рассказал Газета “Нью-Йорк Таймс репортер ушел от жены. И чат-боты службы поддержки клиентов продолжают доставлять своим компаниям всевозможные неприятности. Например, Air Canada недавно была вынуждена вернуть клиенту деньги в соответствии с политикой, установленной ее чат-ботом службы поддержки клиентов. Список можно продолжить.

Технологические компании торопятся с запуском продуктов на базе искусственного интеллекта, несмотря на многочисленные доказательства того, что их трудно контролировать и они часто ведут себя непредсказуемо. Такое странное поведение происходит потому, что никто точно не знает, как и почему работает глубокое обучение, фундаментальная технология, лежащая в основе сегодняшнего бума искусственного интеллекта. Это одна из самых больших загадок в области искусственного интеллекта. Мой коллега Уилл Дуглас Хэвен только что опубликовал статью, в которой он подробно ее рассматривает.

Самая большая загадка заключается в том, как большие языковые модели, такие как Gemini и OpenAI GPT-4, могут научиться делать то, чему их не учили. Вы можете обучить языковую модель математическим задачам на английском языке, а затем показать ей французскую литературу, и на основе этого она сможет научиться решать математические задачи на французском языке. Эти способности противоречат классической статистике, которая дает нам лучший набор объяснений того, как должны вести себя прогностические модели, пишет Уилл. Подробнее читайте здесь.

Легко принять восприятие, возникающее из-за нашего невежества, за магию. Даже название технологии — искусственный интеллект — трагически вводит в заблуждение. Языковые модели кажутся умными, потому что они генерируют человечную прозу, предсказывая следующее слово в предложении. Эта технология не является по-настоящему разумной, и ее название слегка меняет наши ожидания, поэтому мы относимся к ней как к более эффективной, чем она есть на самом деле.

Не попадайтесь в маркетинговую ловушку технологического сектора, полагая, что эти модели всезнающи, основаны на фактах или даже почти готовы к работе, которую мы от них ожидаем. Из-за их непредсказуемости, неконтролируемой предвзятости, уязвимостей безопасности и склонности выдумывать их полезность крайне ограничена. Они могут помочь людям провести мозговой штурм и развлечь нас. Но, зная, насколько глючны и склонны к сбоям эти модели, вероятно, не стоит доверять им данные вашей кредитной карты, вашу конфиденциальную информацию или любые критически важные случаи использования.

Как говорят ученые в статье Уилла, исследования ИИ еще только начинаются. По словам Боаза Барака, ученого-компьютерщика из Гарвардского университета, который в настоящее время прикомандирован к команде OpenAI по супервыравниванию, многие люди в этой области сравнивают это с физикой начала 20-го века, когда Эйнштейн придумал теорию относительности.

Сегодня основное внимание в этой области уделяется тому, как модели производят то, что они делают, но необходимы дополнительные исследования того, почему они это делают. Пока мы не получим лучшего понимания внутренностей ИИ, ожидайте новых странных ошибок и большого количества шумихи, которой технология неизбежно не сможет соответствовать.

LEAVE A REPLY

Please enter your comment!
Please enter your name here