Home Робототехника Как научить машины рекомендовать? | DeepTech

Как научить машины рекомендовать? | DeepTech

0
Как научить машины рекомендовать?
 | DeepTech

Введение

Как научить машины давать рекомендации — важнейший вопрос нашего времени. Рекомендация и персонализация — две основные возможности нашего времени. Лучшие рекомендации пользователей контента демонстрируют лучшее взаимодействие и пользовательский опыт с использованием искусственного интеллекта и машинного обучения. Итак, как научить машины рекомендовать?

Читайте также: Умное сельское хозяйство с использованием искусственного интеллекта и Интернета вещей

Как научить машины рекомендовать?

Это очень интересная возможность для любого продукта, но когда дело касается издательской компании, она становится еще более интересной. Издательство публикует множество рассказов в день. Эти истории адресованы разным аудиториям широкого спектра, и это представляет собой уникальную возможность для нас, энтузиастов технологий.

Существует как возможность, так и задача сопоставить контент с заинтересованным читателем, что приведет к увеличению вовлеченности, социальных репостов и дохода, а не позволит истории плавать в космическом мусоре, похожем на всемирную паутину.

Еще раз: как научить машины рекомендовать?

Это требует от нас понимания основных функций нашего сайта и настройки их с помощью экспериментов на основе данных, чтобы иметь возможность персонализировать контент в соответствии с предпочтениями читателей и вероятностью взаимодействия. Очень важной функцией для этого будет дерево решений. Поэтому определение дерева решений с самого начала чрезвычайно важно.

Читайте также: Сельскохозяйственные роботы.

Это приводит к вопросу автоматизации рекомендаций путем обучения машин изучению шаблонов персонализации и созданию контента, который пользователи могут захотеть изучить. Теперь, когда соответствующая информация поступает к нужным пользователям, рост вовлеченности приводит к более высокому потреблению контента, увеличению доходов и улучшению пользовательского опыта. Давайте углубимся в то, как научить машины давать рекомендации?

Многие компании сталкиваются с этой проблемой, и цель состоит в том, чтобы описать решение на высоком уровне для технических специалистов-энтузиастов, которые хотят решить аналогичные проблемы.

Важнейшим разделом, где в публикации открываются все новые возможности, являются рекомендации и/или персонализация последних новостей. Например, последние новости технологического сектора могут быть неактуальны для медицинского работника, НО последние новости технологического сектора, влияющие на здравоохранение, могут быть очень актуальными для пользователя, и наоборот. Суть возможностей здесь заключается в достижении правильного баланса и создании правильного контента на основе структуры контента, потребляемого пользователями, как только публикуется новый контент.

Читайте также: Умные кухни с искусственным интеллектом

Это может быть возможно при условии, что будут сопоставлены и повсеместно использоваться правильные данные. Собранные необработанные данные должны быть нормализованы, а уникально идентифицированные разделы этих данных должны быть параметризованы, чтобы наилучшим образом использовать историю, которую предоставляют данные.

Просеивание данных

Отсеивание исторически потребляемого пользователями контента и сохранение информации о категориях, тегах и ключевых словах для каждого профиля обеспечивает контекст для базового набора алгоритмов. НЛП-анализ можно использовать для ключевых слов и настроений контента, потребляемого в течение определенного недавнего исторического периода. Это поможет нам предоставить контент, который можно будет прочитать, основываясь на исторических ориентирах.

Этого можно достичь с помощью простого моделирования данных на основе контента. Используемые здесь теги или категории играют очень важную роль, оказывая различное влияние на симуляцию модели контента в зависимости от уникальности и широты категории или тега. Этот подход, хотя и требует больших объемов данных, возможно, не самый эффективный.

Например, тому, кто читает о фаст-фуде, может быть интересно прочитать о том, чем органическая еда лучше фаст-фуда.

Самым важным отличием от предыдущего алгоритма здесь является контекст и настроение потребляемого контента. Это на самом деле помогает нам размещать релевантные объявления, основанные на сентиментальном анализе — объявления, с которыми пользователь с наибольшей вероятностью будет взаимодействовать. Это также помогает нам справиться с проблемой негативных рекламных кампаний.

Например, потребитель, читающий негативный контент о возгорании телефонов, с меньшей вероятностью будет взаимодействовать с рекламой того же телефона.

Сетевую фильтрацию на основе алгоритма ближайшего соседа следует добавлять поверх алгоритма на основе исторических данных. Это очень мощный инструмент, позволяющий анализировать аналогичный контент, потребляемый схожими профилями, тем самым экспоненциально увеличивая ваши тестовые данные.

Читайте также: Starbucks, управляемая искусственным интеллектом и данными – Deep Brew

Это также поможет вам отредактировать функции вашего алгоритма для предоставления более точного интересного контента. К сожалению, это хорошо работает только для контента, находящегося в четко определенных границах исследовательской сферы.

Проблемы

Есть вопросы, на которые этот подход все еще должен ответить: как насчет неправильной маркировки контента при таком подходе? Как нам это решить? А как насчет нового контента/типа контента? Это уникальные проблемы, на которые есть простой, но сложный ответ.

Сложная структура возникает в результате экстраполяции логики сетевого моделирования, моделирования контента, анализа настроений, моделирования исторического контента и моделирования профиля данных на основе предпочтений. Такое объединение различных моделей данных помогает нам научить машину оптимальному подходу к выбору рекомендуемого пользователю контента.

Читайте также: Роль искусственного интеллекта в модерации контента

Алгоритм должен начинаться с моделирования каждой части контента как объединения данных, под которые она подпадает. Следует начать отбирать ключевые слова по темам, которые говорят об информации в контенте.

Это помогает нам моделировать каждого пользователя на основе его профиля предпочтений. Алгоритм должен разбить профиль предпочтений на разделы в зависимости от того, как пользователь потребляет контент по темам, которые он предпочитает читать. Затем выполняется пространственный анализ, чтобы определить, как и где потребляемый контент согласуется с другими профилями с использованием алгоритма ближайшего соседа.

Читайте также: Влияние искусственного интеллекта на рабочие пространства

Этот анализ помогает нам понять модели чтения каждого уникально идентифицированного профиля. Это, в свою очередь, помогает нам нарисовать карту, соединяющую каждый профиль, тем самым давая нам сеть шаблонов чтения, которые можно использовать для подачи в классификаторы, определяющие их как параметры.

Это можно сделать с помощью различных алгоритмов, но основной концепцией является НЛП. (Это помогает нам понять, что контент с ключевыми словами может носить пояснительный характер, а не быть темой фрагмента контента.)

Результаты этого алгоритма необходимо проверить на наличие смещений в полученных нами наборах результатов, и нам следует внести исправления в наш алгоритм, анализируя с его помощью обучающие данные. Предпочтительно иметь несколько уровней этих алгоритмов, которые постоянно изменяются с помощью параметров, чтобы помочь вам достичь ожидаемого набора результатов с использованием обучающих данных.

Читайте также: Использование искусственного интеллекта для повышения прибыльности издательского дела.

Заключение

Идеальный рецепт, который вы найдете для этого, должен быть проверен в крупномасштабном эксперименте, чтобы увидеть, подтверждают ли данные, которые вы сопоставляете, ваш алгоритм. Как только вы войдете в правильный ритм, вы сможете постоянно предоставлять правильный контент нужным потребителям в нужное время, тем самым повышая вовлеченность, производительность и удобство использования. Как только вы начнете собирать много данных на основе вашего алгоритма, вы сможете пропускать их через нейронные сети, чтобы улучшить свой набор данных и результаты.

Надеемся, это поможет улучшить взаимодействие читателей и удобство использования.

Примечание. Это было бы невозможно без помощи и поддержки моей потрясающей команды рок-звезд! Спасибо – Райан БобровскиКарен Розенблатт, Гювенч Дж. Ачаркан, Джон Китас, Дэвид Рэнкин, Асад РичардсонМилан Т, Кевин Мельцер, Адам Чайлдерс, Джастин Грейди, Марипрасад.

LEAVE A REPLY

Please enter your comment!
Please enter your name here