Ваш контакт-центр служит жизненно важным связующим звеном между вашим бизнесом и вашими клиентами. Каждый звонок в ваш контакт-центр — это возможность узнать больше о потребностях ваших клиентов и о том, насколько хорошо вы их удовлетворяете.
Большинство контакт-центров требуют от своих агентов подводить итоги разговора после каждого звонка. Обобщение звонков — это ценный инструмент, который помогает контактным центрам понимать и получать ценную информацию о звонках клиентов. Кроме того, точные сводки вызовов улучшают взаимодействие с клиентом, устраняя необходимость повторения информации при передаче другому агенту.
В этом посте мы объясняем, как использовать возможности генеративного искусственного интеллекта, чтобы сократить усилия и повысить точность создания сводок вызовов и распределения вызовов. Мы также покажем, как быстро начать работу с последней версией нашего решения с открытым исходным кодом. Аналитика звонков в реальном времени с помощью Agent Assist.
Проблемы со сводками вызовов
Поскольку контакт-центры собирают больше речевых данных, потребность в эффективном обобщении вызовов значительно возросла. Однако большинство сводок пусты или неточны, поскольку их создание вручную отнимает много времени и влияет на ключевые показатели агентов, такие как среднее время обработки (AHT). Агенты сообщают, что подведение итогов может занимать до трети всего звонка, поэтому они его пропускают или заполняют неполную информацию. Это ухудшает качество обслуживания клиентов: длительные задержки расстраивают клиентов, пока агент печатает, а неполные сводки означают, что клиентов просят повторить информацию при передаче между агентами.
Хорошей новостью является то, что автоматизация и решение задачи обобщения теперь возможны с помощью генеративного искусственного интеллекта.
Генеративный искусственный интеллект помогает точно и эффективно суммировать звонки клиентов.
Генеративный ИИ основан на очень больших моделях машинного обучения (ML), называемых базовыми моделями (FM), которые предварительно обучаются на огромных объемах данных в любом масштабе. Подмножество этих FM, ориентированных на понимание естественного языка, называется большими языковыми моделями (LLM) и способно генерировать подобные человеческим, контекстуально релевантные сводки. Лучшие LLM могут с легкостью обрабатывать даже сложные, нелинейные структуры предложений и определять различные аспекты, включая тему, намерение, следующие шаги, результаты и многое другое. Использование LLM для автоматизации суммирования звонков позволяет точно резюмировать разговоры с клиентами и за долю времени, необходимого для суммирования вручную. Это, в свою очередь, позволяет контакт-центрам обеспечивать превосходное качество обслуживания клиентов, одновременно снижая нагрузку на своих агентов по документации.
На следующем снимке экрана показан пример страницы сведений о вызовах Live Call Analytics с помощью Agent Assist, которая содержит информацию о каждом вызове.
В следующем видео показан пример аналитики вызовов в режиме реального времени с помощью Agent Assist, который суммирует текущий вызов, подводит итоги после завершения вызова и генерирует последующее электронное письмо.
Обзор решения
На следующей диаграмме показан рабочий процесс решения.
Первым шагом к созданию абстрактных сводок звонков является расшифровка звонка клиента. Наличие точных, готовых к использованию расшифровок имеет решающее значение для создания точных и эффективных сводок звонков. Amazon Transcribe может помочь вам с высокой точностью создавать расшифровки звонков в контакт-центр. Amazon Transcribe — это многофункциональный API преобразования речи в текст с современными моделями распознавания речи, которые полностью управляются и постоянно обучаются. Такие клиенты как Газета “Нью-Йорк Таймс, Слабый, Зиллоу, Wix и тысячи других используют Amazon Transcribe для создания высокоточных расшифровок и улучшения результатов своего бизнеса. Ключевым отличием Amazon Transcribe является его способность защищать данные клиентов путем удаления конфиденциальной информации из аудио и текста. Хотя защита конфиденциальности и безопасности клиентов в целом важна для контакт-центров, еще важнее замаскировать конфиденциальную информацию, такую как информация о банковском счете и номера социального страхования, перед созданием автоматических сводок вызовов, чтобы она не попала в сводки.
Для клиентов, которые уже используют Amazon Connect, наш омниканальный облачный контакт-центр, Contact Lens for Amazon Connect изначально предоставляет функции транскрипции и анализа в реальном времени. Однако, если вы хотите использовать генеративный искусственный интеллект в своем существующем контакт-центре, мы разработали решения, которые берут на себя большую часть тяжелой работы, связанной с расшифровкой разговоров в реальном времени или после звонка из вашего существующего контакт-центра, а также генерируют автоматические сводки вызовов с использованием генеративного ИИ. Кроме того, решение, подробно описанное в этом разделе, позволяет вам интегрироваться с вашей системой управления взаимоотношениями с клиентами (CRM) для автоматического обновления выбранной вами CRM с помощью созданных сводок вызовов. В этом примере мы используем наше решение Live Call Analytics с Agent Assist (LCA) для создания транскрипций вызовов и сводок вызовов в реальном времени с помощью LLM, размещенных на Amazon Bedrock. Вы также можете написать функцию AWS Lambda и указать LCA имя ресурса Amazon (ARN) функции в параметрах AWS CloudFormation и использовать LLM по вашему выбору.
Следующая упрощенная архитектура LCA иллюстрирует суммирование вызовов с помощью Amazon Bedrock.
LCA предоставляется в виде шаблона CloudFormation, который развертывает предыдущую архитектуру и позволяет расшифровывать вызовы в режиме реального времени. Этапы рабочего процесса следующие:
- Звук звонка можно передавать через SIPREC из вашей телефонной системы в Amazon Chime SDK Voice Connector, который буферизует звук в Amazon Kinesis Video Streams. LCA также поддерживает другие механизмы приема аудио, такие как Облачный аудиохук Genesys.
- Затем Amazon Chime SDK Call Analytics передает аудио из Kinesis Video Streams в Amazon Transcribe и записывает выходные данные JSON в Amazon Kinesis Data Streams.
- Функция Lambda обрабатывает сегменты транскрипции и сохраняет их в таблице Amazon DynamoDB.
- После завершения вызова Amazon Chime SDK Voice Connector публикует уведомление Amazon EventBridge, которое запускает функцию Lambda, которая считывает сохраненную расшифровку из DynamoDB, генерирует приглашение LLM (подробнее об этом в следующем разделе) и запускает вывод LLM с помощью Amazon Bedrock. . Сгенерированная сводка сохраняется в DynamoDB и может использоваться агентом в пользовательском интерфейсе LCA. При желании вы можете предоставить функцию ARN Lambda, которая будет запускаться после создания сводки для интеграции со сторонними системами CRM.
LCA также позволяет вызывать функцию Lambda суммирования во время вызова, поскольку в любой момент можно получить расшифровку и создать подсказку, даже если вызов находится в процессе. Это может быть полезно в тех случаях, когда вызов переводится на другого оператора или передается супервизору. Вместо того, чтобы приостанавливать клиента и объяснять звонок, новый агент может быстро прочитать автоматически созданную сводку, в которой может быть указано, какова текущая проблема и что предыдущий агент пытался сделать для ее решения.
Пример запроса суммирования звонков
Вы можете выполнять выводы LLM с быстрым инжинирингом для создания и улучшения сводок вызовов. Вы можете изменить шаблоны приглашений, чтобы увидеть, что лучше всего подходит для выбранного вами LLM. Ниже приведен пример приглашения по умолчанию для подведения итогов стенограммы с помощью LCA. Мы заменяем {transcript}
заполнитель с фактической стенограммой разговора.
LCA запускает приглашение и сохраняет созданную сводку. Помимо обобщения, вы можете настроить LLM на создание практически любого текста, важного для производительности агента. Например, вы можете выбрать из набора тем, которые были затронуты во время звонка (диспозиция агента), составить список необходимых последующих задач или даже написать электронное письмо звонящему с благодарностью за звонок.
На следующем снимке экрана показан пример создания электронного письма агента в пользовательском интерфейсе LCA.
Благодаря хорошо продуманной подсказке некоторые LLM имеют возможность генерировать всю эту информацию за один вывод, что снижает стоимость вывода и время обработки. Затем агент может использовать сгенерированный ответ в течение нескольких секунд после завершения вызова для своей постконтактной работы. Вы также можете автоматически интегрировать сгенерированный ответ в свою CRM-систему.
На следующем снимке экрана показан пример сводки пользовательского интерфейса LCA.
Также можно создать сводку во время разговора (см. следующий снимок экрана), что может быть особенно полезно при длительных разговорах с клиентами.
До появления генеративного ИИ от агентов требовалось быть внимательными, а также делать заметки и выполнять другие задачи по мере необходимости. Автоматически расшифровывая разговор и используя LLM для автоматического создания сводок, мы можем снизить умственную нагрузку на агента, чтобы он мог сосредоточиться на обеспечении превосходного качества обслуживания клиентов. Это также приводит к более точной работе после разговора, поскольку расшифровка представляет собой точное представление того, что произошло во время разговора, а не только то, что оператор делал заметки или запоминал.
Краткое содержание
Пример приложения LCA предоставляется с открытым исходным кодом — используйте его в качестве отправной точки для собственного решения и помогите нам улучшить его, внося исправления и функции с помощью запросов на извлечение GitHub. Информацию о развертывании LCA см. в разделе «Аналитика вызовов в реальном времени и помощь агентам для вашего контакт-центра с помощью языковых служб искусственного интеллекта Amazon». Перейдите к Репозиторий LCA на GitHub чтобы изучить код, подпишитесь на уведомления о новых выпусках и ознакомьтесь с ПРОЧТИ МЕНЯ для получения последних обновлений документации. Клиенты, которые уже используют Amazon Connect, могут узнать больше о генеративном ИИ с помощью Amazon Connect, прочитав статью «Как руководители контакт-центров могут подготовиться к использованию генеративного ИИ».
Об авторах
Кристофер Лотт — старший архитектор решений в команде AWS AI Language Services. Имеет 20-летний опыт разработки корпоративного программного обеспечения. Крис живет в Сакраменто, штат Калифорния, увлекается садоводством, аэрокосмической деятельностью и путешествиями по миру.
Смрити Ранджан — главный менеджер по продукту в команде AWS AI/ML, специализирующейся на языковых и поисковых сервисах. До прихода в AWS она работала в Amazon Devices и других технологических стартапах, руководя функциями продуктов и роста. Смрити живет в Бостоне, штат Массачусетс, любит пешие походы, посещает концерты и путешествует по миру.