CN117714603A - 一种外呼方法、装置及可读存储介质 - Google Patents

一种外呼方法、装置及可读存储介质 Download PDF

Info

Publication number
CN117714603A
CN117714603A CN202410138356.5A CN202410138356A CN117714603A CN 117714603 A CN117714603 A CN 117714603A CN 202410138356 A CN202410138356 A CN 202410138356A CN 117714603 A CN117714603 A CN 117714603A
Authority
CN
China
Prior art keywords
outbound
model
customer
script
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410138356.5A
Other languages
English (en)
Other versions
CN117714603B (zh
Inventor
李茜
刘益超
张洁
赵国良
王珂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinan Yunshang Electronic Technology Co ltd
Original Assignee
Jinan Yunshang Electronic Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinan Yunshang Electronic Technology Co ltd filed Critical Jinan Yunshang Electronic Technology Co ltd
Priority to CN202410138356.5A priority Critical patent/CN117714603B/zh
Publication of CN117714603A publication Critical patent/CN117714603A/zh
Application granted granted Critical
Publication of CN117714603B publication Critical patent/CN117714603B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5141Details of processing calls and other types of contacts in an unified manner
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42136Administration or customisation of services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/523Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing with call distribution or queueing
    • H04M3/5232Call distribution algorithms

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及智能外呼技术领域,具体涉及一种外呼方法、装置及可读存储介质,包括以下步骤:获取外呼名单,根据外呼名单中的客户信息,调用目标客户群体数据库,从目标客户群体数据库中提取每个目标客户特征;基于目标客户特征,运用机器学习算法分析客户的需求和兴趣点;根据分析结果,自动生成个性化的外呼脚本,涵盖产品或服务优势;通过智能外呼系统自动向目标客户发起呼叫,同时实时调整外呼脚本以应对客户的具体反馈;建立外呼脚本数据库,并将外呼脚本与其对应客户群体关联;收集外呼交互数据,并将外呼交互数据存储至目标客户群体数据库。本发明,显著提高外呼的针对性和相关性,通过精准匹配客户需求,提高了转化率和客户满意度。

Description

一种外呼方法、装置及可读存储介质
技术领域
本发明涉及智能外呼技术领域,尤其涉及一种外呼方法、装置及可读存储介质。
背景技术
在当前的商业环境中,外呼服务作为企业与客户交互的重要渠道之一,对于提升客户满意度、增强客户关系和推动销售转化具有关键作用,然而,传统的外呼方法面临诸多挑战,特别是在个性化服务和效率方面的局限性日益凸显。
传统外呼方法的局限性包括:
缺乏个性化:传统外呼通常依赖于标准化话术,这种一刀切的方式难以满足不同客户的个性化需求,导致客户体验不佳,响应率低。
反馈利用不足:传统外呼往往未能充分利用客户反馈来优化外呼策略,缺乏快速、灵活的反馈处理机制,使得外呼内容难以及时调整以满足客户需求的变化。
效率低下:由于缺乏对客户行为和偏好的深入分析,传统外呼方法往往无法精确定位目标客户群体,导致大量外呼资源被低效率地使用。
针对这些问题,亟需一种新的外呼方法,能够结合先进的数据分析技术和智能化工具,提高外呼的个性化程度和效率,同时优化资源利用,提升客户满意度和外呼成功率。
发明内容
本发明旨在通过利用机器学习算法分析客户数据,自动生成和管理个性化外呼脚本,并根据客户反馈实时调整外呼策略,以解决传统外呼方法存在的问题,实现更高效、更个性化的外呼服务。
基于上述目的,本发明提供了一种外呼方法。
一种外呼方法,包括以下步骤:
S1:获取外呼名单,根据外呼名单中的客户信息,调用目标客户群体数据库,从目标客户群体数据库中提取每个目标客户特征;
S2:基于目标客户特征,运用机器学习算法分析客户的需求和兴趣点;
S3:根据分析结果,自动生成个性化的外呼脚本,涵盖产品或服务优势;
S4:通过智能外呼系统自动向目标客户发起呼叫,同时实时调整外呼脚本以应对客户的具体反馈;
S5:建立外呼脚本数据库,并将外呼脚本与其对应客户群体关联,再次外呼相同客户群体时,自动调用该外呼脚本,再次外呼无可调用外呼脚本时,再次生成新的外呼脚本并进行存储;
S6:收集外呼交互数据,包括客户反馈、互动时长、兴趣点点击数据,并将外呼交互数据存储至目标客户群体数据库。
进一步的,所述S1中的目标客户特征包括历史购买行为、兴趣偏好、交互历史、反应模式。
进一步的,所述S2中的运用机器学习算法分析客户的需求和兴趣点具体包括:
S21,数据预处理:对目标客户特征数据进行清洗和标准化处理,包括去除异常值、填补缺失值、特征编码和归一化,以准备适合机器学习算法处理的数据集;
S22,特征选择与工程:基于目标客户的历史购买行为、兴趣偏好、交互历史和反应模式特征,通过特征工程方法提取和构建用于预测客户需求和兴趣的新特征。
S23,模型选择与训练:选择梯度提升机GBM模型,根据目标客户的特征数据来训练模型,使用交叉验证技术优化模型参数,并防止过拟合;
S24,需求与兴趣点分析:利用训练好的梯度提升机GBM模型对目标客户进行预测,分析其需求和兴趣点;
S25,对梯度提升机GBM预测结果进行解释,识别关键的特征和模式。
进一步的,所述S22中的特征选择与工程具体包括:
S221,特征构造:
历史购买行为:从历史购买行为中构造特征,包括总消费金额、购买频次、最近一次购买时间、常购产品类别;
兴趣偏好:分析客户的兴趣点,包括通过点击数据、页面浏览时间、参与的营销活动构造出客户对具体产品或服务的偏好程度;
交互历史:基于交互历史,包括通话时长、响应邮件的速度、客服评分构造客户服务满意度和互动偏好的特征;
反应模式:分析客户对以往外呼或营销活动的反应,包括接听电话的时间段、活动页面打开率、活动参与度来构造客户反应敏感度和活跃度的特征;
S222,特征选择:
过滤法:基于卡方检验的统计测试来评估每个特征与目标变量之间的关系,去除 相关性低的特征,其计算公式为:,其中,是观察频数,是期望频数,求 和是针对所有可能的分类组合进行的,卡方值越大,拒绝两个变量独立的证据越强,表示该 特征与目标变量的关联性越高;
包裹法:基于递归特征消除算法,通过一系列的特征子集选择过程,评估不同特征组合对模型性能的影响,选择最优特征集;
嵌入法:利用正则化线性模型自动进行特征选择,正则化线性模型通过在损失函数中添加一个正则项来减少模型的复杂度,具体选择Lasso回归,即L1正则化:
Minimize ,其中,是损失函数,是第个样 本的目标值,是第个样本的第个特征值,是特征的系数,是正则化强度,Lasso将 不重要的特征系数压缩到0,从而实现特征选择。
进一步的,所述S23中梯度提升机GBM模型通过迭代训练基础模型来最小化损失函 数,损失函数采用对数损失函数,对数损失函数定义为:,其中,是对数损失,是样 本数量,是第个样本的真实值(实际类别,0或1),是第个样本预测值,所述S23具体包 括:
S231,基础模型采用决策树模型,GBM开始迭代过程,每一次迭代包括以下步骤:
计算当前模型的残差(真实值与预测值之间的差异),对于给定的数据集,设是 第个观测点的真实值(0或1),而是模型在第次迭代后对第个观测点的预测 值(观测点值为类别1的预测概率),第个观测点在第次迭代的残差计算为:,其中,是第个数据点在第次迭代的残差;
构建一个新的决策树来预测残差,使用计算的残差作为新目标变量进行训练, 在这个阶段,残差代表当前的预测误差,目标是通过训练新的决策树来“学习”预测误差,保 持原始特征数据不变,将每个观测点的残差作为新的目标变量,每个数据点都有相应的特 征集和一个残差值,使用标准的决策树训练方法来构建一棵新的树,其中特征数据作为输 入,新的目标变量是残差,新的树目的是最小化对数损失,一旦新的决策树训练完成, 它就会被加入到现有模型中。这通常通过将新树的预测结果(针对残差的预测)加到之前模 型的预测上来实现,如果有学习率(步长)设置,新树的贡献会乘以这个学习率,然后再加到 模型预测上,更新公式表示为;,其中,是更新后的预 测概率,是之前的预测值的对数几率(logodds),是学习率,是新树对第个 数据点的预测(即对残差的预测),以此更新模型的预测,迭代过程持续进行,直到达到预定 的树的数量或者模型的性能不再显著提高;
S233,使用交叉验证优化模型参数,包括树的数量、树的深度、学习率具体包括:
将数据集分割成K个子集(通常称为K折交叉验证),对于每一折,使用K-1个子集作为训练数据,剩下的一个子集作为验证数据,训练GBM模型,并在验证集上评估性能,重复进行,直到每个子集都被用作过验证数据,计算模型在所有验证集上的平均性能,根据交叉验证的结果,调整模型参数以找到最佳的参数组合。
进一步的,所述S24中利用训练好的梯度提升机GBM模型对目标客户进行预测具体包括:
基于独热编码对分类特征进行相同的编码处理,将目标客户的特征数据通过GBM 模型中的每一棵决策树,累加每棵树的预测结果,根据最终的累加结果得出预测概率,预 测概率提供了目标客户属于具体类别的可能性,从而评估客户对具体产品或服务的偏好 强度,即需求与兴趣点。
分类变量通常包含重要的信息,可能对预测结果有显著影响。通过独热编码,可以有效地将这些信息转换为模型可利用的格式,从而提高预测的准确性,独热编码可以表示变量的非顺序性质,每个类别都被视为独立的特征。
进一步的,所述外呼脚本数据库包括脚本ID、脚本内容、目标客户群体特征、创建日期以及使用次数;还包括定期自动检查外呼脚本数据库,分析各外呼脚本的接听率、通话时长、客户互动频次,针对质量差的外呼脚本执行数据库删除,优化外呼脚本数据库。
进一步的,还包括增强型客户意图识别与动态资源优化路由,具体包括:开发客户 意图识别模型,从客户的来电语音或初始文本输入中准确识别出客户的真实需求和意图, 利用变压器模型来处理自然语言的复杂性和上下文关系,变压器模型基于自注意力机制, 对于输入序列,即客户的语言输入,自注意力层计算输入中各个词之间的关系,计算为:
,其中,分别是查询、 键和值矩阵,由输入序列经过不同的权重矩阵转换得到,是键向量的维度,经过多层 自注意力和前馈网络的处理后,变压器模型输出每个可能意图的概率分布,意图识别结果 为概率最高的类别,表示上下文感知权重,是一个与查询向量维度相同的向量,通过学 习客户的历史交互数据和其他上下文信息得到;
引入增量学习机制,允许模型根据最新的客户交互数据不断更新和优化,以适应客户需求和语言使用的动态变化,增量学习机制允许模型在接收新数据时进行更新,而不重新训练整个模型,对于变压器模型,增量学习机制通过以下步骤实现:
数据微批处理,将新收集的客户反馈数据分成小批次进行处理;
模型参数微调,对于每个批次的数据,调整变压器模型的参数,以最小化预测意图 与实际意图之间的差异,参数更新通过梯度下降法实现:,其中,是模型参数,是学习率,是损失函数,计算模型预测与真实标签之间的差异;
智能资源匹配与分配:开发智能资源匹配算法,根据客户意图识别结果和当前各 服务队列的状态动态匹配最合适的服务队列或坐席,资源匹配算法的目标是将客户请求分 配给最合适的服务队列或坐席,设有一个客户意图识别结果和一组服务队列,每个队列具有特定的处理能力和专长,资源匹配通过以下步骤进行:
计算匹配分数:对于每个队列,计算其与客户意图的匹配分数,考虑队列的专 长、当前负载和历史表现因素:
其中,是权重系数,用于平衡各因素的影响,根据计算的匹配分数,选择分数最高的队列为 客户提供服务。
一种外呼装置,用于实现上述的一种外呼方法,包括以下模块:
客户数据分析模块:利用机器学习算法分析目标客户群体的数据,包括历史购买行为、兴趣偏好、交互历史,以识别客户需求和兴趣点;
外呼脚本生成模块:根据客户数据分析结果,自动生成或选择个性化外呼脚本;
外呼脚本与客户群体关联模块:将外呼脚本与相应的客户群体特征关联,并存储于外呼脚本数据库中,支持快速检索和复用;
实时调整反馈模块:实时收集客户对外呼的反馈,通过自然语言处理技术分析反馈内容,并根据反馈实时调整外呼脚本,以提高外呼效果;
外呼执行和管理模块:负责外呼活动的执行,包括自动调用与客户群体匹配的外呼脚本。
一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被计算机处理器运行时,实现上述的一种外呼方法。
本发明的有益效果:
本发明,通过使用机器学习模型(GBM)分析目标客户群体的特征和需求,并根据分析结果自动生成或选择最合适的外呼脚本,能够显著提高外呼的针对性和相关性,这不仅增加了客户接听和响应的可能性,而且通过精准匹配客户需求,提高了转化率和客户满意度。
本发明,能够根据客户的具体反馈实时调整外呼脚本内容,这意味着外呼策略能够快速适应客户的变化需求和市场动态,确保外呼内容始终保持最新和最相关,从而进一步提升外呼的有效性。
本发明,设计的外呼脚本数据库和智能关联机制,实现了个性化外呼脚本的高效复用。当生成个性化外呼脚本并成功关联到特定客户群体后,该脚本将被存储在数据库中,与客户群体的特征紧密关联。在后续的外呼活动中,如果涉及到相同的客户群体,系统可以自动识别并直接调用已存储的个性化外呼脚本,而无需重新经历生成和筛选脚本的过程,显著节省了外呼准备的时间和资源,减少了重复工作,并确保了外呼内容的一致性和针对性,通过避免每次外呼都从头开始制定脚本,不仅提高了外呼团队的工作效率,还能够更快地响应市场和客户需求的变化,从而在提高客户满意度的同时,也降低了整体的运营成本。
本发明,通过实施增强型客户意图识别与动态资源优化路由,本发明能够显著提升外呼系统的智能化程度和服务效率。首先,利用深度学习技术进行的客户意图识别能够准确捕捉并理解客户的真实需求和意图,从而大幅提高了外呼服务的个性化和准确性,确保客户能够快速获得他们真正需要的信息或服务。其次,动态资源优化路由机制能够根据实时的客户需求和服务队列状态,智能匹配最合适的服务资源,优化资源分配,减少客户等待时间,提高服务响应速度和效率,在自注意力机制中,通过将上下文信息编码为权重并整合到自注意力计算中,模型能够更准确地捕捉和理解客户的实际意图,从而提高意图识别的准确性。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的外呼方法逻辑示意图;
图2为本发明实施例的外呼装置功能模块示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,对本发明进一步详细说明。
需要说明的是,除非另外定义,本发明使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本发明中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
如图1所示,一种外呼方法,包括以下步骤:
S1:获取外呼名单,根据外呼名单中的客户信息,调用目标客户群体数据库,从目标客户群体数据库中提取每个目标客户特征,目标客户特征包括历史购买行为、兴趣偏好、交互历史、反应模式;
历史购买行为:目标客户过去购买意愿、记录,包括购买的产品或服务类型、购买频率、购买时间、购买渠道、消费金额,判断客户的购买偏好和未来购买倾向;
兴趣偏好:基于客户的在线行为、社交媒体互动、点击广告历史、参与的市场活动反馈数据,分析客户对某产品类别或内容的兴趣程度;
交互历史:涵盖客户与外呼中心或客服团队之间的所有互动记录,包括电话通话记录、邮件往来、在线聊天日志,评估客户的服务偏好和历史响应情况;
反应模式:客户对过往外呼或营销活动的响应行为,包括接听电话的时间段、对具体类型信息的反应速度、对促销活动的参与程度,反映客户对外呼的态度和响应倾向。
S2:基于目标客户特征,运用机器学习算法分析客户的需求和兴趣点,具体包括:
S21,数据预处理:对目标客户特征数据进行清洗和标准化处理,包括去除异常值、填补缺失值、特征编码和归一化,以准备适合机器学习算法处理的数据集;
S22,特征选择与工程:基于目标客户的历史购买行为、兴趣偏好、交互历史和反应模式特征,通过特征工程方法提取和构建用于预测客户需求和兴趣的新特征,如从购买行为中提取购买频率、平均消费金额等统计特征,从交互历史中提取最常用的沟通渠道、平均响应时间等。
S23,模型选择与训练:选择梯度提升机GBM模型,根据目标客户的特征数据来训练模型,使用交叉验证技术优化模型参数,并防止过拟合;
S24,需求与兴趣点分析:利用训练好的梯度提升机GBM模型对目标客户进行预测,分析其需求和兴趣点,模型可以预测客户对某类产品的兴趣程度,或是客户未来可能的购买行为;
S25,对梯度提升机GBM预测结果进行解释,识别关键的特征和模式,如哪些特征对预测客户兴趣最有影响。根据这些分析结果,自动生成或优化外呼脚本,确保脚本内容与客户需求和兴趣高度相关。
S22中的特征选择与工程具体包括:
S221,特征构造:
历史购买行为:从历史购买行为中构造特征,包括总消费金额、购买频次、最近一次购买时间、常购产品类别,这些特征反映了客户的消费能力和偏好;
兴趣偏好:分析客户的兴趣点,包括通过点击数据、页面浏览时间、参与的营销活动构造出客户对具体产品或服务的偏好程度;
交互历史:基于交互历史,包括通话时长、响应邮件的速度、客服评分构造客户服务满意度和互动偏好的特征;
反应模式:分析客户对以往外呼或营销活动的反应,包括接听电话的时间段、活动页面打开率、活动参与度来构造客户反应敏感度和活跃度的特征;
S222,特征选择:
过滤法:基于卡方检验的统计测试来评估每个特征与目标变量(如客户响应度)之 间的关系,去除相关性低的特征,卡方检验是一种统计方法,用于检验两个分类变量之间是 否独立,在特征选择中,它通常用于评估分类特征和目标变量之间的关联性,其计算公式 为:,其中,是观察频数(实际观察到的频数),是期望频数(如果两个 变量独立,则期望的频数),求和是针对所有可能的分类组合进行的,卡方值越大,拒绝两个 变量独立的证据越强,表示该特征与目标变量的关联性越高;
包裹法:基于递归特征消除算法,通过一系列的特征子集选择过程,评估不同特征组合对模型性能的影响,选择最优特征集;
嵌入法:利用正则化线性模型自动进行特征选择,正则化线性模型通过在损失函数中添加一个正则项来减少模型的复杂度,具体选择,包括L1正则化,即Lasso回归,以及L2正则化,即Ridge回归;
Lasso回归(L1正则化):
Minimize ,其中,是损失函数,是第个样 本的目标值,是第个样本的第个特征值,是特征的系数,是正则化强度,Lasso将 不重要的特征系数压缩到0,从而实现特征选择;
Ridge回归(L2正则化):
Minimize ,其中,参数定义与Lasso相同,但正则 项是系数的平方和,Ridge回归不会将系数减少到0,只减少不重要特征的系数,从而减少模 型复杂度;
在这两种正则化方法中,的值决定了正则化的强度,需要通过交叉验证等方法 来选择,正则化可以帮助防止模型过拟合,并且在特征选择上,Lasso回归可以直接用来选 择重要的特征,在训练过程中添加惩罚项来减少不重要的特征权重。
本发明选择Lasso回归:Lasso回归具有将不重要特征的系数压缩至0的能力,这意味着它可以自动进行特征选择,保留对目标变量影响最大的特征。这在处理具有大量特征的数据集时尤其有用,可以直接识别出哪些客户特征对预测需求和兴趣点最为关键;通过减少不必要的特征,Lasso有助于简化模型,使模型更易于解释,对于理解哪些客户特征对外呼成功率影响最大非常重要,有助于营销团队深入理解客户行为和偏好,正则化技术有助于防止模型过拟合,特别是当数据特征众多,而样本量相对较少时,通过Lasso回归,可以确保模型在新的客户数据上具有良好的泛化能力。
S23中梯度提升机GBM模型通过迭代训练基础模型来最小化损失函数,损失函数采 用对数损失函数,对数损失函数定义为:,其中,是对数损失,是样 本数量,是第个样本的真实值(实际类别,0或1),是第个样本预测值,S23具体包括:
S231,基础模型采用决策树模型,GBM开始迭代过程,每一次迭代包括以下步骤:
计算当前模型的残差(真实值与预测值之间的差异),对于给定的数据集,设是 第个观测点的真实值(0或1),而是模型在第次迭代后对第个观测点的预测 值(观测点值为类别1的预测概率),第个观测点在第次迭代的残差计算为:,其中,是第个数据点在第次迭代的残差,在GBM的每次迭代中, 新的决策树都是基于这些残差来训练的,目的是最小化这些残差,即让新树的预测尽可能 接近当前的残差,通过这种方式,模型能够逐步修正之前的错误,从而在每一次迭代后提升 性能;
构建一个新的决策树来预测残差,使用计算的残差作为新目标变量进行训练, 在这个阶段,残差代表当前的预测误差,目标是通过训练新的决策树来“学习”预测误差,保 持原始特征数据不变,将每个观测点的残差作为新的目标变量,每个数据点都有相应的特 征集和一个残差值,使用标准的决策树训练方法来构建一棵新的树,其中特征数据作为输 入,新的目标变量是残差,新的树目的是最小化对数损失,一旦新的决策树训练完成, 它就会被加入到现有模型中。这通常通过将新树的预测结果(针对残差的预测)加到之前模 型的预测上来实现,如果有学习率(步长)设置,新树的贡献会乘以这个学习率,然后再加到 模型预测上,更新公式表示为;,其中,是更新后的预 测概率,是之前的预测值的对数几率(logodds),是学习率,是新树对第个 数据点的预测(即对残差的预测),以此更新模型的预测,迭代过程持续进行,直到达到预定 的树的数量或者模型的性能不再显著提高;
S233,使用交叉验证优化模型参数,包括树的数量、树的深度、学习率具体包括:
将数据集分割成K个子集(通常称为K折交叉验证),对于每一折,使用K-1个子集作为训练数据,剩下的一个子集作为验证数据,训练GBM模型,并在验证集上评估性能,重复进行,直到每个子集都被用作过验证数据,计算模型在所有验证集上的平均性能,根据交叉验证的结果,调整模型参数以找到最佳的参数组合。
GBM具有很强的拟合能力,但也容易过拟合。为了防止过拟合,可以采取以下措施:
使用交叉验证:如上,交叉验证可以帮助识别模型是否过拟合。
设置树的最大深度:限制决策树的深度可以防止模型学习过于复杂的模式。
使用较小的学习率:较小的学习率意味着每棵树的贡献较小,需要更多的树来构建模型,这有助于提高模型的泛化能力。
提前停止:在训练过程中,如果在验证集上的性能在一定数量的迭代后没有改善,可以提前终止训练。
S24中利用训练好的梯度提升机GBM模型对目标客户进行预测具体包括:
基于独热编码对分类特征进行相同的编码处理,将目标客户的特征数据通过GBM 模型中的每一棵决策树,累加每棵树的预测结果,根据最终的累加结果得出预测概率,预 测概率提供了目标客户属于具体类别的可能性,从而评估客户对具体产品或服务的偏好 强度,即需求与兴趣点。
分类变量通常包含重要的信息,可能对预测结果有显著影响。通过独热编码,可以有效地将这些信息转换为模型可利用的格式,从而提高预测的准确性,独热编码可以表示变量的非顺序性质,每个类别都被视为独立的特征。
S3:根据分析结果,自动生成个性化的外呼脚本,涵盖产品或服务优势;
使用训练好的机器学习模型(GBM)对目标客户群体进行预测分析,以识别其需求和兴趣点,理解客户对不同产品或服务的偏好程度,以及他们的行为特征,如:哪些客户对特定产品类别表现出较高的兴趣?客户的购买历史和交互数据揭示了哪些需求?
针对机器学习模型识别出的客户需求和兴趣点,从自有产品或服务列表中提取与之相关的关键优势。
生成个性化脚本模板:创建一个或多个外呼脚本模板,其中包含可替换的占位符,用于插入针对特定客户群体的个性化内容。例如:
“尊敬的 [客户姓名],我们注意到您对 [兴趣点] 表现出了浓厚的兴趣,我们的[产品/服务] 正好可以满足您的需求,特别是它在 [产品优势] 方面的表现......”
结合客户数据和产品优势填充脚本,根据每个目标客户的预测结果和分析,结合产品或服务的优势,动态地将相关内容填充到脚本模板中,通过编程自动完成,如使用脚本或专门的软件工具,将客户特定的数据和产品优势映射到脚本模板的相应占位符上。
优化和迭代:生成的个性化外呼脚本在实际使用前应进行审查和测试,以确保内容的准确性和吸引力,基于客户反馈和外呼效果,不断优化脚本模板和填充内容,以提高外呼成功率。
具体事例:假设机器学习模型分析发现某个客户群体对高效能办公软件表现出了高度兴趣,而你的产品在这方面有显著优势,个性化外呼脚本为:
“您好,[客户姓名]。根据您的业务需求,我们推荐我们的XX办公软件,它能够帮助您的团队提高30%的工作效率,特别是它的[具体功能],已经帮助多家企业实现了办公自动化......”
通过上述步骤,可以根据机器学习算法的分析结果,有效地生成涵盖产品或服务优势的个性化外呼脚本,从而提高客户响应率和满意度。
S4:通过智能外呼系统自动向目标客户发起呼叫,同时实时调整外呼脚本以应对客户的具体反馈;
利用自然语言处理(NLP)技术自动分析客户反馈中的关键信息,以便快速理解客户的具体需求和不满点。
根据分析结果,确定需要调整的脚本部分,例如,如果多数客户对某一产品特性的解释表示疑惑,需要对该部分的表述进行简化和澄清。
根据客户反馈中的关键信息实时更新外呼脚本内容,涉及到文本生成技术,如基于规则的文本替换或使用更高级的自动生成文本技术。
利用客户关系管理(CRM)系统存储和管理这些个性化调整,确保每次外呼都能针对客户的具体需求和反馈。
S5:建立外呼脚本数据库,并将外呼脚本与其对应客户群体关联,再次外呼相同客户群体时,自动调用该外呼脚本,再次外呼无可调用外呼脚本时,再次生成新的外呼脚本并进行存储;
建立外呼脚本数据库:设计一个数据库结构,用于存储外呼脚本及其相关信息,包括脚本ID、脚本内容、目标客户群体特征、创建日期、使用次数等。
实现一个数据管理系统,支持外呼脚本的添加、更新、查询和删除操作。
外呼脚本与客户群体关联:
在数据库中为每个外呼脚本定义目标客户群体的特征,如行业类型、兴趣点、历史购买行为等,这些特征用于匹配相应的客户群体,根据目标客户的特征数据在数据库中检索最合适的外呼脚本。
自动调用外呼脚本:
当计划对某个客户群体进行外呼时,系统自动根据客户群体的特征在外呼脚本数据库中检索匹配的脚本。
如果存在匹配的脚本,系统将自动选取并提供给外呼团队或自动外呼系统使用。
当面向某个客户群体进行外呼时,如果数据库中无匹配的脚本可用,系统将触发新脚本的生成流程。
外呼脚本与其对应客户群体关联具体方案如下:
首先,明确定义每个客户群体的特征,这些特征应该能够唯一标识一个客户群体,并与外呼脚本的目标定位相匹配。这些特征可能包括但不限于行业类别、客户需求、购买历史、地理位置等。
为每个外呼脚本定义一组元数据,其中包括与该脚本相关联的客户群体特征,这些元数据可以作为脚本的一部分存储在外呼脚本数据库中,以便于检索和匹配。
在数据库中为每个外呼脚本和客户群体创建关联记录。这个记录可以是一个简单的映射表,表中记录了每个外呼脚本ID与之对应的客户群体特征标识。例如:
脚本ID 客户群体标识
Script1 GroupA
Script2 GroupB
... ...
这个映射表可以根据实际需求设计,以支持一对一、一对多或多对多的关联。
还包括定期自动检查外呼脚本数据库,分析各外呼脚本的接听率、通话时长、客户互动频次,针对质量差的外呼脚本执行数据库删除,优化外呼脚本数据库。
S6:收集外呼交互数据,包括客户反馈、互动时长、兴趣点点击数据,并将外呼交互数据存储至目标客户群体数据库。
S7:还包括增强型客户意图识别与动态资源优化路由,具体包括:
开发客户意图识别模型,从客户的来电语音或初始文本输入中准确识别出客户的 真实需求和意图,利用变压器模型来处理自然语言的复杂性和上下文关系,变压器模型基 于自注意力机制,引入一个上下文感知权重,这个权重基于客户的历史交互数据、时间、 日期等上下文信息动态调整,对于输入序列,即客户的语言输入,自注意力层计算输入中 各个词之间的关系,计算为:
,其中,分别是查询、 键和值矩阵,由输入序列经过不同的权重矩阵转换得到,是键向量的维度,经过多层 自注意力和前馈网络的处理后,变压器模型输出每个可能意图的概率分布,意图识别结果 为概率最高的类别,表示上下文感知权重,是一个与查询向量维度相同的向量,通过学 习客户的历史交互数据和其他上下文信息得到,这个权重的引入使得模型在计算注意力 时,能够根据当前的上下文信息调整其对不同输入部分的关注程度,在智能外呼系统中,客 户的意图可能会受到多种因素的影响,例如他们之前的问题解决情况、当天的时间、特定日 期(节假日)等,通过将这些上下文信息编码为权重并整合到自注意力计算中,模型能够 更准确地捕捉和理解客户的实际意图,从而提高意图识别的准确性;例如,如果历史数据显 示某客户在工作日下午更倾向于咨询产品特性,而在周末更关注售后服务,上下文权重 就可以帮助模型在这些不同的时间点更准确地识别客户的意图。
引入增量学习机制,允许模型根据最新的客户交互数据不断更新和优化,以适应客户需求和语言使用的动态变化,增量学习机制允许模型在接收新数据时进行更新,而不重新训练整个模型,对于变压器模型,增量学习机制通过以下步骤实现:
数据微批处理,将新收集的客户反馈数据分成小批次进行处理;
模型参数微调,对于每个批次的数据,调整变压器模型的参数,以最小化预测意图 与实际意图之间的差异,参数更新通过梯度下降法实现:,其中,是模型参数,是学习率,是损失函数,计算模型预测与真实标签之间的差异;
智能资源匹配与分配:开发智能资源匹配算法,根据客户意图识别结果和当前各 服务队列的状态(队列长度、解决能力、坐席专长)动态匹配最合适的服务队列或坐席,资源 匹配算法的目标是将客户请求分配给最合适的服务队列或坐席,设有一个客户意图识别结 果和一组服务队列,每个队列具有特定的处理能力和专长,资源匹配通过 以下步骤进行:
计算匹配分数:对于每个队列,计算其与客户意图的匹配分数,考虑队列的专 长、当前负载和历史表现因素:
其中,是权重系数,用于平衡各因素的影响,根据计算的匹配分数,选择分数最高的队列为 客户提供服务。
如图2所示,一种外呼装置,用于实现上述的一种外呼方法,包括以下模块:
客户数据分析模块:利用机器学习算法分析目标客户群体的数据,包括历史购买行为、兴趣偏好、交互历史,以识别客户需求和兴趣点;
外呼脚本生成模块:根据客户数据分析结果,自动生成或选择个性化外呼脚本;
外呼脚本与客户群体关联模块:将外呼脚本与相应的客户群体特征关联,并存储于外呼脚本数据库中,支持快速检索和复用;
实时调整反馈模块:实时收集客户对外呼的反馈,通过自然语言处理技术分析反馈内容,并根据反馈实时调整外呼脚本,以提高外呼效果;
外呼执行和管理模块:负责外呼活动的执行,包括自动调用与客户群体匹配的外呼脚本。
本发明实施例还提供了一种可读存储介质,该可读存储介质上存储有计算机程序,计算机程序被处理器运行时,实现上述的一种外呼方法。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明的范围被限于这些例子;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明它们没有在细节中提供。
本发明旨在涵盖落入权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本发明的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种外呼方法,其特征在于,包括以下步骤:
S1:获取外呼名单,根据外呼名单中的客户信息,调用目标客户群体数据库,从目标客户群体数据库中提取每个目标客户特征;
S2:基于目标客户特征,运用机器学习算法分析客户的需求和兴趣点;
S3:根据分析结果,自动生成个性化的外呼脚本,涵盖产品或服务优势;
S4:通过智能外呼系统自动向目标客户发起呼叫,同时实时调整外呼脚本以应对客户的具体反馈;
S5:建立外呼脚本数据库,并将外呼脚本与其对应客户群体关联,再次外呼相同客户群体时,自动调用该外呼脚本,再次外呼无可调用外呼脚本时,再次生成新的外呼脚本并进行存储;
S6:收集外呼交互数据,包括客户反馈、互动时长、兴趣点点击数据,并将外呼交互数据存储至目标客户群体数据库。
2.根据权利要求1所述的一种外呼方法,其特征在于,所述S1中的目标客户特征包括历史购买行为、兴趣偏好、交互历史、反应模式。
3.根据权利要求2所述的一种外呼方法,其特征在于,所述S2中的运用机器学习算法分析客户的需求和兴趣点具体包括:
S21,数据预处理:对目标客户特征数据进行清洗和标准化处理,包括去除异常值、填补缺失值、特征编码和归一化,以准备适合机器学习算法处理的数据集;
S22,特征选择与工程:基于目标客户的历史购买行为、兴趣偏好、交互历史和反应模式特征,通过特征工程方法提取和构建用于预测客户需求和兴趣的新特征;
S23,模型选择与训练:选择梯度提升机GBM模型,根据目标客户的特征数据来训练模型,使用交叉验证技术优化模型参数,并防止过拟合;
S24,需求与兴趣点分析:利用训练好的梯度提升机GBM模型对目标客户进行预测,分析其需求和兴趣点;
S25,对梯度提升机GBM预测结果进行解释,识别关键的特征和模式。
4.根据权利要求3所述的一种外呼方法,其特征在于,所述S22中的特征选择与工程具体包括:
S221,特征构造:
历史购买行为:从历史购买行为中构造特征,包括总消费金额、购买频次、最近一次购买时间、常购产品类别;
兴趣偏好:分析客户的兴趣点,包括通过点击数据、页面浏览时间、参与的营销活动构造出客户对具体产品或服务的偏好程度;
交互历史:基于交互历史,包括通话时长、响应邮件的速度、客服评分构造客户服务满意度和互动偏好的特征;
反应模式:分析客户对以往外呼或营销活动的反应,包括接听电话的时间段、活动页面打开率、活动参与度来构造客户反应敏感度和活跃度的特征;
S222,特征选择:
过滤法:基于卡方检验的统计测试来评估每个特征与目标变量之间的关系,去除相关性低的特征,其计算公式为:,其中,/>是观察频数,/>是期望频数,求和是针对所有可能的分类组合进行的,卡方值越大,拒绝两个变量独立的证据越强,表示该特征与目标变量的关联性越高;
包裹法:基于递归特征消除算法,通过一系列的特征子集选择过程,评估不同特征组合对模型性能的影响,选择最优特征集;
嵌入法:利用正则化线性模型自动进行特征选择,正则化线性模型通过在损失函数中添加一个正则项来减少模型的复杂度,具体选择Lasso回归:
Minimize ,其中,/>是损失函数,/>是第/>个样本的目标值,/>是第/>个样本的第/>个特征值,/>是特征的系数,/>是正则化强度,Lasso将不重要的特征系数压缩到0,从而实现特征选择。
5.根据权利要求3所述的一种外呼方法,其特征在于,所述S23中梯度提升机GBM模型通过迭代训练基础模型来最小化损失函数,损失函数采用对数损失函数,对数损失函数定义为:,其中,/>是对数损失,/>是样本数量,/>是第/>个样本的真实值,/>是第/>个样本预测值,所述S23具体包括:
S231,基础模型采用决策树模型,GBM开始迭代过程,每一次迭代包括以下步骤:
计算当前模型的残差,对于给定的数据集,设是第/>个观测点的真实值,而/>是模型在第/>次迭代后对第/>个观测点的预测值,第/>个观测点在第/>次迭代的残差/>计算为:/>,其中,/>是第/>个数据点在第/>次迭代的残差;
构建一个新的决策树来预测残差,使用计算的残差作为新目标变量进行训练,在这个阶段,残差代表当前的预测误差,目标是通过训练新的决策树来“学习”预测误差,保持原始特征数据不变,将每个观测点的残差作为新的目标变量,每个数据点都有相应的特征集和一个残差值,使用标准的决策树训练方法来构建一棵新的树,其中特征数据作为输入,新的目标变量是残差/>,新的树目的是最小化对数损失,更新公式表示为;,其中,/>是更新后的预测概率,/>是之前的预测值的对数几率,/>是学习率,/>是新树对第/>个数据点的预测,以此更新模型的预测,迭代过程持续进行,直到达到预定的树的数量或者模型的性能不再显著提高;
S233,使用交叉验证优化模型参数,包括树的数量、树的深度、学习率具体包括:
将数据集分割成K个子集,对于每一折,使用K-1个子集作为训练数据,剩下的一个子集作为验证数据,训练GBM模型,并在验证集上评估性能,重复进行,直到每个子集都被用作过验证数据,计算模型在所有验证集上的平均性能,根据交叉验证的结果,调整模型参数以找到最佳的参数组合。
6.根据权利要求5所述的一种外呼方法,其特征在于,所述S24中利用训练好的梯度提升机GBM模型对目标客户进行预测具体包括:
基于独热编码对分类特征进行相同的编码处理,将目标客户的特征数据通过GBM模型中的每一棵决策树,累加每棵树的预测结果,根据最终的累加结果得出预测概率,预测概率/>提供了目标客户属于具体类别的可能性,从而评估客户对具体产品或服务的偏好强度,即需求与兴趣点。
7.根据权利要求1所述的一种外呼方法,其特征在于,所述外呼脚本数据库包括脚本ID、脚本内容、目标客户群体特征、创建日期以及使用次数,还包括定期自动检查外呼脚本数据库,分析各外呼脚本的接听率、通话时长、客户互动频次,针对质量差的外呼脚本执行数据库删除,优化外呼脚本数据库。
8.根据权利要求1所述的一种外呼方法,其特征在于,还包括增强型客户意图识别与动态资源优化路由,具体包括:
开发客户意图识别模型,从客户的来电语音或初始文本输入中准确识别出客户的真实需求和意图,利用变压器模型来处理自然语言的复杂性和上下文关系,变压器模型基于自注意力机制,对于输入序列,即客户的语言输入,自注意力层计算输入中各个词之间的关系,计算为:
,其中,/>分别是查询、键和值矩阵,由输入序列/>经过不同的权重矩阵转换得到,/>是键向量的维度,经过多层自注意力和前馈网络的处理后,变压器模型输出每个可能意图的概率分布,意图识别结果为概率最高的类别,/>表示上下文感知权重,是一个与查询向量/>维度相同的向量,通过学习客户的历史交互数据和其他上下文信息得到;
引入增量学习机制,允许模型根据最新的客户交互数据不断更新和优化,以适应客户需求和语言使用的动态变化,增量学习机制允许模型在接收新数据时进行更新,而不重新训练整个模型,对于变压器模型,增量学习机制通过以下步骤实现:
数据微批处理,将新收集的客户反馈数据分成小批次进行处理;
模型参数微调,对于每个批次的数据,调整变压器模型的参数,以最小化预测意图与实际意图之间的差异,参数更新通过梯度下降法实现:,其中,/>是模型参数,/>是学习率,/>是损失函数,计算模型预测与真实标签之间的差异;
智能资源匹配与分配:开发智能资源匹配算法,根据客户意图识别结果和当前各服务队列的状态动态匹配最合适的服务队列或坐席,资源匹配算法的目标是将客户请求分配给最合适的服务队列或坐席,设有一个客户意图识别结果和一组服务队列/>,每个队列具有特定的处理能力和专长,资源匹配通过以下步骤进行:
计算匹配分数:对于每个队列,计算其与客户意图/>的匹配分数,考虑队列的专长、当前负载和历史表现因素:
其中,/>是权重系数,用于平衡各因素的影响,根据计算的匹配分数,选择分数最高的队列为客户提供服务。
9.一种外呼装置,用于实现如权利要求1-7任一项所述的一种外呼方法,其特征在于,包括以下模块:
客户数据分析模块:利用机器学习算法分析目标客户群体的数据,包括历史购买行为、兴趣偏好、交互历史,以识别客户需求和兴趣点;
外呼脚本生成模块:根据客户数据分析结果,自动生成或选择个性化外呼脚本;
外呼脚本与客户群体关联模块:将外呼脚本与相应的客户群体特征关联,并存储于外呼脚本数据库中,支持快速检索和复用;
实时调整反馈模块:实时收集客户对外呼的反馈,通过自然语言处理技术分析反馈内容,并根据反馈实时调整外呼脚本,以提高外呼效果;
外呼执行和管理模块:负责外呼活动的执行,包括自动调用与客户群体匹配的外呼脚本。
10.一种可读存储介质,其特征在于,所述可读存储介质上存储有计算机程序,所述计算机程序被计算机处理器运行时,实现如权利要求1至7中任一项所述的一种外呼方法。
CN202410138356.5A 2024-02-01 2024-02-01 一种外呼方法、装置及可读存储介质 Active CN117714603B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410138356.5A CN117714603B (zh) 2024-02-01 2024-02-01 一种外呼方法、装置及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410138356.5A CN117714603B (zh) 2024-02-01 2024-02-01 一种外呼方法、装置及可读存储介质

Publications (2)

Publication Number Publication Date
CN117714603A true CN117714603A (zh) 2024-03-15
CN117714603B CN117714603B (zh) 2024-04-30

Family

ID=90155572

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410138356.5A Active CN117714603B (zh) 2024-02-01 2024-02-01 一种外呼方法、装置及可读存储介质

Country Status (1)

Country Link
CN (1) CN117714603B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110138980A (zh) * 2019-04-15 2019-08-16 平安普惠企业管理有限公司 一种智能外呼方法、装置、存储介质和服务器
CN112926845A (zh) * 2021-02-18 2021-06-08 上海翰声信息技术有限公司 基于大数据的外呼方法、电子装置及计算机可读存储介质
CN114242109A (zh) * 2021-12-17 2022-03-25 中国平安财产保险股份有限公司 基于情感识别的智能外呼方法、装置、电子设备及介质
CN115086492A (zh) * 2022-05-24 2022-09-20 深圳腾银信息咨询有限责任公司 一种自适应的智能外呼方法、装置、系统及介质
CN115168554A (zh) * 2022-06-27 2022-10-11 平安付科技服务有限公司 外呼对象的回访方法、装置、存储介质及计算机设备
WO2022267176A1 (zh) * 2021-06-23 2022-12-29 未鲲(上海)科技服务有限公司 基于人工智能的产品推荐方法、装置、设备及存储介质
CN116208709A (zh) * 2022-09-06 2023-06-02 平安银行股份有限公司 语音外呼方法、装置、电子设备及存储介质
CN117278675A (zh) * 2023-11-09 2023-12-22 中国平安人寿保险股份有限公司 一种基于意图分类的外呼方法、装置、设备及介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110138980A (zh) * 2019-04-15 2019-08-16 平安普惠企业管理有限公司 一种智能外呼方法、装置、存储介质和服务器
CN112926845A (zh) * 2021-02-18 2021-06-08 上海翰声信息技术有限公司 基于大数据的外呼方法、电子装置及计算机可读存储介质
WO2022267176A1 (zh) * 2021-06-23 2022-12-29 未鲲(上海)科技服务有限公司 基于人工智能的产品推荐方法、装置、设备及存储介质
CN114242109A (zh) * 2021-12-17 2022-03-25 中国平安财产保险股份有限公司 基于情感识别的智能外呼方法、装置、电子设备及介质
CN115086492A (zh) * 2022-05-24 2022-09-20 深圳腾银信息咨询有限责任公司 一种自适应的智能外呼方法、装置、系统及介质
CN115168554A (zh) * 2022-06-27 2022-10-11 平安付科技服务有限公司 外呼对象的回访方法、装置、存储介质及计算机设备
CN116208709A (zh) * 2022-09-06 2023-06-02 平安银行股份有限公司 语音外呼方法、装置、电子设备及存储介质
CN117278675A (zh) * 2023-11-09 2023-12-22 中国平安人寿保险股份有限公司 一种基于意图分类的外呼方法、装置、设备及介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
朱奕健等: "《基于随机森林模型的电信运营商外呼推荐系统》", 《计算机科学》, 15 November 2016 (2016-11-15), pages 2 - 4 *

Also Published As

Publication number Publication date
CN117714603B (zh) 2024-04-30

Similar Documents

Publication Publication Date Title
CN109816483B (zh) 信息推荐方法及装置、可读存储介质
JP2019079302A (ja) 営業活動支援システム、営業活動支援方法および営業活動支援プログラム
Xiao et al. Churn prediction in customer relationship management via GMDH-based multiple classifiers ensemble
CN113362102B (zh) 一种客户线索分发方法、系统及存储介质
CN111160658B (zh) 一种协同制造资源优配方法、系统和平台
CN113743971B (zh) 一种数据处理方法和装置
CN109993543A (zh) 一种投诉处理方法及系统
CN112819263B (zh) 一种调度客服的方法和装置
CN113379457A (zh) 面向金融领域的智能营销方法
CN117668205B (zh) 智慧物流客服处理方法、系统、设备及存储介质
CN112200375B (zh) 预测模型生成方法、预测模型生成装置和计算机可读介质
US11790380B2 (en) Systems and methods for finding an interaction subset within a set of interactions
CN110969184A (zh) 使用迭代人工智能通过通信决策树的有向轨迹
CN105786941B (zh) 一种信息挖掘方法和装置
CN114519073A (zh) 一种基于图谱关系挖掘的产品配置推荐方法及系统
CN117714603B (zh) 一种外呼方法、装置及可读存储介质
CN109902196B (zh) 一种商标类别推荐方法、装置、计算机设备及存储介质
CN117473081A (zh) 文本管理方法、装置、计算机设备和存储介质
CN116434415A (zh) 叫号系统的信息处理方法、装置、处理器以及电子设备
US11797768B2 (en) System and method to represent conversational flows as graph embeddings and to conduct classification and clustering based on such embeddings
CN110062112A (zh) 数据处理方法、装置、设备及计算机可读存储介质
KR20200143989A (ko) 고객 문의에 대한 유형 분류에 기초한 담당자 배정 시스템 및 방법
CN114090873A (zh) 匹配数据的方法、装置、设备和计算机可读介质
CN114118882B (zh) 基于组合模型的服务数据处理方法、装置、设备和介质
US20240202096A1 (en) Systems and methods relating to predictive analytics using multidimensional event representation in customer journeys

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant