CN110322899B - 用户智能分类方法、服务器及存储介质 - Google Patents
用户智能分类方法、服务器及存储介质 Download PDFInfo
- Publication number
- CN110322899B CN110322899B CN201910525920.8A CN201910525920A CN110322899B CN 110322899 B CN110322899 B CN 110322899B CN 201910525920 A CN201910525920 A CN 201910525920A CN 110322899 B CN110322899 B CN 110322899B
- Authority
- CN
- China
- Prior art keywords
- user
- audio
- preset
- emotion
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/65—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Library & Information Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Child & Adolescent Psychology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种用户智能分类方法,应用于服务器,该方法包括从数据库中获取用户信息,根据用户信息提取出每个用户的特征信息,根据特征信息为每个用户分配一个或多个特征标签。同时,服务器对不同的特征标签数值化处理得到对应的数值后,利用预先确定的公式对得到的数值进行计算得出对应用户的评分分值,并利用预先确定的划分规则将评分分值对应的用户进行等级分类。利用本发明可以综合考虑每个用户的不同特征信息带来的影响,并通过对特征信息对应的特征标签数值化计算得出一个综合的评分分值,根据评分分值对每个用户进行等级分类,从而能够更精准地对不同等级的用户提供合理服务。
Description
技术领域
本发明涉及数据分类技术领域,尤其涉及一种用户智能分类方法、服务器及存储介质。
背景技术
为了完善面向用户的信息资源整合与服务,越来越多的公司以“了解用户”为原则,对用户进行分类并提供合理的针对性服务。
目前大多数用户分类方式是根据用户办理的业务类型进行自定义分类,然而影响用户类别的因素实际上不止有业务类型,因此如何综合考虑不同影响因素对用户进行分类已成为亟需解决的技术问题。
发明内容
本发明的主要目的在于提供一种用户智能分类方法、服务器及存储介质,旨在如何综合考虑不同影响因素对用户进行准确分类。
为实现上述目的,本发明提供的一种用户智能分类方法,应用于服务器,该方法包括:
信息提取步骤:从数据库中获取预设用户群的用户信息,根据所述用户信息提取出每个用户的预设特征信息,所述特征信息包括用户申请办理业务的业务类别、用户申请办理所述业务的来电次数、最后一次来电的录音音频包含的语音情绪类别;
数据处理步骤:根据所述特征信息为每个用户分配一个或多个特征标签,所述特征标签包括所述业务类别、所述来电次数对应的数值或数值区域、所述语音情绪类别,并对每个特征标签进行数值化处理得到对应的数值;
计算步骤:利用预设公式对所述数值化处理得到的数值进行计算得到每个用户的评分分值score,所述公式为:
其中,α为常数,且0<α<1,βmax表示为一个用户的一个或多个标签对应的数值中的最大值,βi表示为该用户的一个或多个标签对应的数值中除去所述最大值之外的其他各个标签对应的数值;及
分类步骤:根据所述用户群的每个用户的评分分值及预设的分类规则对所述用户群的所有用户进行分类。
优选地,所述信息提取步骤中所述语音情绪类别的提取步骤包括:
对该最后一次来电录音音频进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述来电的录音音频的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述来电的录音音频的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
优选地,所述情绪识别模型为深度神经网络模型,所述情绪识别模型的训练过程包括:
获取预设数量的录音音频样本,为每一段录音音频样本分配唯一的情绪类别;
将所述录音音频样本按照第一预设比例分成第一训练集和第一验证集,所述第一训练集中的录音音频样本数量大于所述第一验证集中的录音音频样本数量;
将所述第一训练集中的录音音频样本输入所述深度神经网络模型进行训练,每隔预设周期使用所述第一验证集对所述深度神经网络模型进行验证,利用所述第一验证集中各段录音音频样本的语音特征和对应的情绪的类别对该情绪识别类别的准确率进行验证;及
当验证的准确率大于第二预设阈值时,结束训练,得到所述情绪识别模型。
优选地,所述分类规则为:
根据用户的所述评分分值落入的分值区域将用户分为不同的分类类别。
优选地,该方法还包括反馈步骤:
接收用户发送的业务办理请求,根据该用户的分别类别将对应的业务办理请求以预设警示形式发送至有相应权限的处理人的客户端。
为实现上述目的,本发明还进一步提供一种服务器,所述服务器包括存储器和处理器,所述存储器上存储有用户智能分类程序,所述用户智能分类程序被所述处理器执行时实现如下步骤:
信息提取步骤:从数据库中获取预设用户群的用户信息,根据所述用户信息提取出每个用户的预设特征信息,所述特征信息包括用户申请办理业务的业务类别、用户申请办理所述业务的来电次数、最后一次来电的录音音频包含的语音情绪类别;
数据处理步骤:根据所述特征信息为每个用户分配一个或多个特征标签,所述特征标签包括所述业务类别、所述来电次数对应的数值或数值区域、所述语音情绪类别,并对每个特征标签进行数值化处理得到对应的数值;
计算步骤:利用预设公式对所述数值化处理得到的数值进行计算得到每个用户的评分分值score,所述公式为:
其中,α为常数,且0<α<1,βmax表示为一个用户的一个或多个标签对应的数值中的最大值,βi表示为该用户的一个或多个标签对应的数值中除去所述最大值之外的其他各个标签对应的数值;及
分类步骤:根据所述用户群的每个用户的评分分值及预设的分类规则对所述用户群的所有用户进行分类。
优选地,所述信息提取步骤中所述语音情绪类别的提取步骤包括:
对该最后一次来电录音音频进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述来电的录音音频的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述来电的录音音频的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
优选地,所述情绪识别模型为深度神经网络模型,所述情绪识别模型的训练过程包括:
获取预设数量的录音音频样本,为每一段录音音频样本分配唯一的情绪类别;
将所述录音音频样本按照第一预设比例分成第一训练集和第一验证集,所述第一训练集中的录音音频样本数量大于所述第一验证集中的录音音频样本数量;
将所述第一训练集中的录音音频样本输入所述深度神经网络模型进行训练,每隔预设周期使用所述第一验证集对所述深度神经网络模型进行验证,利用所述第一验证集中各段录音音频样本的语音特征和对应的情绪的类别对该情绪识别类别的准确率进行验证;及
当验证的准确率大于第二预设阈值时,结束训练,得到所述情绪识别模型。
优选地,所述分类规则为:
根据用户的所述评分分值落入的分值区域将用户分为不同的分类类别。
为实现上述目的,本发明进一步提供一种计算机可读存储介质,所述计算机可读存储介质上存储有用户智能分类程序,所述用户智能分类程序可被一个或者多个处理器执行,以实现如上所述的用户智能分类方法的步骤。
本发明提出的用户智能分类方法、服务器及存储介质,通过从数据库中获取用户信息,根据用户信息提取出预设的特征信息,为特征信息建立对应的特征标签后分配给用户,同时对不同的特征标签数值化处理得到对应的数值后,利用预先确定的公式对得到的数值进行计算得出对应用户的评分分值,并利用预先确定的划分规则将评分分值对应的用户进行分类。利用本发明可以综合考虑每个用户的不同特征信息带来的影响,并通过对特征信息对应的特征标签数值化计算得出一个综合的评分分值,根据评分分值对每个用户进行分类,从而能够更精准地对不同类别的用户提供合理服务.
附图说明
图1为本发明服务器较佳实施例的应用环境图;
图2为图1中用户智能分类程序较佳实施例的程序模块示意图;
图3为本发明用户智能分类方法较佳实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参附图做进一步说明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
本发明提供一种服务器1。
所述服务器1可以是机架式服务器、刀片式服务器、塔式服务器或机柜式服务器等的一种或几种。该服务器1包括,但不仅限于,存储器11、处理器12及网络接口13。
其中,存储器11至少包括一种类别的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器11在一些实施例中可以是服务器1的内部存储单元,例如该服务器1的硬盘。存储器11在另一些实施例中也可以是服务器1的外部存储设备,例如该服务器1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
进一步地,存储器11还可以既包括服务器1的内部存储单元也包括外部存储设备。存储器11不仅可以用于存储安装于服务器1的应用软件及各类数据,例如用户智能分类程序10的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行用户智能分类程序10等。
网络接口13可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该服务器与其他电子设备之间建立通信连接。
客户端14可以是桌上型计算机、笔记本、平板电脑、手机等。
网络15可以为互联网、云网络、无线保真(Wi-Fi)网络、个人网(PAN)、局域网(LAN)和/或城域网(MAN)。网络环境中的各种设备可以被配置为根据各种有线和无线通信协议连接到通信网络。这样的有线和无线通信协议的例子可以包括但不限于以下中的至少一个:传输控制协议和互联网协议(TCP/IP)、用户数据报协议(UDP)、超文本传输协议(HTTP)、文件传输协议(FTP)、ZigBee、EDGE、IEEE 802.11、光保真(Li-Fi)、802.16、IEEE 802.11s、IEEE 802.11g、多跳通信、无线接入点(AP)、设备对设备通信、蜂窝通信协议和/或蓝牙(BlueTooth)通信协议或其组合。
可选地,该服务器1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以称为显示屏或显示单元,用于显示在服务器1中处理的信息以及用于显示可视化的用户界面。
图1仅示出了具有组件11-15以及用户智能分类程序10的服务器1,本领域技术人员可以理解的是,图1示出的结构并不构成对服务器1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
在一实施例中,图1的用户智能分类程序10被处理器12执行时,实现以下步骤:
信息提取步骤:从数据库中获取预设用户群的用户信息,根据所述用户信息提取出每个用户的预设特征信息,所述特征信息包括用户申请办理业务的业务类别、用户申请办理所述业务的来电次数、最后一次来电的录音音频包含的语音情绪类别;
数据处理步骤:根据所述特征信息为每个用户分配一个或多个特征标签,所述特征标签包括所述业务类别、所述来电次数对应的数值或数值区域、所述语音情绪类别,并对每个特征标签进行数值化处理得到对应的数值;
计算步骤:利用预设公式对所述数值化处理得到的数值进行计算得到每个用户的评分分值score,所述公式为:
其中,α为常数,且0<α<1,βmax表示为一个用户的一个或多个标签对应的数值中的最大值,βi表示为该用户的一个或多个标签对应的数值中除去所述最大值之外的其他各个标签对应的数值;及
分类步骤:根据所述用户群的每个用户的评分分值及预设的分类规则对所述用户群的所有用户进行分类。
在另一实施例中,该方法还包括反馈步骤:
接收用户发送的业务办理请求,根据该用户的分别类别将对应的业务办理请求以预设警示形式发送至有相应权限的处理人的客户端。
关于上述步骤的详细介绍,请参照下述图2关于用户智能分类程序10实施例的程序模块示意图及图3关于用户智能分类方法实施例的方法流程示意图的说明。
参照图2所示,为图1中用户智能分类程序10实施例的程序模块示意图。用户智能分类程序10被分割为多个模块,该多个模块存储于存储器11中,并由处理器12执行,以完成本发明。本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段。
在本实施例中,所述用户智能分类程序10包括信息提取模块110、数据处理模块120、计算模块130、分类模块140。
信息提取模块110,用于从数据库中获取预设用户群的用户信息,根据所述用户信息提取出每个用户的预设特征信息。
在本实施例中,服务器1从存储有所有用户的用户信息的数据库中获取预设用户群的用户信息,根据获取的用户信息提取出每个用户的预设特征信息。其中,特征信息包括用户申请办理业务(例如,办理保险业务)的业务类别、用户申请办理业务的来电次数、最后一次来电的录音音频包含的语音情绪类别等。在另一实施例中,特征信息还包括用户办理的业务涉及金额的大小等。
为了具体描述如何进行信息提取,在本实施例中以提取语音情绪类别的方法为例进行具体说明,具体步骤如下所述:
获取某一用户办理同一业务的所有来电录音音频,根据时间先后进行排序,并选取最后一次的来电录音音频,对该来电录音音频进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述来电的录音音频的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述来电录音音频的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
在本实施例中,可以使用OpenSMILE软件来提取来电录音的梅尔频率倒谱系数、音高、过零率等低阶音频特征。动态回归系数用来表示低阶音频特征的重要程度。例如,将一段电话录音的某个低阶音频特征(比如音高特征)以一个波形文件表示,则该波形文件用多元线性回归的方式可以表示为:
Y=β0+β1X1+β2X2+...+βKXK
其中,k为该低阶音频特征在该音频部分的数目,βj(j=1,2,...,k)为该低阶音频特征的动态回归系数,Xk为影响低阶音频特征的变量,例如频率、振幅、相位等。
所述统计函数包括用来提取低阶音频特征和动态音频特征的最大值、最小值、峰度、偏度等的函数,利用统计函数提取到的数据进行组合、变换,得到高阶音频特征。各音频部分提取到的高阶音频特征的数量往往非常大,但通常只有少部分高阶音频特征会对语音情绪类别的识别结果产生显著影响,所以,我们用特征筛选算法来减少高阶音频特征的数量,提高语音情绪类别的识别速度。在本实施例中,所述特征筛选算法可以是序列前向选择(S equential Forward Selection,SFS)算法、序列后向选择(Sequential Backwa rdSelection,SBS)算法、双向搜索(Bidirectional Search,BDS)算法、过滤特征选择(filterfeature selection)算法,也可以是其他特征筛选算法。
在本实施例中,所述情绪识别模型为深度神经网络模型(Deep Neural Networks,DNN),所述情绪识别模型的训练过程包括:
获取预设数量的录音音频样本,为每一段录音音频样本分配唯一的情绪类别;
将所述录音音频样本按照第一预设比例分成第一训练集和第一验证集,所述第一训练集中的录音音频样本数量大于所述第一验证集中的录音音频样本数量;
将所述第一训练集中的录音音频样本输入所述深度神经网络模型进行训练,每隔预设周期使用所述第一验证集对所述深度神经网络模型进行验证,利用所述第一验证集中各段录音音频样本的语音特征和对应的情绪的类别对该情绪识别类别的准确率进行验证;及
当验证的准确率大于第二预设阈值时,结束训练,得到所述情绪识别模型。
数据处理模块120,用于根据所述特征信息为每个用户分配一个或多个特征标签。
在本实施例中,根据所述特征信息(例如,语音情绪类别)为每个用户分配一个或多个特征标签(例如,愉悦、平静、生气)。一个用户分配的特征标签可能不只一个,并对每个用户的每个特征标签进行数值化处理得到对应的数值。例如,可以预设一个映射表并存储至数据库,所述映射表包括特征标签,例如用户等级、业务类别、来电次数对应的数值或数值区域、语音情绪的类别等。其中,每一特征标签均映射一个数值或一个数值区间。
例如,某一用户具有多个特征标签并分别进行标签数值化处理:语音情绪的类别“生气”的标签数值化处理结果可以为60;业务类别“办理保险业务”标签的数值化处理结果可以为70;来电次数对应的数值“十次”的标签数值化处理结果可以为80。
计算模块130,用于利用预设公式对所述数值化处理得到的数值进行计算得到每个用户的评分分值score。
在本实施例中,通过预设公式将用户各个标签在数值化处理后得到的数值进行计算,以得到对应的评分分值score。
所述公式为:
其中,α为常数,且0<α<1(例如α=0.5),βmax表示为一个用户的一个或多个标签对应的数值中的最大值,βi表示为该用户的一个或多个标签对应的数值中除去所述最大值之外的其他各个标签对应的数值。
通过利用所述公式计算得到用户的评分分值,既可以突出用户的主要特征信息,又兼顾其他各项特征信息,综合考虑了用户的各项信息,有利于提升对用户进行分类的结果的准确性。
分类模块140,用于根据所述用户群每个用户的评分分值及预设的分类规则对所述用户群的所有用户进行分类。
在本实施例中,根据预先确定的划分规则将评分分值对应的用户进行等级分类。
所述划分规则为:
根据用户的所述评分分值落入的分值区域将用户分为不同的分类类别。
例如,当用户的评分分值小于第一阈值(例如60)时,将用户划分为A类;当用户的评分分值大于第一阈值且小于第二阈值(例如80)时,将用户划分为B类;当用户的评分分值大于第二阈值时,将用户划分为C类。
在另一实施例中,该用户智能分类程序10还包括反馈模块:
用于接收用户发送的业务办理请求,根据该用户的分别类别将对应的业务办理请求以预设警示形式发送至有相应权限的处理人的客户端14。
例如,当服务器1接收用户发送的问题反馈或业务办理请求时,先从数据库中获取与用户对应的等级分类结果。若用户为A类,则表示用户反映的问题已解决按正常流程处理即可;若用户为B类,则表示用户反映的问题未解决,并以第一预设形式(例如提醒邮件)发送至第一预设客户端(例如科室级领导的客户端),若用户为C类,则表示用户反映的问题长时间未解决,并以第二预设形式(例如催办邮件)发送至第二预设客户端(例如部门级领导的客户端)。
此外,本发明还提供一种用户智能分类方法。参照图3所示,为本发明用户智能分类方法的实施例的方法流程示意图。服务器1的处理器12执行存储器11中存储的用户智能分类程序10时实现用户智能分类方法的如下步骤:
S110,从数据库中获取预设用户群的用户信息,根据所述用户信息提取出每个用户的预设特征信息。
在本实施例中,服务器1从存储有所有用户的用户信息的数据库中获取预设用户群的用户信息,根据获取的用户信息提取出每个用户的预设特征信息。其中,特征信息包括用户申请办理业务(例如,办理保险业务)的业务类别、用户申请办理业务的来电次数、最后一次来电的录音音频包含的语音情绪类别等。在另一实施例中,特征信息还包括用户办理的业务涉及金额的大小等。
为了具体描述如何进行信息提取,在本实施例中以提取语音情绪类别的方法为例进行具体说明,具体步骤如下所述:
获取某一用户办理同一业务的所有来电录音音频,根据时间先后进行排序,并选取最后一次的来电录音音频,对该来电录音音频进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述来电的录音音频的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述来电录音音频的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
在本实施例中,可以使用OpenSMILE软件来提取来电录音的梅尔频率倒谱系数、音高、过零率等低阶音频特征。动态回归系数用来表示低阶音频特征的重要程度。例如,将一段电话录音的某个低阶音频特征(比如音高特征)以一个波形文件表示,则该波形文件用多元线性回归的方式可以表示为:
Y=β0+β1X1+β2X2+...+βKXK
其中,k为该低阶音频特征在该音频部分的数目,βj(j=1,2,...,k)为该低阶音频特征的动态回归系数,Xk为影响低阶音频特征的变量,例如频率、振幅、相位等。
所述统计函数包括用来提取低阶音频特征和动态音频特征的最大值、最小值、峰度、偏度等的函数,利用统计函数提取到的数据进行组合、变换,得到高阶音频特征。各音频部分提取到的高阶音频特征的数量往往非常大,但通常只有少部分高阶音频特征会对语音情绪类别的识别结果产生显著影响,所以,我们用特征筛选算法来减少高阶音频特征的数量,提高语音情绪类别的识别速度。在本实施例中,所述特征筛选算法可以是序列前向选择(S equential Forward Selection,SFS)算法、序列后向选择(Sequential Backwa rdSelection,SBS)算法、双向搜索(Bidirectional Search,BDS)算法、过滤特征选择(filterfeature selection)算法,也可以是其他特征筛选算法。
在本实施例中,所述情绪识别模型为深度神经网络模型(Deep Neural Networks,DNN),所述情绪识别模型的训练过程包括:
获取预设数量的录音音频样本,为每一段录音音频样本分配唯一的情绪类别;
将所述录音音频样本按照第一预设比例分成第一训练集和第一验证集,所述第一训练集中的录音音频样本数量大于所述第一验证集中的录音音频样本数量;
将所述第一训练集中的录音音频样本输入所述深度神经网络模型进行训练,每隔预设周期使用所述第一验证集对所述深度神经网络模型进行验证,利用所述第一验证集中各段录音音频样本的语音特征和对应的情绪的类别对该情绪识别类别的准确率进行验证;及
当验证的准确率大于第二预设阈值时,结束训练,得到所述情绪识别模型。
S120,根据所述特征信息为每个用户分配一个或多个特征标签。
在本实施例中,根据所述特征信息(例如,语音情绪类别)为每个用户分配一个或多个特征标签(例如,愉悦、平静、生气)。一个用户分配的特征标签可能不只一个,并对每个用户的每个特征标签进行数值化处理得到对应的数值。例如,可以预设一个映射表并存储至数据库,所述映射表包括特征标签,例如用户等级、业务类别、来电次数对应的数值或数值区域、语音情绪的类别等。其中,每一特征标签均映射一个数值或一个数值区间。
例如,某一用户具有多个特征标签并分别进行标签数值化处理:语音情绪的类别“生气”的标签数值化处理结果可以为60;业务类别“办理保险业务”标签的数值化处理结果可以为70;来电次数对应的数值“十次”的标签数值化处理结果可以为80。
S130,利用预设公式对所述数值化处理得到的数值进行计算得到每个用户的评分分值score。
在本实施例中,通过预设公式将用户各个标签在数值化处理后得到的数值进行计算,以得到对应的评分分值score。
所述公式为:
其中,α为常数,且0<α<1(例如α=0.5),βmax表示为一个用户的一个或多个标签对应的数值中的最大值,βi表示为该用户的一个或多个标签对应的数值中除去所述最大值之外的其他各个标签对应的数值。
通过利用所述公式计算得到用户的评分分值,既可以突出用户的主要特征信息,又兼顾其他各项特征信息,综合考虑了用户的各项信息,有利于提升对用户进行分类的结果的准确性。
S140,根据所述用户群每个用户的评分分值及预设的分类规则对所述用户群的所有用户进行分类。
在本实施例中,根据预先确定的划分规则将评分分值对应的用户进行等级分类。
所述划分规则为:
根据用户的所述评分分值落入的分值区域将用户分为不同的分类类别。
例如,当用户的评分分值小于第一阈值(例如60)时,将用户划分为A类;当用户的评分分值大于第一阈值且小于第二阈值(例如80)时,将用户划分为B类;当用户的评分分值大于第二阈值时,将用户划分为C类。
在另一实施例中,该用户智能分类方法还包括反馈步骤:
接收用户发送的业务办理请求,根据该用户的分别类别将对应的业务办理请求以预设警示形式发送至有相应权限的处理人的客户端14。
例如,当服务器1接收用户发送的问题反馈或业务办理请求时,先从数据库中获取与用户对应的等级分类结果。若用户为A类,则表示用户反映的问题已解决按正常流程处理即可;若用户为B类,则表示用户反映的问题未解决,并以第一预设形式(例如提醒邮件)发送至第一预设客户端(例如科室级领导的客户端),若用户为C类,则表示用户反映的问题长时间未解决,并以第二预设形式(例如催办邮件)发送至第二预设客户端(例如部门级领导的客户端)。
此外,本发明实施例还提出一种计算机可读存储介质,计算机可读存储介质可以是硬盘、多媒体卡、SD卡、闪存卡、SMC、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器等中的任意一种或者几种的任意组合。计算机可读存储介质中包括用户智能分类程序10,本发明之计算机可读存储介质的具体实施方式与上述用户智能分类方法以及服务器1的具体实施方式大致相同,在此不再赘述。
需要说明的是,上述本发明实施例序日仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本发明实施例序日仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (8)
1.一种用户智能分类方法,应用于服务器,其特征在于,该方法包括:
信息提取步骤:从数据库中获取预设用户群的用户信息,根据所述用户信息提取出每个用户的预设特征信息,所述特征信息包括用户申请办理业务的业务类别、用户申请办理所述业务的来电次数和最后一次来电的录音音频包含的语音情绪类别;
数据处理步骤:根据所述特征信息为每个用户分配一个或多个特征标签,所述特征标签包括所述业务类别,所述来电次数对应的数值或数值区域,和所述语音情绪类别,并对每个特征标签进行数值化处理得到对应的数值;
计算步骤:利用预设公式对所述数值化处理得到的数值进行计算得到每个用户的评分分值score,所述公式为:
其中,α为常数,且0<α<1,βmax表示为一个用户的一个或多个标签对应的数值中的最大值,βi表示为该用户的一个或多个标签对应的数值中除去所述最大值之外的其他各个标签对应的数值;及
分类步骤:根据所述用户群的每个用户的评分分值及预设的分类规则对所述用户群的所有用户进行分类;
其中,提取最后一次来电的录音音频包含的语音情绪类别,包括:
对该最后一次来电的录音音频进行解码得到音频信号,从所述音频信号中提取低阶音频特征;从所述低阶音频特征中提取动态回归系数,得到所述来电的录音音频的动态音频特征;利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述来电的录音音频的语音特征;及,将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
2.如权利要求1所述的用户智能分类方法,其特征在于,所述情绪识别模型为深度神经网络模型,所述情绪识别模型的训练过程包括:
获取预设数量的录音音频样本,为每一段录音音频样本分配唯一的情绪类别;
将所述录音音频样本按照第一预设比例分成第一训练集和第一验证集,所述第一训练集中的录音音频样本数量大于所述第一验证集中的录音音频样本数量;
将所述第一训练集中的录音音频样本输入所述深度神经网络模型进行训练,每隔预设周期使用所述第一验证集对所述深度神经网络模型进行验证,利用所述第一验证集中各段录音音频样本的语音特征和对应的情绪的类别对该情绪识别类别的准确率进行验证;及
当验证的准确率大于第二预设阈值时,结束训练,得到所述情绪识别模型。
3.如权利要求1所述的用户智能分类方法,其特征在于,所述分类规则为:
根据用户的所述评分分值落入的分值区域将用户分为不同的分类类别。
4.如权利要求1所述的用户智能分类方法,其特征在于,该方法还包括反馈步骤:
接收用户发送的业务办理请求,根据该用户的分别类别将对应的业务办理请求以预设警示形式发送至有相应权限的处理人的客户端。
5.一种服务器,其特征在于,所述服务器包括存储器和处理器,所述存储器上存储有用户智能分类程序,所述用户智能分类程序被所述处理器执行时实现如下步骤:
信息提取步骤:从数据库中获取预设用户群的用户信息,根据所述用户信息提取出每个用户的预设特征信息,所述特征信息包括用户申请办理业务的业务类别、用户申请办理所述业务的来电次数和最后一次来电的录音音频包含的语音情绪类别;
数据处理步骤:根据所述特征信息为每个用户分配一个或多个特征标签,所述特征标签包括所述业务类别,所述来电次数对应的数值或数值区域,和所述语音情绪类别,并对每个特征标签进行数值化处理得到对应的数值;
计算步骤:利用预设公式对所述数值化处理得到的数值进行计算得到每个用户的评分分值score,所述公式为:
其中,α为常数,且0<α<1,βmax表示为一个用户的一个或多个标签对应的数值中的最大值,βi表示为该用户的一个或多个标签对应的数值中除去所述最大值之外的其他各个标签对应的数值;及
分类步骤:根据所述用户群的每个用户的评分分值及预设的分类规则对所述用户群的所有用户进行分类;
其中,提取最后一次来电的录音音频包含的语音情绪类别,包括:
对该最后一次来电的录音音频进行解码得到音频信号,从所述音频信号中提取低阶音频特征;从所述低阶音频特征中提取动态回归系数,得到所述来电的录音音频的动态音频特征;利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述来电的录音音频的语音特征;及,将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
6.如权利要求5所述的服务器,其特征在于,所述情绪识别模型为深度神经网络模型,所述情绪识别模型的训练过程包括:
获取预设数量的录音音频样本,为每一段录音音频样本分配唯一的情绪类别;
将所述录音音频样本按照第一预设比例分成第一训练集和第一验证集,所述第一训练集中的录音音频样本数量大于所述第一验证集中的录音音频样本数量;
将所述第一训练集中的录音音频样本输入所述深度神经网络模型进行训练,每隔预设周期使用所述第一验证集对所述深度神经网络模型进行验证,利用所述第一验证集中各段录音音频样本的语音特征和对应的情绪的类别对该情绪识别类别的准确率进行验证;及
当验证的准确率大于第二预设阈值时,结束训练,得到所述情绪识别模型。
7.如权利要求6所述的服务器,其特征在于,所述分类规则为:
根据用户的所述评分分值落入的分值区域将用户分为不同的分类类别。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有用户智能分类程序,所述用户智能分类程序可被一个或者多个处理器执行,以实现如权利要求1-4中任一项所述的用户智能分类方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910525920.8A CN110322899B (zh) | 2019-06-18 | 2019-06-18 | 用户智能分类方法、服务器及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910525920.8A CN110322899B (zh) | 2019-06-18 | 2019-06-18 | 用户智能分类方法、服务器及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110322899A CN110322899A (zh) | 2019-10-11 |
CN110322899B true CN110322899B (zh) | 2023-09-22 |
Family
ID=68120907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910525920.8A Active CN110322899B (zh) | 2019-06-18 | 2019-06-18 | 用户智能分类方法、服务器及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110322899B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110874394A (zh) * | 2019-10-12 | 2020-03-10 | 中国平安财产保险股份有限公司 | 智能答疑方法、电子装置及存储介质 |
CN111400289B (zh) * | 2020-02-23 | 2023-09-29 | 中国平安财产保险股份有限公司 | 智能用户分类方法、服务器及存储介质 |
CN111554304A (zh) * | 2020-04-25 | 2020-08-18 | 中信银行股份有限公司 | 用户标签获取方法、装置及设备 |
CN112529074B (zh) * | 2020-12-09 | 2024-04-26 | 平安科技(深圳)有限公司 | 一种业务信息处理方法及相关设备 |
CN117911085A (zh) * | 2024-03-18 | 2024-04-19 | 南京焦点方寸信息技术有限公司 | 一种基于企业营销的用户管理系统、方法及终端 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106993104A (zh) * | 2016-11-14 | 2017-07-28 | 阿里巴巴集团控股有限公司 | 来电处理方法、装置及终端 |
CN107944008A (zh) * | 2017-12-08 | 2018-04-20 | 神思电子技术股份有限公司 | 一种针对自然语言进行情绪识别的方法 |
CN108121742A (zh) * | 2016-11-30 | 2018-06-05 | 中国移动通信集团广东有限公司 | 用户分类模型的生成方法及装置 |
CN108597519A (zh) * | 2018-04-04 | 2018-09-28 | 百度在线网络技术(北京)有限公司 | 一种话单分类方法、装置、服务器和存储介质 |
CN109064315A (zh) * | 2018-08-02 | 2018-12-21 | 平安科技(深圳)有限公司 | 逾期账单智能催收方法、装置、计算机设备及存储介质 |
CN109151218A (zh) * | 2018-08-21 | 2019-01-04 | 平安科技(深圳)有限公司 | 通话语音质检方法、装置、计算机设备及存储介质 |
CN109670852A (zh) * | 2018-09-26 | 2019-04-23 | 平安普惠企业管理有限公司 | 用户分类方法、装置、终端及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10311454B2 (en) * | 2017-06-22 | 2019-06-04 | NewVoiceMedia Ltd. | Customer interaction and experience system using emotional-semantic computing |
-
2019
- 2019-06-18 CN CN201910525920.8A patent/CN110322899B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106993104A (zh) * | 2016-11-14 | 2017-07-28 | 阿里巴巴集团控股有限公司 | 来电处理方法、装置及终端 |
CN108121742A (zh) * | 2016-11-30 | 2018-06-05 | 中国移动通信集团广东有限公司 | 用户分类模型的生成方法及装置 |
CN107944008A (zh) * | 2017-12-08 | 2018-04-20 | 神思电子技术股份有限公司 | 一种针对自然语言进行情绪识别的方法 |
CN108597519A (zh) * | 2018-04-04 | 2018-09-28 | 百度在线网络技术(北京)有限公司 | 一种话单分类方法、装置、服务器和存储介质 |
CN109064315A (zh) * | 2018-08-02 | 2018-12-21 | 平安科技(深圳)有限公司 | 逾期账单智能催收方法、装置、计算机设备及存储介质 |
CN109151218A (zh) * | 2018-08-21 | 2019-01-04 | 平安科技(深圳)有限公司 | 通话语音质检方法、装置、计算机设备及存储介质 |
CN109670852A (zh) * | 2018-09-26 | 2019-04-23 | 平安普惠企业管理有限公司 | 用户分类方法、装置、终端及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110322899A (zh) | 2019-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110322899B (zh) | 用户智能分类方法、服务器及存储介质 | |
US10777207B2 (en) | Method and apparatus for verifying information | |
US10404629B2 (en) | Automatic reply method, device, apparatus, and storage medium | |
CN107731229B (zh) | 用于识别语音的方法和装置 | |
CN108038208B (zh) | 上下文信息识别模型的训练方法、装置和存储介质 | |
CN107705782B (zh) | 用于确定音素发音时长的方法和装置 | |
CN110597965B (zh) | 文章的情感极性分析方法、装置、电子设备及存储介质 | |
CN108681871B (zh) | 一种提示信息的方法、终端设备及计算机可读存储介质 | |
CN111260493A (zh) | 基于亲密度的用户交友分组方法、电子装置及存储介质 | |
CN111274370A (zh) | 基于在线问答活动的弹幕答案分发方法、服务器及存储介质 | |
CN113160819A (zh) | 用于输出动画的方法、装置、设备、介质和产品 | |
CN113342954A (zh) | 一种应用于问答系统的图像信息处理方法、装置及电子设备 | |
US20140172874A1 (en) | Intelligent analysis queue construction | |
CN111640450A (zh) | 多人声音频处理方法、装置、设备及可读存储介质 | |
CN113609833B (zh) | 文件的动态生成方法、装置、计算机设备及存储介质 | |
CN113901316A (zh) | 一种信息推送方法、装置、电子设备及存储介质 | |
CN111276162A (zh) | 基于助听器的语音输出优化方法、服务器及存储介质 | |
CN113438374A (zh) | 智能外呼处理方法、装置、设备及存储介质 | |
CN110992930A (zh) | 声纹特征提取方法、装置、终端及可读存储介质 | |
US20140257791A1 (en) | Apparatus and method for auto-generation of journal entries | |
CN111432080A (zh) | 话单数据处理方法、电子设备及计算机可读存储介质 | |
CN112820323B (zh) | 基于客户语音进行响应队列优先级调整方法及系统 | |
CN110992067B (zh) | 消息推送方法、装置、计算机设备及存储介质 | |
CN110110133B (zh) | 一种智能语音数据生成方法及装置 | |
CN113988923B (zh) | 确定信息的方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |