CN110322899A - 用户智能分类方法、服务器及存储介质 - Google Patents

用户智能分类方法、服务器及存储介质 Download PDF

Info

Publication number
CN110322899A
CN110322899A CN201910525920.8A CN201910525920A CN110322899A CN 110322899 A CN110322899 A CN 110322899A CN 201910525920 A CN201910525920 A CN 201910525920A CN 110322899 A CN110322899 A CN 110322899A
Authority
CN
China
Prior art keywords
user
classification
feature
recorded audio
numerical value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910525920.8A
Other languages
English (en)
Other versions
CN110322899B (zh
Inventor
叶梦君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Bank Co Ltd
Original Assignee
Ping An Bank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Bank Co Ltd filed Critical Ping An Bank Co Ltd
Priority to CN201910525920.8A priority Critical patent/CN110322899B/zh
Publication of CN110322899A publication Critical patent/CN110322899A/zh
Application granted granted Critical
Publication of CN110322899B publication Critical patent/CN110322899B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/65Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Abstract

本发明公开了一种用户智能分类方法,应用于服务器,该方法包括从数据库中获取用户信息,根据用户信息提取出每个用户的特征信息,根据特征信息为每个用户分配一个或多个特征标签。同时,服务器对不同的特征标签数值化处理得到对应的数值后,利用预先确定的公式对得到的数值进行计算得出对应用户的评分分值,并利用预先确定的划分规则将评分分值对应的用户进行等级分类。利用本发明可以综合考虑每个用户的不同特征信息带来的影响,并通过对特征信息对应的特征标签数值化计算得出一个综合的评分分值,根据评分分值对每个用户进行等级分类,从而能够更精准地对不同等级的用户提供合理服务。

Description

用户智能分类方法、服务器及存储介质
技术领域
本发明涉及数据分类技术领域,尤其涉及一种用户智能分类方法、服务器及存储介质。
背景技术
为了完善面向用户的信息资源整合与服务,越来越多的公司以“了解用户”为原则,对用户进行分类并提供合理的针对性服务。
目前大多数用户分类方式是根据用户办理的业务类型进行自定义分类,然而影响用户类别的因素实际上不止有业务类型,因此如何综合考虑不同影响因素对用户进行分类已成为亟需解决的技术问题。
发明内容
本发明的主要目的在于提供一种用户智能分类方法、服务器及存储介质,旨在如何综合考虑不同影响因素对用户进行准确分类。
为实现上述目的,本发明提供的一种用户智能分类方法,应用于服务器,该方法包括:
信息提取步骤:从数据库中获取预设用户群的用户信息,根据所述用户信息提取出每个用户的预设特征信息,所述特征信息包括用户申请办理业务的业务类别、用户申请办理所述业务的来电次数、最后一次来电的录音音频包含的语音情绪类别;
数据处理步骤:根据所述特征信息为每个用户分配一个或多个特征标签,所述特征标签包括所述业务类别、所述来电次数对应的数值或数值区域、所述语音情绪类别,并对每个特征标签进行数值化处理得到对应的数值;
计算步骤:利用预设公式对所述数值化处理得到的数值进行计算得到每个用户的评分分值score,所述公式为:
其中,α为常数,且0<α<1,βmax表示为一个用户的一个或多个标签对应的数值中的最大值,βi表示为该用户的一个或多个标签对应的数值中除去所述最大值之外的其他各个标签对应的数值;及
分类步骤:根据所述用户群的每个用户的评分分值及预设的分类规则对所述用户群的所有用户进行分类。
优选地,所述信息提取步骤中所述语音情绪类别的提取步骤包括:
对该最后一次来电录音音频进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述来电的录音音频的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述来电的录音音频的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
优选地,所述情绪识别模型为深度神经网络模型,所述情绪识别模型的训练过程包括:
获取预设数量的录音音频样本,为每一段录音音频样本分配唯一的情绪类别;
将所述录音音频样本按照第一预设比例分成第一训练集和第一验证集,所述第一训练集中的录音音频样本数量大于所述第一验证集中的录音音频样本数量;
将所述第一训练集中的录音音频样本输入所述深度神经网络模型进行训练,每隔预设周期使用所述第一验证集对所述深度神经网络模型进行验证,利用所述第一验证集中各段录音音频样本的语音特征和对应的情绪的类别对该情绪识别类别的准确率进行验证;及
当验证的准确率大于第二预设阈值时,结束训练,得到所述情绪识别模型。
优选地,所述分类规则为:
根据用户的所述评分分值落入的分值区域将用户分为不同的分类类别。
优选地,该方法还包括反馈步骤:
接收用户发送的业务办理请求,根据该用户的分别类别将对应的业务办理请求以预设警示形式发送至有相应权限的处理人的客户端。
为实现上述目的,本发明还进一步提供一种服务器,所述服务器包括存储器和处理器,所述存储器上存储有用户智能分类程序,所述用户智能分类程序被所述处理器执行时实现如下步骤:
信息提取步骤:从数据库中获取预设用户群的用户信息,根据所述用户信息提取出每个用户的预设特征信息,所述特征信息包括用户申请办理业务的业务类别、用户申请办理所述业务的来电次数、最后一次来电的录音音频包含的语音情绪类别;
数据处理步骤:根据所述特征信息为每个用户分配一个或多个特征标签,所述特征标签包括所述业务类别、所述来电次数对应的数值或数值区域、所述语音情绪类别,并对每个特征标签进行数值化处理得到对应的数值;
计算步骤:利用预设公式对所述数值化处理得到的数值进行计算得到每个用户的评分分值score,所述公式为:
其中,α为常数,且0<α<1,βmax表示为一个用户的一个或多个标签对应的数值中的最大值,βi表示为该用户的一个或多个标签对应的数值中除去所述最大值之外的其他各个标签对应的数值;及
分类步骤:根据所述用户群的每个用户的评分分值及预设的分类规则对所述用户群的所有用户进行分类。
优选地,所述信息提取步骤中所述语音情绪类别的提取步骤包括:
对该最后一次来电录音音频进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述来电的录音音频的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述来电的录音音频的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
优选地,所述情绪识别模型为深度神经网络模型,所述情绪识别模型的训练过程包括:
获取预设数量的录音音频样本,为每一段录音音频样本分配唯一的情绪类别;
将所述录音音频样本按照第一预设比例分成第一训练集和第一验证集,所述第一训练集中的录音音频样本数量大于所述第一验证集中的录音音频样本数量;
将所述第一训练集中的录音音频样本输入所述深度神经网络模型进行训练,每隔预设周期使用所述第一验证集对所述深度神经网络模型进行验证,利用所述第一验证集中各段录音音频样本的语音特征和对应的情绪的类别对该情绪识别类别的准确率进行验证;及
当验证的准确率大于第二预设阈值时,结束训练,得到所述情绪识别模型。
优选地,所述分类规则为:
根据用户的所述评分分值落入的分值区域将用户分为不同的分类类别。
为实现上述目的,本发明进一步提供一种计算机可读存储介质,所述计算机可读存储介质上存储有用户智能分类程序,所述用户智能分类程序可被一个或者多个处理器执行,以实现如上所述的用户智能分类方法的步骤。
本发明提出的用户智能分类方法、服务器及存储介质,通过从数据库中获取用户信息,根据用户信息提取出预设的特征信息,为特征信息建立对应的特征标签后分配给用户,同时对不同的特征标签数值化处理得到对应的数值后,利用预先确定的公式对得到的数值进行计算得出对应用户的评分分值,并利用预先确定的划分规则将评分分值对应的用户进行分类。利用本发明可以综合考虑每个用户的不同特征信息带来的影响,并通过对特征信息对应的特征标签数值化计算得出一个综合的评分分值,根据评分分值对每个用户进行分类,从而能够更精准地对不同类别的用户提供合理服务.
附图说明
图1为本发明服务器较佳实施例的应用环境图;
图2为图1中用户智能分类程序较佳实施例的程序模块示意图;
图3为本发明用户智能分类方法较佳实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参附图做进一步说明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
本发明提供一种服务器1。
所述服务器1可以是机架式服务器、刀片式服务器、塔式服务器或机柜式服务器等的一种或几种。该服务器1包括,但不仅限于,存储器11、处理器12及网络接口13。
其中,存储器11至少包括一种类别的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器11在一些实施例中可以是服务器1的内部存储单元,例如该服务器1的硬盘。存储器11在另一些实施例中也可以是服务器1的外部存储设备,例如该服务器1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
进一步地,存储器11还可以既包括服务器1的内部存储单元也包括外部存储设备。存储器11不仅可以用于存储安装于服务器1的应用软件及各类数据,例如用户智能分类程序10的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行用户智能分类程序10等。
网络接口13可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该服务器与其他电子设备之间建立通信连接。
客户端14可以是桌上型计算机、笔记本、平板电脑、手机等。
网络15可以为互联网、云网络、无线保真(Wi-Fi)网络、个人网(PAN)、局域网(LAN)和/或城域网(MAN)。网络环境中的各种设备可以被配置为根据各种有线和无线通信协议连接到通信网络。这样的有线和无线通信协议的例子可以包括但不限于以下中的至少一个:传输控制协议和互联网协议(TCP/IP)、用户数据报协议(UDP)、超文本传输协议(HTTP)、文件传输协议(FTP)、ZigBee、EDGE、IEEE 802.11、光保真(Li-Fi)、802.16、IEEE 802.11s、IEEE 802.11g、多跳通信、无线接入点(AP)、设备对设备通信、蜂窝通信协议和/或蓝牙(BlueTooth)通信协议或其组合。
可选地,该服务器1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以称为显示屏或显示单元,用于显示在服务器1中处理的信息以及用于显示可视化的用户界面。
图1仅示出了具有组件11-15以及用户智能分类程序10的服务器1,本领域技术人员可以理解的是,图1示出的结构并不构成对服务器1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
在一实施例中,图1的用户智能分类程序10被处理器12执行时,实现以下步骤:
信息提取步骤:从数据库中获取预设用户群的用户信息,根据所述用户信息提取出每个用户的预设特征信息,所述特征信息包括用户申请办理业务的业务类别、用户申请办理所述业务的来电次数、最后一次来电的录音音频包含的语音情绪类别;
数据处理步骤:根据所述特征信息为每个用户分配一个或多个特征标签,所述特征标签包括所述业务类别、所述来电次数对应的数值或数值区域、所述语音情绪类别,并对每个特征标签进行数值化处理得到对应的数值;
计算步骤:利用预设公式对所述数值化处理得到的数值进行计算得到每个用户的评分分值score,所述公式为:
其中,α为常数,且0<α<1,βmax表示为一个用户的一个或多个标签对应的数值中的最大值,βi表示为该用户的一个或多个标签对应的数值中除去所述最大值之外的其他各个标签对应的数值;及
分类步骤:根据所述用户群的每个用户的评分分值及预设的分类规则对所述用户群的所有用户进行分类。
在另一实施例中,该方法还包括反馈步骤:
接收用户发送的业务办理请求,根据该用户的分别类别将对应的业务办理请求以预设警示形式发送至有相应权限的处理人的客户端。
关于上述步骤的详细介绍,请参照下述图2关于用户智能分类程序10实施例的程序模块示意图及图3关于用户智能分类方法实施例的方法流程示意图的说明。
参照图2所示,为图1中用户智能分类程序10实施例的程序模块示意图。用户智能分类程序10被分割为多个模块,该多个模块存储于存储器11中,并由处理器12执行,以完成本发明。本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段。
在本实施例中,所述用户智能分类程序10包括信息提取模块110、数据处理模块120、计算模块130、分类模块140。
信息提取模块110,用于从数据库中获取预设用户群的用户信息,根据所述用户信息提取出每个用户的预设特征信息。
在本实施例中,服务器1从存储有所有用户的用户信息的数据库中获取预设用户群的用户信息,根据获取的用户信息提取出每个用户的预设特征信息。其中,特征信息包括用户申请办理业务(例如,办理保险业务)的业务类别、用户申请办理业务的来电次数、最后一次来电的录音音频包含的语音情绪类别等。在另一实施例中,特征信息还包括用户办理的业务涉及金额的大小等。
为了具体描述如何进行信息提取,在本实施例中以提取语音情绪类别的方法为例进行具体说明,具体步骤如下所述:
获取某一用户办理同一业务的所有来电录音音频,根据时间先后进行排序,并选取最后一次的来电录音音频,对该来电录音音频进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述来电的录音音频的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述来电录音音频的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
在本实施例中,可以使用OpenSMILE软件来提取来电录音的梅尔频率倒谱系数、音高、过零率等低阶音频特征。动态回归系数用来表示低阶音频特征的重要程度。例如,将一段电话录音的某个低阶音频特征(比如音高特征)以一个波形文件表示,则该波形文件用多元线性回归的方式可以表示为:
Y=β01X12X2+...+βKXK
其中,k为该低阶音频特征在该音频部分的数目,βj(j=1,2,...,k)为该低阶音频特征的动态回归系数,Xk为影响低阶音频特征的变量,例如频率、振幅、相位等。
所述统计函数包括用来提取低阶音频特征和动态音频特征的最大值、最小值、峰度、偏度等的函数,利用统计函数提取到的数据进行组合、变换,得到高阶音频特征。各音频部分提取到的高阶音频特征的数量往往非常大,但通常只有少部分高阶音频特征会对语音情绪类别的识别结果产生显著影响,所以,我们用特征筛选算法来减少高阶音频特征的数量,提高语音情绪类别的识别速度。在本实施例中,所述特征筛选算法可以是序列前向选择(S equential Forward Selection,SFS)算法、序列后向选择(Sequential Backwa rdSelection,SBS)算法、双向搜索(Bidirectional Search,BDS)算法、过滤特征选择(filterfeature selection)算法,也可以是其他特征筛选算法。
在本实施例中,所述情绪识别模型为深度神经网络模型(Deep Neural Networks,DNN),所述情绪识别模型的训练过程包括:
获取预设数量的录音音频样本,为每一段录音音频样本分配唯一的情绪类别;
将所述录音音频样本按照第一预设比例分成第一训练集和第一验证集,所述第一训练集中的录音音频样本数量大于所述第一验证集中的录音音频样本数量;
将所述第一训练集中的录音音频样本输入所述深度神经网络模型进行训练,每隔预设周期使用所述第一验证集对所述深度神经网络模型进行验证,利用所述第一验证集中各段录音音频样本的语音特征和对应的情绪的类别对该情绪识别类别的准确率进行验证;及
当验证的准确率大于第二预设阈值时,结束训练,得到所述情绪识别模型。
数据处理模块120,用于根据所述特征信息为每个用户分配一个或多个特征标签。
在本实施例中,根据所述特征信息(例如,语音情绪类别)为每个用户分配一个或多个特征标签(例如,愉悦、平静、生气)。一个用户分配的特征标签可能不只一个,并对每个用户的每个特征标签进行数值化处理得到对应的数值。例如,可以预设一个映射表并存储至数据库,所述映射表包括特征标签,例如用户等级、业务类别、来电次数对应的数值或数值区域、语音情绪的类别等。其中,每一特征标签均映射一个数值或一个数值区间。
例如,某一用户具有多个特征标签并分别进行标签数值化处理:语音情绪的类别“生气”的标签数值化处理结果可以为60;业务类别“办理保险业务”标签的数值化处理结果可以为70;来电次数对应的数值“十次”的标签数值化处理结果可以为80。
计算模块130,用于利用预设公式对所述数值化处理得到的数值进行计算得到每个用户的评分分值score。
在本实施例中,通过预设公式将用户各个标签在数值化处理后得到的数值进行计算,以得到对应的评分分值score。
所述公式为:
其中,α为常数,且0<α<1(例如α=0.5),βmax表示为一个用户的一个或多个标签对应的数值中的最大值,βi表示为该用户的一个或多个标签对应的数值中除去所述最大值之外的其他各个标签对应的数值。
通过利用所述公式计算得到用户的评分分值,既可以突出用户的主要特征信息,又兼顾其他各项特征信息,综合考虑了用户的各项信息,有利于提升对用户进行分类的结果的准确性。
分类模块140,用于根据所述用户群每个用户的评分分值及预设的分类规则对所述用户群的所有用户进行分类。
在本实施例中,根据预先确定的划分规则将评分分值对应的用户进行等级分类。
所述划分规则为:
根据用户的所述评分分值落入的分值区域将用户分为不同的分类类别。
例如,当用户的评分分值小于第一阈值(例如60)时,将用户划分为A类;当用户的评分分值大于第一阈值且小于第二阈值(例如80)时,将用户划分为B类;当用户的评分分值大于第二阈值时,将用户划分为C类。
在另一实施例中,该用户智能分类程序10还包括反馈模块:
用于接收用户发送的业务办理请求,根据该用户的分别类别将对应的业务办理请求以预设警示形式发送至有相应权限的处理人的客户端14。
例如,当服务器1接收用户发送的问题反馈或业务办理请求时,先从数据库中获取与用户对应的等级分类结果。若用户为A类,则表示用户反映的问题已解决按正常流程处理即可;若用户为B类,则表示用户反映的问题未解决,并以第一预设形式(例如提醒邮件)发送至第一预设客户端(例如科室级领导的客户端),若用户为C类,则表示用户反映的问题长时间未解决,并以第二预设形式(例如催办邮件)发送至第二预设客户端(例如部门级领导的客户端)。
此外,本发明还提供一种用户智能分类方法。参照图3所示,为本发明用户智能分类方法的实施例的方法流程示意图。服务器1的处理器12执行存储器11中存储的用户智能分类程序10时实现用户智能分类方法的如下步骤:
S110,从数据库中获取预设用户群的用户信息,根据所述用户信息提取出每个用户的预设特征信息。
在本实施例中,服务器1从存储有所有用户的用户信息的数据库中获取预设用户群的用户信息,根据获取的用户信息提取出每个用户的预设特征信息。其中,特征信息包括用户申请办理业务(例如,办理保险业务)的业务类别、用户申请办理业务的来电次数、最后一次来电的录音音频包含的语音情绪类别等。在另一实施例中,特征信息还包括用户办理的业务涉及金额的大小等。
为了具体描述如何进行信息提取,在本实施例中以提取语音情绪类别的方法为例进行具体说明,具体步骤如下所述:
获取某一用户办理同一业务的所有来电录音音频,根据时间先后进行排序,并选取最后一次的来电录音音频,对该来电录音音频进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述来电的录音音频的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述来电录音音频的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
在本实施例中,可以使用OpenSMILE软件来提取来电录音的梅尔频率倒谱系数、音高、过零率等低阶音频特征。动态回归系数用来表示低阶音频特征的重要程度。例如,将一段电话录音的某个低阶音频特征(比如音高特征)以一个波形文件表示,则该波形文件用多元线性回归的方式可以表示为:
Y=β01X12X2+...+βKXK
其中,k为该低阶音频特征在该音频部分的数目,βj(j=1,2,...,k)为该低阶音频特征的动态回归系数,Xk为影响低阶音频特征的变量,例如频率、振幅、相位等。
所述统计函数包括用来提取低阶音频特征和动态音频特征的最大值、最小值、峰度、偏度等的函数,利用统计函数提取到的数据进行组合、变换,得到高阶音频特征。各音频部分提取到的高阶音频特征的数量往往非常大,但通常只有少部分高阶音频特征会对语音情绪类别的识别结果产生显著影响,所以,我们用特征筛选算法来减少高阶音频特征的数量,提高语音情绪类别的识别速度。在本实施例中,所述特征筛选算法可以是序列前向选择(S equential Forward Selection,SFS)算法、序列后向选择(Sequential Backwa rdSelection,SBS)算法、双向搜索(Bidirectional Search,BDS)算法、过滤特征选择(filterfeature selection)算法,也可以是其他特征筛选算法。
在本实施例中,所述情绪识别模型为深度神经网络模型(Deep Neural Networks,DNN),所述情绪识别模型的训练过程包括:
获取预设数量的录音音频样本,为每一段录音音频样本分配唯一的情绪类别;
将所述录音音频样本按照第一预设比例分成第一训练集和第一验证集,所述第一训练集中的录音音频样本数量大于所述第一验证集中的录音音频样本数量;
将所述第一训练集中的录音音频样本输入所述深度神经网络模型进行训练,每隔预设周期使用所述第一验证集对所述深度神经网络模型进行验证,利用所述第一验证集中各段录音音频样本的语音特征和对应的情绪的类别对该情绪识别类别的准确率进行验证;及
当验证的准确率大于第二预设阈值时,结束训练,得到所述情绪识别模型。
S120,根据所述特征信息为每个用户分配一个或多个特征标签。
在本实施例中,根据所述特征信息(例如,语音情绪类别)为每个用户分配一个或多个特征标签(例如,愉悦、平静、生气)。一个用户分配的特征标签可能不只一个,并对每个用户的每个特征标签进行数值化处理得到对应的数值。例如,可以预设一个映射表并存储至数据库,所述映射表包括特征标签,例如用户等级、业务类别、来电次数对应的数值或数值区域、语音情绪的类别等。其中,每一特征标签均映射一个数值或一个数值区间。
例如,某一用户具有多个特征标签并分别进行标签数值化处理:语音情绪的类别“生气”的标签数值化处理结果可以为60;业务类别“办理保险业务”标签的数值化处理结果可以为70;来电次数对应的数值“十次”的标签数值化处理结果可以为80。
S130,利用预设公式对所述数值化处理得到的数值进行计算得到每个用户的评分分值score。
在本实施例中,通过预设公式将用户各个标签在数值化处理后得到的数值进行计算,以得到对应的评分分值score。
所述公式为:
其中,α为常数,且0<α<1(例如α=0.5),βmax表示为一个用户的一个或多个标签对应的数值中的最大值,βi表示为该用户的一个或多个标签对应的数值中除去所述最大值之外的其他各个标签对应的数值。
通过利用所述公式计算得到用户的评分分值,既可以突出用户的主要特征信息,又兼顾其他各项特征信息,综合考虑了用户的各项信息,有利于提升对用户进行分类的结果的准确性。
S140,根据所述用户群每个用户的评分分值及预设的分类规则对所述用户群的所有用户进行分类。
在本实施例中,根据预先确定的划分规则将评分分值对应的用户进行等级分类。
所述划分规则为:
根据用户的所述评分分值落入的分值区域将用户分为不同的分类类别。
例如,当用户的评分分值小于第一阈值(例如60)时,将用户划分为A类;当用户的评分分值大于第一阈值且小于第二阈值(例如80)时,将用户划分为B类;当用户的评分分值大于第二阈值时,将用户划分为C类。
在另一实施例中,该用户智能分类方法还包括反馈步骤:
接收用户发送的业务办理请求,根据该用户的分别类别将对应的业务办理请求以预设警示形式发送至有相应权限的处理人的客户端14。
例如,当服务器1接收用户发送的问题反馈或业务办理请求时,先从数据库中获取与用户对应的等级分类结果。若用户为A类,则表示用户反映的问题已解决按正常流程处理即可;若用户为B类,则表示用户反映的问题未解决,并以第一预设形式(例如提醒邮件)发送至第一预设客户端(例如科室级领导的客户端),若用户为C类,则表示用户反映的问题长时间未解决,并以第二预设形式(例如催办邮件)发送至第二预设客户端(例如部门级领导的客户端)。
此外,本发明实施例还提出一种计算机可读存储介质,计算机可读存储介质可以是硬盘、多媒体卡、SD卡、闪存卡、SMC、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器等中的任意一种或者几种的任意组合。计算机可读存储介质中包括用户智能分类程序10,本发明之计算机可读存储介质的具体实施方式与上述用户智能分类方法以及服务器1的具体实施方式大致相同,在此不再赘述。
需要说明的是,上述本发明实施例序日仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本发明实施例序日仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种用户智能分类方法,应用于服务器,其特征在于,该方法包括:
信息提取步骤:从数据库中获取预设用户群的用户信息,根据所述用户信息提取出每个用户的预设特征信息,所述特征信息包括用户申请办理业务的业务类别、用户申请办理所述业务的来电次数、最后一次来电的录音音频包含的语音情绪类别;
数据处理步骤:根据所述特征信息为每个用户分配一个或多个特征标签,所述特征标签包括所述业务类别、所述来电次数对应的数值或数值区域、所述语音情绪类别,并对每个特征标签进行数值化处理得到对应的数值;
计算步骤:利用预设公式对所述数值化处理得到的数值进行计算得到每个用户的评分分值score,所述公式为:
其中,α为常数,且0<α<1,βmax表示为一个用户的一个或多个标签对应的数值中的最大值,βi表示为该用户的一个或多个标签对应的数值中除去所述最大值之外的其他各个标签对应的数值;及
分类步骤:根据所述用户群的每个用户的评分分值及预设的分类规则对所述用户群的所有用户进行分类。
2.如权利要求1所述的用户智能分类方法,其特征在于,所述信息提取步骤中所述语音情绪类别的提取步骤包括:
对该最后一次来电的录音音频进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述来电的录音音频的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述来电的录音音频的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
3.如权利要求2所述的用户智能分类方法,其特征在于,所述情绪识别模型为深度神经网络模型,所述情绪识别模型的训练过程包括:
获取预设数量的录音音频样本,为每一段录音音频样本分配唯一的情绪类别;
将所述录音音频样本按照第一预设比例分成第一训练集和第一验证集,所述第一训练集中的录音音频样本数量大于所述第一验证集中的录音音频样本数量;
将所述第一训练集中的录音音频样本输入所述深度神经网络模型进行训练,每隔预设周期使用所述第一验证集对所述深度神经网络模型进行验证,利用所述第一验证集中各段录音音频样本的语音特征和对应的情绪的类别对该情绪识别类别的准确率进行验证;及
当验证的准确率大于第二预设阈值时,结束训练,得到所述情绪识别模型。
4.如权利要求1所述的用户智能分类方法,其特征在于,所述分类规则为:
根据用户的所述评分分值落入的分值区域将用户分为不同的分类类别。
5.如权利要求1所述的用户智能分类方法,其特征在于,该方法还包括反馈步骤:
接收用户发送的业务办理请求,根据该用户的分别类别将对应的业务办理请求以预设警示形式发送至有相应权限的处理人的客户端。
6.一种服务器,其特征在于,所述服务器包括存储器和处理器,所述存储器上存储有用户智能分类程序,所述用户智能分类程序被所述处理器执行时实现如下步骤:
信息提取步骤:从数据库中获取预设用户群的用户信息,根据所述用户信息提取出每个用户的预设特征信息,所述特征信息包括用户申请办理业务的业务类别、用户申请办理所述业务的来电次数、最后一次来电的录音音频包含的语音情绪类别;
数据处理步骤:根据所述特征信息为每个用户分配一个或多个特征标签,所述特征标签包括所述业务类别、所述来电次数对应的数值或数值区域、所述语音情绪类别,并对每个特征标签进行数值化处理得到对应的数值;
计算步骤:利用预设公式对所述数值化处理得到的数值进行计算得到每个用户的评分分值score,所述公式为:
其中,α为常数,且0<α<1,βmax表示为一个用户的一个或多个标签对应的数值中的最大值,βi表示为该用户的一个或多个标签对应的数值中除去所述最大值之外的其他各个标签对应的数值;及
分类步骤:根据所述用户群的每个用户的评分分值及预设的分类规则对所述用户群的所有用户进行分类。
7.如权利要求6所述的服务器,其特征在于,所述信息提取步骤中所述语音情绪类别的提取步骤包括:
对该最后一次来电录音音频进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述来电的录音音频的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述来电的录音音频的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
8.如权利要求7所述的服务器,其特征在于,所述情绪识别模型为深度神经网络模型,所述情绪识别模型的训练过程包括:
获取预设数量的录音音频样本,为每一段录音音频样本分配唯一的情绪类别;
将所述录音音频样本按照第一预设比例分成第一训练集和第一验证集,所述第一训练集中的录音音频样本数量大于所述第一验证集中的录音音频样本数量;
将所述第一训练集中的录音音频样本输入所述深度神经网络模型进行训练,每隔预设周期使用所述第一验证集对所述深度神经网络模型进行验证,利用所述第一验证集中各段录音音频样本的语音特征和对应的情绪的类别对该情绪识别类别的准确率进行验证;及
当验证的准确率大于第二预设阈值时,结束训练,得到所述情绪识别模型。
9.如权利要求8所述的服务器,其特征在于,所述分类规则为:根据用户的所述评分分值落入的分值区域将用户分为不同的分类类别。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有用户智能分类程序,所述用户智能分类程序可被一个或者多个处理器执行,以实现如权利要求1-5中任一项所述的用户智能分类方法的步骤。
CN201910525920.8A 2019-06-18 2019-06-18 用户智能分类方法、服务器及存储介质 Active CN110322899B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910525920.8A CN110322899B (zh) 2019-06-18 2019-06-18 用户智能分类方法、服务器及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910525920.8A CN110322899B (zh) 2019-06-18 2019-06-18 用户智能分类方法、服务器及存储介质

Publications (2)

Publication Number Publication Date
CN110322899A true CN110322899A (zh) 2019-10-11
CN110322899B CN110322899B (zh) 2023-09-22

Family

ID=68120907

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910525920.8A Active CN110322899B (zh) 2019-06-18 2019-06-18 用户智能分类方法、服务器及存储介质

Country Status (1)

Country Link
CN (1) CN110322899B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110874394A (zh) * 2019-10-12 2020-03-10 中国平安财产保险股份有限公司 智能答疑方法、电子装置及存储介质
CN111400289A (zh) * 2020-02-23 2020-07-10 中国平安财产保险股份有限公司 智能用户分类方法、服务器及存储介质
CN111554304A (zh) * 2020-04-25 2020-08-18 中信银行股份有限公司 用户标签获取方法、装置及设备
CN112529074A (zh) * 2020-12-09 2021-03-19 平安科技(深圳)有限公司 一种业务信息处理方法及相关设备
CN112529074B (zh) * 2020-12-09 2024-04-26 平安科技(深圳)有限公司 一种业务信息处理方法及相关设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106993104A (zh) * 2016-11-14 2017-07-28 阿里巴巴集团控股有限公司 来电处理方法、装置及终端
CN107944008A (zh) * 2017-12-08 2018-04-20 神思电子技术股份有限公司 一种针对自然语言进行情绪识别的方法
CN108121742A (zh) * 2016-11-30 2018-06-05 中国移动通信集团广东有限公司 用户分类模型的生成方法及装置
CN108597519A (zh) * 2018-04-04 2018-09-28 百度在线网络技术(北京)有限公司 一种话单分类方法、装置、服务器和存储介质
CN109064315A (zh) * 2018-08-02 2018-12-21 平安科技(深圳)有限公司 逾期账单智能催收方法、装置、计算机设备及存储介质
CN109151218A (zh) * 2018-08-21 2019-01-04 平安科技(深圳)有限公司 通话语音质检方法、装置、计算机设备及存储介质
US20190050875A1 (en) * 2017-06-22 2019-02-14 NewVoiceMedia Ltd. Customer interaction and experience system using emotional-semantic computing
CN109670852A (zh) * 2018-09-26 2019-04-23 平安普惠企业管理有限公司 用户分类方法、装置、终端及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106993104A (zh) * 2016-11-14 2017-07-28 阿里巴巴集团控股有限公司 来电处理方法、装置及终端
CN108121742A (zh) * 2016-11-30 2018-06-05 中国移动通信集团广东有限公司 用户分类模型的生成方法及装置
US20190050875A1 (en) * 2017-06-22 2019-02-14 NewVoiceMedia Ltd. Customer interaction and experience system using emotional-semantic computing
CN107944008A (zh) * 2017-12-08 2018-04-20 神思电子技术股份有限公司 一种针对自然语言进行情绪识别的方法
CN108597519A (zh) * 2018-04-04 2018-09-28 百度在线网络技术(北京)有限公司 一种话单分类方法、装置、服务器和存储介质
CN109064315A (zh) * 2018-08-02 2018-12-21 平安科技(深圳)有限公司 逾期账单智能催收方法、装置、计算机设备及存储介质
CN109151218A (zh) * 2018-08-21 2019-01-04 平安科技(深圳)有限公司 通话语音质检方法、装置、计算机设备及存储介质
CN109670852A (zh) * 2018-09-26 2019-04-23 平安普惠企业管理有限公司 用户分类方法、装置、终端及存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110874394A (zh) * 2019-10-12 2020-03-10 中国平安财产保险股份有限公司 智能答疑方法、电子装置及存储介质
CN111400289A (zh) * 2020-02-23 2020-07-10 中国平安财产保险股份有限公司 智能用户分类方法、服务器及存储介质
CN111400289B (zh) * 2020-02-23 2023-09-29 中国平安财产保险股份有限公司 智能用户分类方法、服务器及存储介质
CN111554304A (zh) * 2020-04-25 2020-08-18 中信银行股份有限公司 用户标签获取方法、装置及设备
CN112529074A (zh) * 2020-12-09 2021-03-19 平安科技(深圳)有限公司 一种业务信息处理方法及相关设备
CN112529074B (zh) * 2020-12-09 2024-04-26 平安科技(深圳)有限公司 一种业务信息处理方法及相关设备

Also Published As

Publication number Publication date
CN110322899B (zh) 2023-09-22

Similar Documents

Publication Publication Date Title
CN110246512A (zh) 声音分离方法、装置及计算机可读存储介质
CN110322899A (zh) 用户智能分类方法、服务器及存储介质
CN109635117A (zh) 一种基于知识图谱识别用户意图方法及装置
US9477747B2 (en) Method and apparatus for acquiring hot topics
CN109918485B (zh) 语音识别菜品的方法及装置、存储介质、电子装置
CN111190939A (zh) 一种用户画像构建方法及装置
CN108664599B (zh) 智能问答方法、装置、智能问答服务器及存储介质
CN109871446A (zh) 意图识别中的拒识方法、电子装置及存储介质
CN110457432A (zh) 面试评分方法、装置、设备及存储介质
CN110134756A (zh) 会议记录生成方法、电子装置及存储介质
CN103946838A (zh) 交互式多模图像搜索
CN109887525A (zh) 智能客服方法、装置及计算机可读存储介质
WO2020042583A1 (zh) 潜力绩优人员类型识别方法、系统、计算机装置及介质
CN108038208B (zh) 上下文信息识别模型的训练方法、装置和存储介质
CN109410986B (zh) 一种情绪识别方法、装置及存储介质
CN111105209A (zh) 适用于人岗匹配推荐系统的职位简历匹配方法及装置
CN110110577A (zh) 识别菜名的方法及装置、存储介质、电子装置
CN107633022A (zh) 人员画像分析方法、装置及存储介质
CN107247728B (zh) 文本处理方法、装置及计算机存储介质
CN110111902A (zh) 急性传染病的发病周期预测方法、装置及存储介质
CN112000776A (zh) 基于语音语义的话题匹配方法、装置、设备及存储介质
CN106557954A (zh) 客服营销的方法及装置
CN109815377A (zh) 标签的建立方法、装置、计算机设备及存储介质
CN110246506A (zh) 人声智能检测方法、装置及计算机可读存储介质
CN108763313A (zh) 模型的在线训练方法、服务器及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant