CN113035193B - 一种员工管理系统及应用 - Google Patents
一种员工管理系统及应用 Download PDFInfo
- Publication number
- CN113035193B CN113035193B CN202110223221.5A CN202110223221A CN113035193B CN 113035193 B CN113035193 B CN 113035193B CN 202110223221 A CN202110223221 A CN 202110223221A CN 113035193 B CN113035193 B CN 113035193B
- Authority
- CN
- China
- Prior art keywords
- word
- words
- neural network
- voice
- staff
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 52
- 238000012549 training Methods 0.000 claims abstract description 47
- 238000004458 analytical method Methods 0.000 claims abstract description 39
- 238000012545 processing Methods 0.000 claims abstract description 16
- 210000002569 neuron Anatomy 0.000 claims abstract description 3
- 239000013598 vector Substances 0.000 claims description 35
- 238000000034 method Methods 0.000 claims description 32
- 230000008451 emotion Effects 0.000 claims description 21
- 238000003062 neural network model Methods 0.000 claims description 18
- 238000007726 management method Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 14
- 238000011156 evaluation Methods 0.000 claims description 7
- 238000013500 data storage Methods 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 5
- 238000010183 spectrum analysis Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000001514 detection method Methods 0.000 claims 1
- 238000001914 filtration Methods 0.000 claims 1
- 230000009466 transformation Effects 0.000 claims 1
- 230000009467 reduction Effects 0.000 abstract description 6
- 239000000284 extract Substances 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 10
- 238000012937 correction Methods 0.000 description 8
- 238000012795 verification Methods 0.000 description 8
- 230000007613 environmental effect Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 241001672694 Citrus reticulata Species 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 238000013441 quality evaluation Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 210000001217 buttock Anatomy 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Resources & Organizations (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Entrepreneurship & Innovation (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Marketing (AREA)
- General Physics & Mathematics (AREA)
- Game Theory and Decision Science (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Tourism & Hospitality (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种员工管理系统及场景应用,公开了一种利用智能芯片组成的可携带卡片,可以方便部署的区域定标器,以及语音识别和分析云服务共同组成的员工管理系统,基于神经网络的声学模型,以高频出现的波形参数作为神经元的输入,并将与该输入相关语义的波形参数作为训练样本对声学模型进行训练;分析云模块根据其对采集信息的处理提取员工工作内容并进行评估。该系统可以在员工位于工作区域时自动启动录音设备,对语音进行降噪处理,同时区分员工和外界语音信息,在合适的时机将录音上传到云端,云端对语音数据进行识别和分析,刻画出员工的工作轨迹,并获取有效工作时间/导购次数,完成对员工的有效管理。
Description
技术领域
本发明涉及企业管理方法领域,尤其涉及一种员工管理系统及应用。
背景技术
随着科学技术的发展和社会水平的不断进步,电脑已经成为人们生活、以及企业工作中必不可少的一部分,在企业中,大多使用的是传统的PC作为员工办公的载体,但是传统的PC只要一离开电脑就无法再使用电脑和利用电脑上的数据,这就给员工的办公带来了一些不便,而且分散的PC也不利于企业的管理。
为解决这个问题,现有技术一般采用把数据存在云服务商的服务器上,这种公有云方案是一个巨大的进步,数据存在云服务商的服务器中,可以通过后台运输进行数据分析处理。同时,配套以智能的管理系统评估系统,可以对员工的工作情况进行集中管理及考核评估。
发明内容
本发明的技术方案是:本系统由智能芯片组成的可携带卡片、自带电池无需外接电源的小型区域定标器,以及基于人工智能技术的语音识别和分析云组成。
该系统包括下面三个主要组成部分:
自带电池的小型区域定标器
该定标器通过纽扣电池供电,使用蓝牙,或者433MHz无线协议定时发送定标信号,有限范围在1-10M之间,可定期更换。
可携带的卡片
卡片由智能声音处理芯片(即芯片)、双拾音器(即采集器)组成的录音及音频系统,以及低功耗的4G模块,蓝牙/433MHZ无线收发组成。
卡片使用可充电的电池供电,具有蓝牙或者433MHz无线收发的芯片,定时检测小型区域定标器发射的定标信号,如发现自身处于有效的工作区域,则启动录音设备,开始检测录音,为节省电量,定标信号每秒发射1-2次,可携带卡片每秒检测1-2次定标信号。
在卡片的顶部两端以及底部两端分别安装四个拾音器,连接智能声音处理芯片,智能声音处理芯片包括声音频谱分析模块、无线数据发送模块、数据存储模块,其支持传统数字信号处理时的双声道立体声回声消除、声源定位和波束成形等。波束成形单元利用设备顶部两个麦克风组成阵列,基于波束成形算法,独立拾取员工语音,抑制阵列外语音增益,获取到员工音源;声源定位单元,设备底部两个麦克风混音拾取环境中的语音,同前述的员工音源再次进行相互的降噪处理,进一步降低经过波束成形算法处理过的员工音源中残留的环境语音,并在环境语音中抑制掉员工语音,实现声源降噪分离;
语音识别的分析云模块
分段的录音信息上传到语音识别和分析云之后,使用多种一体化建模的智能模型进行语音识别。
分析云模块的搭建步骤包括根据中文拼写规则,将汉字根据声母与韵母的组合关系进行分类编码。例如,汉字声母包括23个,依次根据a、b、c.....u、v、w进行编号。汉字韵母包括30个,依次根据1、2、3.....28、29、30进行编号。
将每个汉字对应编号转化为one-hot向量输入神经网络模型,在训练神经网络之前,需要将基础词表输入神经网络。因此,在已有汉字作为索引的基础上,将包含该汉字的词归类为词表中独立的一个训练集输入到神经网络中。如果,确定一个词,那么这个词一定处于该词表中某一训练集中的某一位置。将该此表看做是一个n维向量,在该词对应所在的位置上记值为1,其他位置都是0,则基础词表的向量形式有下列表达:
上述的表征方法可以反映词之间的相似程度,即:
(whotel)Twmotel=(whotel)Twcat=0;
因此,对于一个采集文本:X=w1,w2…wT;首先进行分类编码,转化为对应编号,根据编号对应的one-hot向量输入到神经网络。
根据正态分布条件,文本:X=w1,w2…wT的联合概率可以根据文本中每个词的条件概率获得:p(wt|w1,w2,…wt-1)。
向神经网络中输入一个词的one-hot向量,那么神经网络就可以拟合出一个由one-hot向量映射出的概率函数模型。在线性的映射层上,神经网络的概率函数是Y=WTX,one-hot向量将n个词向量从Embedding层中提取出来,如下:
在对神经网络进行训练过时,映射层的权值就可以看做是输出的这个词的向量表征。在此基础上,可以形成一个向前反馈的神经网络g,通过将Embedding层输出的词向量映射为一个长度为V的概率分布词向量,从而在理论上对每个输入的词做出预估:
p(wt|w1,w2,…wt-1)≈g(wi,C(wt-n+1),…C(wt-1));
基于上述预估,可以通过最小化一个带正则项的损失函数来调整神经网络:α为模型参数;
神经网络的建立及训练可以得到不断的自学习升级,上述的神经网络系统可以实现前期词库/词表的数据话问题。但是,中文识别的难度是远高于其他语种的,常见的问题,例如同音字词,混淆音字词都是极为常见的。最为困难的是不同方言的夹杂,或方言变化音。因此,在该神经网络的前后端还需要一个可以进行识别验证/纠偏的算法。
基于系统前期搭建在声母与韵母的组合关系分类编码的前提下,那么纠偏可以通过两个混淆词之间的最小操作数来计算。
例如,采集词作为起始状态,目的词作为终止状态,两个词对应的编码至少存在一部分共同段落。那么通过插入、删除、替换三个手段将采集词的编码转换为目的词编码,最短操作路径是可以求得的。
定义采集词A的编码长度为n,目标词B的编码长度为m。至少定义采集词A中第1到i个字符与目标词B中第1到j个字符是相同的,那么将定义采集词A转换为目标词B的最短操作路径是F(i,j)。
那么,则有
同样将该思路引入到神经网络中,一个采集词A的one-hot向量与目标词B的one-hot向量也应该存在一个最佳的替换路径,该最佳路径就是用于纠偏或者验证的最直接依据。将最短操作路径拟合到神经网络模型中,可以获得一个新的模型:
α为模型参数;
换一个角度思考,当神经网络已经通过一定学习后得到了采集词A与目标词B之间惯用替换的最短操作路径是F(i,j),那么在神经网络可以通过反向方式来获得一个词的集合,该集合就包含了容易与采集词A混淆的一些词。
通过上述的系统建立可支持普通话、四川话和粤语等等方言的识别运算,将语音转化为文本之后,系统进行识别、纠偏、验证等,最后提取文本中的关键字/词,比如说您好、欢迎等等进行有效性判断。
关键字/词标签抽取子单元包括两个功能:
语句划分功能根据文本中含有的标点符号,把文本切分为语句段落。
语句语义结构分析功能用于对切分得到的各语句段落做语义结构分析,得到各语句段落的段落表达式和语义块。现有的语音识别分词方法都可以完成,通常根据段落格式或者“主、谓、宾......”判断等方式进行操作,不做赘述。对于关键字/词的提取,本方案中使用的方法也较为简单,本发明中根据段落中词频出现最高的词汇作为关键字/词。基于该方法,通常的步骤思路为:首先将一段话分为多个语句段落,每个语句段落再切分为词语并进行词性标注;然后,根据词语的词性类别归类词性类别组,在对神经网络进行训练时,将词性类别组中的词语输入神经网络模型中;最后,根据该段落中出现的词频前三排名的词汇作为关键字/词进行标签标识。
关键字/词极性分析子单元的功能:
采集装置首先检测到目标语句段落,在针对的语句段落情感极性分析操作时,获取目标语句段落中的关键字/词;其次,将这多个关键字/词输入神经网络模型,现有技术中神经模型对词汇的分类方法,通常根据词义分类,例如近义词和反义词的集合方式来实施,那么则可以通过对关键字/词的集合定义来标识相应词汇的极性。那么对应于关键字/词,系统也会得到多个向量集合,定义向量集合的情感极性,积极的情感极性为加分,消极的情感极性为减分,中性词不加分也不减分。最后,通过对语句段落的加减分情况来判断当前语句段落的情感极性。
由于电子设备可以通过在对目标语句段落进行情感极性分析时,先通过神经网络模型得到每个语句对应的多个关键字/词的向量集合,再通过神经网络模型得到每个语句对应的情感极性。在进行情感极性分析时,还可以结合该关键字/词在上下文中相邻词汇的极性进行验证,从而有利于提高情感极性分析的准确性,帮助用户迅速得到目标语句段落的情感极性分析结果。
系统还可以根据语音进行模糊匹配出相关的关键字/词,以单位时间内关键字/词的出现词频来确定对话场景。神经网络作为当前主流的模糊算法应用,神经网络可以根据一段对话中的关键字/词来确定该关键字/词所在的词汇集合,从而根据该词汇集合来确定通话所在场景。目前,现有技术中对这些大数据算法使用较为普遍,本发明也不具体限定此类的模糊算法。
神经网络的训练:
神经网络的声学模型的训练集包括私有训练集和共有训练集;私有训练集,每次对话场景中所述文本提取单元获取的词频超过预设数量的关键字/词的样本集合;共有训练集,多次对话场景中所述文本提取单元获取的关键字/词样本集合逻辑相与后形成的样本集合。
具体的,系统获取神经网络基于第k次迭代过程所使用的学习率对n个样本进行迭代后输出的n*m个标签值预测值;计算第一参数;其中,第i标签值的第一参数为n个样本的第i标签值预测值与第i标签值真实值之间的误差的平均值;根据第一参数调整神经网络的第k+1次迭代过程所使用的学习率。由于基于标签值的误差的情况,对下一次迭代过程的学习率进行调整,从而可引导训练过程以高效的方式快速向全局最优的方向进行收敛。现有技术中神经网络的训练方法大多相同,差异也较小,主要依据参数个体的特性来调整。而本发明中神经网络的训练方法也可以用现有技术中其他的训练方法。
根据语音中的时间戳,结合当地时间,获得有效工作时间、服务人数、服务质量评价等有价值的信息,利用这些信息对员工进行有效管理和评估。
具体的评估方式包括在系统内设置一个积分单元,广义的来说就是通过对有效推荐、关键字/词设定积分,例如,员工的一次有效推荐设定为1个积分,包括积分系统,通过对有效推荐、关键字/词设定为0.5个积分。若在指定时间内积分累计达标,例如在5分钟内累计积分达到5分,则认为员工对于顾客进行了一次有效销售,通过该积分单元可以对员工的服务及工作内容进行考核。
本发明的优点是:该系统可以在员工位于工作区域时自动启动录音设备,对语音进行降噪处理,同时排除掉除员工说话外的其他语音信息,在合适的时机将录音上传到云端,云端对语音数据进行识别和分析,刻画出员工的工作轨迹,并获取有效工作时间/导购次数,完成对员工的有效管理。
附图说明
下面结合附图及实施例对本发明作进一步描述:
图1为可携带卡片的结构及员工管理系统的示意图;
其中,1、可携带卡片;11、拾音器;12、智能声音处理芯片;13、无线数据传输模块;14、蓝牙/433MHZ无线收发模块;15、数据存储模块;2、定标器。
具体实施方式
实施例1:
本系统由智能芯片组成的可携带卡片、自带电池无需外接电源的小型区域定标器,以及基于人工智能技术的语音识别和分析云组成。
该系统包括下面三个主要组成部分:
自带电池的小型区域定标器
该定标器通过纽扣电池供电,使用蓝牙,或者433MHz无线协议定时发送定标信号,有限范围在1-10M之间,可定期更换。
可携带的卡片
卡片由智能声音处理芯片(即芯片)、双拾音器(即采集器)组成的录音及音频系统,以及低功耗的4G模块,蓝牙/433MHZ无线收发组成。
卡片使用可充电的电池供电,具有蓝牙或者433MHz无线收发的芯片,定时检测小型区域定标器发射的定标信号,如发现自身处于有效的工作区域,则启动录音设备,开始检测录音,为节省电量,定标信号每秒发射1-2次,可携带卡片每秒检测1-2次定标信号。
在卡片的顶部两端以及底部两端分别安装四个拾音器,连接智能声音处理芯片,智能声音处理芯片包括声音频谱分析模块、无线数据发送模块、数据存储模块,其支持传统数字信号处理时的双声道立体声回声消除、声源定位和波束成形等。波束成形单元利用设备顶部两个麦克风组成阵列,基于波束成形算法,独立拾取员工语音,抑制阵列外语音增益,获取到员工音源;声源定位单元,设备底部两个麦克风混音拾取环境中的语音,同前述的员工音源再次进行相互的降噪处理,进一步降低经过波束成形算法处理过的员工音源中残留的环境语音,并在环境语音中抑制掉员工语音,实现声源降噪分离;
语音识别的分析云模块
分段的录音信息上传到语音识别和分析云之后,使用多种一体化建模的智能模型进行语音识别。
分析云模块的搭建步骤包括根据中文拼写规则,将汉字根据声母与韵母的组合关系进行分类编码。例如,汉字声母包括23个,依次根据a、b、c.....u、v、w进行编号。汉字韵母包括30个,依次根据1、2、3.....28、29、30进行编号。
将每个汉字对应编号转化为one-hot向量输入神经网络模型,在训练神经网络之前,需要将基础词表输入神经网络。因此,在已有汉字作为索引的基础上,将包含该汉字的词归类为词表中独立的一个训练集输入到神经网络中。如果,确定一个词,那么这个词一定处于该词表中某一训练集中的某一位置。将该此表看做是一个n维向量,在该词对应所在的位置上记值为1,其他位置都是0,则有下列表达:
上述的表征方法可以反映词之间的相似程度,即:
(whotel)Twmotel=(whotel)Twcat=0;
因此,对于一个采集文本:X=w1,w2…wT;首先进行分类编码,转化为对应编号,根据编号对应的one-hot向量输入到神经网络。
根据正态分布条件,文本:X=w1,w2…wT的联合概率可以根据文本中每个词的条件概率获得:p(wt|w1,w2,…wt-1)。
向神经网络中输入一个词的one-hot向量,那么神经网络就可以拟合出一个由one-hot向量映射出的概率函数模型。在线性的映射层上,神经网络的概率函数是Y=WTX,one-hot向量将n个词向量从Embedding层中提取出来,如下:
在对神经网络进行训练过时,映射层的权值就可以看做是输出的这个词的向量表征。在此基础上,可以形成一个向前反馈的神经网络g,通过将Embedding层输出的词向量映射为一个长度为V的概率分布词向量,从而在理论上对每个输入的词做出预估:
p(wt|w1,w2,…wt-1)≈g(wi,C(wt-n+1),…C(wt-1));
基于上述预估,可以通过最小化一个带正则项的损失函数来调整神经网络的模型参数α;
神经网络的建立及训练可以得到不断的自学习升级,上述的神经网络系统可以实现前期词库/词表的数据话问题。但是,中文识别的难度是远高于其他语种的,常见的问题,例如同音字词,混淆音字词都是极为常见的。最为困难的是不同方言的夹杂,或方言变化音。因此,在该神经网络的前后端还需要一个可以进行识别验证/纠偏的算法。
基于系统前期搭建在声母与韵母的组合关系分类编码的前提下,那么纠偏可以通过两个混淆词之间的最小操作数来计算。
例如,采集词作为起始状态,目的词作为终止状态,两个词对应的编码至少存在一部分共同段落。那么通过插入、删除、替换三个手段将采集词的编码转换为目的词编码,最短操作路径是可以求得的。
定义采集词A的编码长度为n,目标词B的编码长度为m。至少定义采集词A中第1到i个字符与目标词B中第1到j个字符是相同的,那么将定义采集词A转换为目标词B的最短操作路径是F(i,j)。
那么,则有
同样将该思路引入到神经网络中,一个采集词A的one-hot向量与目标词B的one-hot向量也应该存在一个最佳的替换路径,该最佳路径就是用于纠偏或者验证的最直接依据。将最短操作路径拟合到神经网络模型中,可以获得一个新的模型:
换一个角度思考,当神经网络已经通过一定学习后得到了采集词A与目标词B之间惯用替换的最短操作路径是F(i,j),那么在神经网络可以通过反向方式来获得一个词的集合,该集合就包含了容易与采集词A混淆的一些词。
通过上述的系统建立可支持普通话、四川话和粤语等等方言的识别运算,将语音转化为文本之后,系统进行识别、纠偏、验证等,最后提取文本中的关键字/词,比如说您好、欢迎等等进行有效性判断。
关键字/词标签抽取子单元包括两个功能:
语句划分功能根据文本中含有的标点符号,把文本切分为语句段落。
语句语义结构分析功能用于对切分得到的各语句段落做语义结构分析,得到各语句段落的段落表达式和语义块。现有的语音识别分词方法都可以完成,通常根据段落格式或者“主、谓、宾......”判断等方式进行操作,不做赘述。对于关键字/词的提取,本方案中使用的方法也较为简单,本发明中根据段落中词频出现最高的词汇作为关键字/词。基于该方法,通常的步骤思路为:首先将一段话分为多个语句段落,每个语句段落再切分为词语并进行词性标注;然后,根据词语的词性类别归类词性类别组,在对神经网络进行训练时,将词性类别组中的词语输入神经网络模型中;最后,根据该段落中出现的词频前三排名的词汇作为关键字/词进行标签标识。
关键字/词极性分析子单元的功能:
采集装置首先检测到目标语句段落,在针对的语句段落情感极性分析操作时,获取目标语句段落中的关键字/词;其次,将这多个关键字/词输入神经网络模型,现有技术中神经模型对词汇的分类方法,通常根据词义分类,例如近义词和反义词的集合方式来实施,那么则可以通过对关键字/词的集合定义来标识相应词汇的极性。那么对应于关键字/词,系统也会得到多个向量集合,定义向量集合的情感极性,积极的情感极性为加分,消极的情感极性为减分,中性词不加分也不减分。最后,通过对语句段落的加减分情况来判断当前语句段落的情感极性。
由于电子设备可以通过在对目标语句段落进行情感极性分析时,先通过神经网络模型得到每个语句对应的多个关键字/词的向量集合,再通过神经网络模型得到每个语句对应的情感极性。在进行情感极性分析时,还可以结合该关键字/词在上下文中相邻词汇的极性进行验证,从而有利于提高情感极性分析的准确性,帮助用户迅速得到目标语句段落的情感极性分析结果。
系统还可以根据语音进行模糊匹配出相关的关键字/词,以单位时间内关键字/词的出现词频来确定对话场景。神经网络作为当前主流的模糊算法应用,神经网络可以根据一段对话中的关键字/词来确定该关键字/词所在的词汇集合,从而根据该词汇集合来确定通话所在场景。目前,现有技术中对这些大数据算法使用较为普遍,本发明也不具体限定此类的模糊算法。
神经网络的训练:
神经网络的声学模型的训练集包括私有训练集和共有训练集;私有训练集,每次对话场景中所述文本提取单元获取的词频超过预设数量的关键字/词的样本集合;共有训练集,多次对话场景中所述文本提取单元获取的关键字/词样本集合逻辑相与后形成的样本集合。
具体的,系统获取神经网络基于第k次迭代过程所使用的学习率对n个样本进行迭代后输出的n*m个标签值预测值;计算第一参数;其中,第i标签值的第一参数为n个样本的第i标签值预测值与第i标签值真实值之间的误差的平均值;根据第一参数调整神经网络的第k+1次迭代过程所使用的学习率。由于基于标签值的误差的情况,对下一次迭代过程的学习率进行调整,从而可引导训练过程以高效的方式快速向全局最优的方向进行收敛。现有技术中神经网络的训练方法大多相同,差异也较小,主要依据参数个体的特性来调整。而本发明中神经网络的训练方法也可以用现有技术中其他的训练方法。
根据语音中的时间戳,结合当地时间,获得有效工作时间、服务人数、服务质量评价等有价值的信息,利用这些信息对员工进行有效管理和评估。
具体的评估方式包括在系统内设置一个积分单元,广义的来说就是通过对有效推荐、关键字/词设定积分,例如,员工的一次有效推荐设定为1个积分,包括积分系统,通过对有效推荐、关键字/词设定为0.5个积分。若在指定时间内积分累计达标,例如在5分钟内累计积分达到5分,则认为员工对于顾客进行了一次有效销售,通过该积分单元可以对员工的服务及工作内容进行考核。
实施例2:
针对不特定人的语音,我们采用高频出现的波形元素作为神经元的输入,将相关联的语义作为训练样本,提升了语音识别率,通过使用基于普通话、四川话、广东话和上海话同样语义的不同语音材料对神经网络进行训练,在环境确定的情况下,可以支持多种方言识别出来文本之后,我们首先对文本进行词法分析,将句子转化为词的组合,同时进行词性的标注。
例如:1989年,王大年毕业于西子湖畔的某个不知名大学,可以分词并标注为:
1989年(时间),王大年(人名)毕业(动词)于(介词)西子湖畔(位置形容词)的(介词)某个(特指定语)不知名(形容词)大学(名词)
在得到词的集合之后,分析云通过内置的关键词,基于语义实现对话观点分析,包括关键词标签抽取和极性分析(正面和负面),通过对商场、美食、酒店、汽车、景点等等典型商业对话场景的大规模语料分析,获得对话的关键点、极性,以及关注点,从而实现对推销员服务评价的有效评估。
实施例2:
推销员佩戴了本发明中记载的可携带卡片1进行现场推销,现场则由定标器2进行信号覆盖,以下采用一段现场语音进行具体说明:
拾音器11对现场语音拾取如下:
推销员:“您好,欢迎光临,你好,想要咨询了解什么产品啊,就看一下。”
客户:“你们这个新闻系统怎么卖啊?”
推销员:“新闻系统要看你房间是多大面积的,然后还有那个看你什么型号?嗯,我能问一下你们家是多少年前吗?”
客户:“感悟。”
推销员:“150平方米是两层的,还是那个大平层啊?”
客户:“两次的两次的。”
推销员:“那你每一次的话,都是六七十平方吗?”
客户:“对。”
推销员:“我们这一台他是哪个适合80平方以下的?然后80平方一下的话。加那个安装的话。实在15000左右。”
客户:“哦,那他这个。你上次跟我讲讲一下这个原理吗?我们也不懂。”
推销员:“这样子的,我们这个呢,是由哪个两个风口。然后他一个是劲胜,一个是哪个回复。那我们下次一台机子,那他有两个过滤网,就是PM2.5的过滤网吗?然后她的正态自制的过滤我他的那个是达到98%以上。然后他这个是我们是三送三回,就是有三个进风口,三个哪个回风口?你家里应该现在还没有装修吧,要开始装了,团队下次带机子的话,我们就试试和那个装修之前,然后向我们这个主机的话,那我们一般是安装在哪个厨房?”
客户:“哦,你这个多少钱啊?”
推销员:“怎么个想想跟你说过了?大概如果是用我们那个松下的哪个牌管道的话?被我们生了个屁股,大概是15000左右。”
以上是一次完整的对话过程,当拾音器收集到上述音频后,将音频数据传输至可携带卡片1上的智能声音处理芯片12。智能声音处理芯片12进行回声消除、声源定位和波束形成等等以获得清晰的音频数据,并同时将音频数据存入数据存储模块15。智能声音处理芯片12通过无线数据传输模块13和蓝牙/433MHZ无线收发模块将音频数据分段发送至分析云模块。
分析云模块已设定了关键词及关键词极性,如下:
序号 | 关键词 | 极性 |
1 | 新风系统 | + |
2 | 面积 | + |
3 | 平方 | + |
4 | 进风 | + |
5 | 回风 | + |
6 | PV管 | + |
基于关键词设置有,识别结果如下:
推销员:“您好,欢迎光临,你好,想要咨询了解什么产品啊,就看一下。”
客户:“你们这个新风系统怎么卖啊?”
推销员:“新风系统要看你房间是多大面积的,然后还有那个看你什么型号?嗯,我能问一下你们家是多少面积吗?”
客户:“150。”
推销员:“150平方米是两层的,还是那个大平层啊?”
客户:“两层的两层的。”
推销员:“那你每一层的话,都是六七十平方吗?”
客户:“对。”
推销员:“我们这一台他是哪个适合80平方以下的?然后80平方一下的话。加那个安装的话。是在15000左右。
客户:“哦,那他这个。你上次跟我讲讲一下这个原理吗?我们也不懂。”
推销员:“这样子的,我们这个呢,是由哪个两个风口?然后他一个是进风,一个是那个回风。那我们下次一台机子,那他有两个过滤网,就是PM2.5的过滤网吗?然后她的正态自制的过滤我他的那个是达到98%以上。然后他这个是我们是三送三回,就是有三个进风口,三个那个回风口?你家里应该现在还没有装修吧,要开始装了,团队下次带机子的话,我们就试试和那个装修之前,然后向我们这个主机的话,那我们一般是安装在那个厨房?
客户:“哦,你这个多少钱啊?”
推销员:“这个好像跟你说过了。大概如果是用我们那个松下的哪个牌管道的话?被我们升了PV管,大概是15000左右。”
根据上述过程可知,对于关键字/词的设置可以提高识别精度,对于语音或语调相近的字词根据模糊匹配算法获得一个样本集合,再根据词频进行缩小集合范围,从而获得的准确的关键字/词。
分析云模块基于神经网络模型的深度自学习,每次的拾取的音频信息都会出现新的词汇,这些词汇作为训练集样本输入到神经网络模型中,不断优化模型。
本系统可以应用在多个领域,因此对于不同场景下的样本采集会产生交集,例如:房产销售和汽车销售,在对话场景中会产生一些相同词汇,而这些通用领域的词汇作为关键字/词,对于神经网络模型而言可以作为共有训练集的样本进行模型自学习。与场景关联密切的词汇作为关键字/词时,对于神经网络模型而言可以作为私有训练集的样本进行模型自学习,可以提高识别精度和系统准确性。
本发明实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明的。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明的所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (7)
1.一种员工管理系统,包括:便于员工随身携带的采集装置、根据采集信息实施数据处理的分析云模块;其特征在于:
采集装置,实施为集成了采集器及芯片的卡片;所述采集器包括布置于卡片上的拾音器;
信号源,包括形成定标信号范围覆盖的定标器,采集装置于定标信号覆盖范围内启动;
分析云模块,包括:基于声学模型的语音识别及文字转化单元、基于关键字/词有效性判断的文本提取单元、基于词库模糊匹配及语境判断的场景判断单元;
基于神经网络的声学模型,以高频出现的波形参数作为神经元的输入,并将与该输入相关语义的波形参数作为训练样本对声学模型进行训练;
管理评估模块,分析云模块根据其对采集信息的处理提取员工工作内容并进行评估;
分析云模块的搭建步骤包括根据中文拼写规则,将汉字根据声母与韵母的组合关系进行分类编码;将每个汉字对应编号转化为one-hot向量输入神经网络,训练获得神经网络模型:
定义采集词变换为目标词所需的最短操作路径是F(i,j),并将其拟合到神经网络模型为:α为模型参数;
输入所述声学模型的训练集包括私有训练集和共有训练集;
私有训练集,每次对话场景中所述文本提取单元获取的词频超过预设数量的关键字/词的样本集合;
共有训练集,多次对话场景中所述文本提取单元获取的关键字/词样本集合逻辑相与后形成的样本集合。
2.根据权利要求1所述的一种员工管理系统,其特征在于:所述芯片包括声音频谱分析模块、无线数据发送模块、数据存储模块;
声音频谱分析模块,基于高斯滤波检测人声信号并去噪,根据语音时长对语音分段压缩;
所述声音频谱分析模块包括立体声回声消除单元、声源定位单元和波束成型单元;
无线数据发送模块,通过移动数据信号向所述分析云模块发送压缩后的语音数据;
数据存储模块,通过独立的存储空间保存压缩后的语音数据。
3.根据权利要求1所述的一种员工管理系统,其特征在于:所述文本提取单元包括关键字/词标签抽取子单元、关键字/词极性分析子单元;
关键字/词标签抽取子单元,对转化为文字的采集信息进行词性标注,并根据标注的词性类别形成各词性类别组;
关键字/词极性分析子单元,将词性类别组中的关键字/词根据情感倾向区分为正向极性和反向极性,结合语义对整体段落、语句的场景进行分析,获得句子本身的极性信息。
4.根据权利要求3所述的一种员工管理系统,其特征在于:场景判断单元,根据语音进行模糊匹配出相关的关键字/词,以单位时间内关键字/词的出现词频来确定对话场景。
5.根据权利要求1所述的一种员工管理系统,其特征在于:所述定标器每秒发射1~2次定标信号,发射的时长设定为0.5-1秒;所述芯片每秒检测1~2次标定信号,检测的时间段设置为0.5-1秒。
6.根据权利要求4所述的一种员工管理系统,其特征在于:所述管理评估模块包括用于确定对话结果的积分单元,通过对有效推荐、关键字/词设定积分,若在指定时间内积分累计达标,则认为员工对于顾客进行了一次有效销售。
7.一种根据权利要求1所述的员工管理系统的场景应用,其特征在于:在工作区域内通过设置定标器来搭建定标信号覆盖区域;员工随身携带所述卡片进行工作操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110223221.5A CN113035193B (zh) | 2021-03-01 | 2021-03-01 | 一种员工管理系统及应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110223221.5A CN113035193B (zh) | 2021-03-01 | 2021-03-01 | 一种员工管理系统及应用 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113035193A CN113035193A (zh) | 2021-06-25 |
CN113035193B true CN113035193B (zh) | 2024-04-12 |
Family
ID=76464715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110223221.5A Active CN113035193B (zh) | 2021-03-01 | 2021-03-01 | 一种员工管理系统及应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113035193B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114267340A (zh) * | 2021-12-27 | 2022-04-01 | 科大讯飞股份有限公司 | 一种4s店服务质量评估方法、装置、存储介质及设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107544957A (zh) * | 2017-07-05 | 2018-01-05 | 华北电力大学 | 一种面向商品目标词的情感倾向分析方法 |
CN107563677A (zh) * | 2017-10-13 | 2018-01-09 | 深圳市瑞科慧联科技有限公司 | 一种业务数据分析系统及其分析方法 |
CN109767791A (zh) * | 2019-03-21 | 2019-05-17 | 中国—东盟信息港股份有限公司 | 一种针对呼叫中心通话的语音情绪识别及应用系统 |
CN109783799A (zh) * | 2018-12-13 | 2019-05-21 | 杭州电子科技大学 | 一种基于语义依存图的关系提取方法 |
CN110119443A (zh) * | 2018-01-18 | 2019-08-13 | 中国科学院声学研究所 | 一种面向推荐服务的情感分析方法 |
CN110992949A (zh) * | 2019-11-29 | 2020-04-10 | 秒针信息技术有限公司 | 基于语音识别的绩效考核方法、装置及可读存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040162724A1 (en) * | 2003-02-11 | 2004-08-19 | Jeffrey Hill | Management of conversations |
-
2021
- 2021-03-01 CN CN202110223221.5A patent/CN113035193B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107544957A (zh) * | 2017-07-05 | 2018-01-05 | 华北电力大学 | 一种面向商品目标词的情感倾向分析方法 |
CN107563677A (zh) * | 2017-10-13 | 2018-01-09 | 深圳市瑞科慧联科技有限公司 | 一种业务数据分析系统及其分析方法 |
CN110119443A (zh) * | 2018-01-18 | 2019-08-13 | 中国科学院声学研究所 | 一种面向推荐服务的情感分析方法 |
CN109783799A (zh) * | 2018-12-13 | 2019-05-21 | 杭州电子科技大学 | 一种基于语义依存图的关系提取方法 |
CN109767791A (zh) * | 2019-03-21 | 2019-05-17 | 中国—东盟信息港股份有限公司 | 一种针对呼叫中心通话的语音情绪识别及应用系统 |
CN110992949A (zh) * | 2019-11-29 | 2020-04-10 | 秒针信息技术有限公司 | 基于语音识别的绩效考核方法、装置及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113035193A (zh) | 2021-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Audhkhasi et al. | End-to-end ASR-free keyword search from speech | |
CN101309327B (zh) | 语音聊天系统、信息处理装置、话语识别和关键字检测 | |
Bharathi et al. | Findings of the shared task on Speech Recognition for Vulnerable Individuals in Tamil | |
US20020116196A1 (en) | Speech recognizer | |
CN113223509B (zh) | 一种应用于多人混杂场景下的模糊语句识别方法及系统 | |
WO2007043679A1 (ja) | 情報処理装置およびプログラム | |
EP1709625A1 (en) | Method and system for determining the topic of a conversation and obtaining and presenting related content | |
CN114596844B (zh) | 声学模型的训练方法、语音识别方法及相关设备 | |
CN116955699B (zh) | 一种视频跨模态搜索模型训练方法、搜索方法及装置 | |
CN116485587B (zh) | 社区服务获取方法与提供方法、电子设备、存储介质 | |
Park et al. | Unsupervised word acquisition from speech using pattern discovery | |
CN117010907A (zh) | 一种基于语音和图像识别的多模态客户服务方法及系统 | |
CN113035193B (zh) | 一种员工管理系统及应用 | |
Deekshitha et al. | Multilingual spoken term detection: a review | |
CN113689633A (zh) | 一种景区人机交互方法、装置及系统 | |
Bai et al. | Syllable-based Chinese text/spoken document retrieval using text/speech queries | |
CN116775870A (zh) | 一种结合大模型的对话意图识别方法 | |
CN116978367A (zh) | 语音识别方法、装置、电子设备和存储介质 | |
Mouaz et al. | A new framework based on KNN and DT for speech identification through emphatic letters in Moroccan dialect | |
CN114974255A (zh) | 基于酒店场景的声纹识别方法、系统、设备及存储介质 | |
Kurimo | Thematic indexing of spoken documents by using self-organizing maps | |
Srivastava et al. | A language model based approach towards large scale and lightweight language identification systems | |
KR101072890B1 (ko) | 데이터베이스 정제 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법 | |
Kamm | Active Learning for acoustic speech recognition modeling | |
Rajoriya et al. | Enhanced recognition rate of spoken Hindi paired word using probabilistic neural network approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |