CN116741151A - 一种基于呼叫中心的用户呼叫实时监测系统 - Google Patents
一种基于呼叫中心的用户呼叫实时监测系统 Download PDFInfo
- Publication number
- CN116741151A CN116741151A CN202311015933.3A CN202311015933A CN116741151A CN 116741151 A CN116741151 A CN 116741151A CN 202311015933 A CN202311015933 A CN 202311015933A CN 116741151 A CN116741151 A CN 116741151A
- Authority
- CN
- China
- Prior art keywords
- unit
- filtering
- extraction unit
- signal
- feature extraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 18
- 238000001914 filtration Methods 0.000 claims abstract description 88
- 238000000605 extraction Methods 0.000 claims description 76
- 230000014509 gene expression Effects 0.000 claims description 9
- 238000004088 simulation Methods 0.000 claims description 9
- 230000009286 beneficial effect Effects 0.000 description 7
- 230000014759 maintenance of location Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009223 counseling Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1785—Methods, e.g. algorithms; Devices
- G10K11/17853—Methods, e.g. algorithms; Devices of the filter
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1787—General system configurations
- G10K11/17885—General system configurations additionally using a desired external signal, e.g. pass-through audio such as music or speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5166—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明公开了一种基于呼叫中心的用户呼叫实时监测系统,属于语音识别技术领域,本发明通过信号采集子系统采集用户的原始语音信号,采用基于最优滤波系数的滤波函数对原始语音信号进行滤波,从而最大程度的滤除噪声,得到滤波语音信号,再采用语音识别子系统处理滤波语音信号,结合滤波语音信号中当前特征及其相邻时刻的历史特征,实现对语音的识别,提高语音识别精度,得到用户需求,在提前获知用户需求的情况下,呼叫中心则可为其分配合适的话务员,同时,在明确客户需求的情况下,大量骚扰电话可不被接听,减少骚扰电话对呼叫中心通信量造成的挤兑。
Description
技术领域
本发明属于语音识别技术领域,具体涉及一种基于呼叫中心的用户呼叫实时监测系统。
背景技术
呼叫中心通常也称为客户服务中心,呼叫中心用于接听用户的热线电话和咨询电话,用于接收用户的咨询、投诉和建议等,但是每个用户的需求是不同的,每个话务员服务的方向也是不同的,因此,呼叫中心需要将用户需求与话务员服务的方向相匹配。同时,呼叫中心还存在大量骚扰电话,对呼叫中心的业务量造成挤兑,严重干扰正常需求的用户。
现有呼叫中心用户可选择对应需求方向的业务员服务,但是该用户的需求是正常需求还是骚扰,无法进行区分,大量骚扰电话对呼叫中心的通信量造成严重挤兑,正常需求用户无法进行咨询、投诉和建议。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于呼叫中心的用户呼叫实时监测系统解决了现有呼叫中心无法提前获知用户需求,大量骚扰电话对呼叫中心的通信量造成严重挤兑的问题。
为了达到上述发明目的,本发明采用的技术方案为:一种基于呼叫中心的用户呼叫实时监测系统,包括:信号采集子系统、滤波子系统和语音识别子系统;
所述信号采集子系统用于采集呼叫中心的用户原始语音信号;
所述滤波子系统根据最优滤波系数的滤波函数对原始语音信号进行滤波,得到滤波语音信号;
所述语音识别子系统用于处理滤波语音信号,结合当前特征及其相邻时刻的历史特征,得到用户需求。
进一步地,所述滤波子系统包括:噪声混入单元、滤波系数更新单元、第一滤波单元、系数选择单元和第二滤波单元;
所述噪声混入单元用于对仿真语音信号加入噪声,得到原始混合信号;
所述滤波系数更新单元用于对滤波函数中滤波系数采用系数更新函数进行每一次更新;
所述第一滤波单元用于采用每次更新后的滤波函数对原始混合信号进行滤波,得到滤波混合信号;
所述系数选择单元用于建立系数选择目标函数,系数选择目标函数用于根据每次滤波后的滤波混合信号和原始混合信号计算目标值,在目标值最大时,更新后的滤波函数为最优滤波系数的滤波函数;
所述第二滤波单元用于根据最优滤波系数的滤波函数,对原始语音信号进行滤波,得到滤波语音信号。
上述进一步地方案的有益效果为:本发明中设置无噪声的仿真语音信号,在仿真语音信号中加入噪声,从而得到混入噪声的信号,本发明中的滤波函数中滤波系数会进行多次更新,通过每次更新后的滤波函数对原始混合信号进行滤波,通过系数选择目标函数来评判滤波前和滤波后信号之间的差距,从而使得在滤波的同时也能保障语音信号的特征,在系数选择目标函数最大时,对应的滤波函数为最优滤波系数的滤波函数,采用最优滤波系数的滤波函数对原始语音信号进行滤波,最大程度保留语音特征。
进一步地,所述滤波函数为:
,
,
其中,为第/>个滤波数据,/>为待滤波信号中第/>个数据,/>为待滤波信号中第/>个数据,/>为待滤波信号中临近第/>个数据/>的数据数量,/>为临近数据的编号,/>为第/>个滤波数据,/>为第/>次更新的滤波系数,/>为滤波权重,| |为绝对值运算。
上述进一步地方案的有益效果为:本发明中先采用待滤波信号中临近个数据的均值和当前待滤波数据/>作为滤波的基础,同时/>个数据的均值也对当前待滤波数据/>存在影响,可增大或削弱当前待滤波数据/>,实现第一次滤波;再采用第/>个滤波数据/>实现对当前待滤波数据/>的第二次滤波,且滤波权重根据/>与/>之间差值变化而变化,在距离越大时,当前待滤波数据/>为噪点的可能性较大,因此,第/>个滤波数据/>占比较大,从而实现对当前待滤波数据/>的大幅度滤波;滤波系数实现对当前待滤波数据/>的第三次滤波,滤波系数决定整个滤波后信号的幅度,因此,滤波系数对于整体的滤波效果至关重要,滤波系数过大,噪声特征较明显,滤波系数过小,滤波后的语音信号被严重削减,特征丢失。
进一步地,所述系数更新函数的公式为:
,
其中,为第/>次更新的滤波系数,/>为第/>次更新的滤波系数,/>为第次更新后系数选择目标函数的目标值,/>为自然常数。
上述进一步地方案的有益效果为:本发明中滤波系数跟随系数选择目标函数的目标值的大小而变化,目标值越大时,说明语音特征保留程度越高,因此,滤波系数下降速度更缓慢,从而实现在该数值区域遍历更细致,在目标值越小时,语音特征保留程度越低,滤波系数下降速度更快,实现快速遍历。
进一步地,所述系数选择目标函数的通式为:
,
其中,为系数选择目标函数的目标值,/>为滤波混合信号的第一语音特征,为滤波混合信号的第二语音特征,/>为仿真语音信号的第一语音特征,/>为仿真语音信号的第二语音特征。
进一步地,所述滤波混合信号和仿真语音信号的第一语音特征的表达式均为:
,
其中,为第一语音特征,/>为信号中的第/>个数据,/>为信号长度,/>为信号中数据的最大值,/>为信号中数据的最小值。
进一步地,所述滤波混合信号和仿真语音信号的第二语音特征的表达式均为:
,
其中,为第二语音特征,/>为信号中数据的最大值,/>为信号中的第/>个数据,/>为信号长度。
上述进一步地方案的有益效果为:本发明中第一语音特征体现数据的波动分布特征,第二语音特征体现数据的整体分布情况,将滤波混合信号和仿真语音信号中两种语音特征进行比较,从而根据目标值的大小,确定出两者语音信号特征之间的相似程度,从而达到保留语音特征,滤除噪声的目的。
进一步地,所述语音识别子系统包括:第一特征提取单元、第二特征提取单元、第三特征提取单元、历史特征缓存单元、Concat单元和CTC单元;
所述第一特征提取单元的输入端作为语音识别子系统的输入端,其输出端分别与第二特征提取单元的输入端和历史特征缓存单元的输入端连接;所述Concat单元的第一输入端与第二特征提取单元的输出端连接,其第二输入端与历史特征缓存单元的输出端连接,其输出端与第三特征提取单元的输入端连接;所述CTC单元的输入端与第三特征提取单元的输出端连接,其输出端作为语音识别子系统的输出端。
上述进一步地方案的有益效果为:本发明中第一特征提取单元在提取语音特征后,输入到第二特征提取单元中进行进一步的特征提取,还输入到历史特征缓存单元进行保存,Concat单元将当前的第二特征提取单元输出特征与上一时刻的第一特征提取单元输出特征进行拼接,实现前后语义特征关联,提高文字识别精度。
进一步地,所述第一特征提取单元、第二特征提取单元和第三特征提取单元结构相同,均包括:第一卷积层、第二卷积层、第三卷积层、第四卷积层、乘法器M1和加法器A1;
所述第一卷积层的输入端分别与第二卷积层的输入端和加法器A1的第一输入端连接,并作为第一特征提取单元、第二特征提取单元或第三特征提取单元的输入端;所述乘法器M1的第一输入端与第三卷积层的输出端连接,其第二输入端与第一卷积层的输出端连接,其输出端与第四卷积层的输入端连接;所述第二卷积层的输出端与第三卷积层的输入端连接;所述加法器A1的第二输入端与第四卷积层的输出端连接,其输出端作为第一特征提取单元、第二特征提取单元或第三特征提取单元的输出端。
上述进一步地方案的有益效果为:本发明中将第一卷积层的输出和第三卷积层的输出,采用乘法器M1进行融合,实现深浅特征汇集,再通过第四卷积层再次提取特征,在加法器A1处连接第四卷积层输出和特征提取单元的输入,防止特征丢失,且解决梯度消失的问题。
进一步地,所述历史特征缓存单元用于缓存上一时刻第一特征提取单元输出的特征,所述Concat单元用于将上一时刻第一特征提取单元输出的特征和当前时刻第二特征提取单元输出的特征进行拼接。
本发明的有益效果为:本发明通过信号采集子系统采集用户的原始语音信号,采用基于最优滤波系数的滤波函数对原始语音信号进行滤波,从而最大程度的滤除噪声,得到滤波语音信号,再采用语音识别子系统处理滤波语音信号,结合滤波语音信号中当前特征及其相邻时刻的历史特征,实现对语音的识别,提高语音识别精度,得到用户需求,在提前获知用户需求的情况下,呼叫中心则可为其分配合适的话务员,同时,在明确客户需求的情况下,大量骚扰电话可不被接听,减少骚扰电话对呼叫中心通信量造成的挤兑。
附图说明
图1为一种基于呼叫中心的用户呼叫实时监测系统的系统框图;
图2为语音识别子系统的结构示意图;
图3为特征提取单元的结构示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,一种基于呼叫中心的用户呼叫实时监测系统,包括:信号采集子系统、滤波子系统和语音识别子系统;
所述信号采集子系统用于采集呼叫中心的用户原始语音信号;
所述滤波子系统根据最优滤波系数的滤波函数对原始语音信号进行滤波,得到滤波语音信号;
所述语音识别子系统用于处理滤波语音信号,结合当前特征及其相邻时刻的历史特征,得到用户需求。
所述滤波子系统包括:噪声混入单元、滤波系数更新单元、第一滤波单元、系数选择单元和第二滤波单元;
所述噪声混入单元用于对仿真语音信号加入噪声,得到原始混合信号;
所述滤波系数更新单元用于对滤波函数中滤波系数采用系数更新函数进行每一次更新;
所述第一滤波单元用于采用每次更新后的滤波函数对原始混合信号进行滤波,得到滤波混合信号;
所述系数选择单元用于建立系数选择目标函数,系数选择目标函数用于根据每次滤波后的滤波混合信号和原始混合信号计算目标值,在目标值最大时,更新后的滤波函数为最优滤波系数的滤波函数;
所述第二滤波单元用于根据最优滤波系数的滤波函数,对原始语音信号进行滤波,得到滤波语音信号。
本发明中设置无噪声的仿真语音信号,在仿真语音信号中加入噪声,从而得到混入噪声的信号,本发明中的滤波函数中滤波系数会进行多次更新,通过每次更新后的滤波函数对原始混合信号进行滤波,通过系数选择目标函数来评判滤波前和滤波后信号之间的差距,从而使得在滤波的同时也能保障语音信号的特征,在系数选择目标函数最大时,对应的滤波函数为最优滤波系数的滤波函数,采用最优滤波系数的滤波函数对原始语音信号进行滤波,最大程度保留语音特征。
在本实施例中,可先将滤波系数的初值设为1,然后多次更新,直到滤波系数逼近0,在每次更新后,都采用滤波函数对原始混合信号进行滤波,得到滤波混合信号,再计算目标值,统计滤波系数1~0之间的所有更新次数对应的目标值,从而选出最大目标值,其对应的滤波系数为最优滤波系数。
在本发明中,滤波函数的表达式为通式,用户原始语音信号和原始混合信号的滤波函数均为下式。
所述滤波函数的表达式为:
,
,
其中,为第/>个滤波数据,/>为待滤波信号中第/>个数据,/>为待滤波信号中第/>个数据,/>为待滤波信号中临近第/>个数据/>的数据数量,/>为临近数据的编号,/>为第/>个滤波数据,/>为第/>次更新的滤波系数,/>为滤波权重,| |为绝对值运算。
本发明中先采用待滤波信号中临近个数据的均值和当前待滤波数据/>作为滤波的基础,同时/>个数据的均值也对当前待滤波数据/>存在影响,可增大或削弱当前待滤波数据/>,实现第一次滤波;再采用第/>个滤波数据/>实现对当前待滤波数据/>的第二次滤波,且滤波权重根据/>与/>之间差值变化而变化,在距离越大时,当前待滤波数据/>为噪点的可能性较大,因此,第/>个滤波数据/>占比较大,从而实现对当前待滤波数据/>的大幅度滤波;滤波系数实现对当前待滤波数据/>的第三次滤波,滤波系数决定整个滤波后信号的幅度,因此,滤波系数对于整体的滤波效果至关重要,滤波系数过大,噪声特征较明显,滤波系数过小,滤波后的语音信号被严重削减,特征丢失。
所述系数更新函数的公式为:
,
其中,为第/>次更新的滤波系数,/>为第/>次更新的滤波系数,/>为第次更新后系数选择目标函数的目标值,/>为自然常数。
本发明中滤波系数跟随系数选择目标函数的目标值的大小而变化,目标值越大时,说明语音特征保留程度越高,因此,滤波系数下降速度更缓慢,从而实现在该数值区域遍历更细致,在目标值越小时,语音特征保留程度越低,滤波系数下降速度更快,实现快速遍历。
所述系数选择目标函数的通式为:
,
其中,为系数选择目标函数的目标值,/>为滤波混合信号的第一语音特征,为滤波混合信号的第二语音特征,/>为仿真语音信号的第一语音特征,/>为仿真语音信号的第二语音特征。
所述滤波混合信号和仿真语音信号的第一语音特征的表达式均为:
,
其中,为第一语音特征,/>为信号中的第/>个数据,/>为信号长度,/>为信号中数据的最大值,/>为信号中数据的最小值。
所述滤波混合信号和仿真语音信号的第二语音特征的表达式均为:
,
其中,为第二语音特征,/>为信号中数据的最大值,/>为信号中的第/>个数据,/>为信号长度。
本发明中第一语音特征体现数据的波动分布特征,第二语音特征体现数据的整体分布情况,将滤波混合信号和仿真语音信号中两种语音特征进行比较,从而根据目标值的大小,确定出两者语音信号特征之间的相似程度,从而达到保留语音特征,滤除噪声的目的。
如图2所示,所述语音识别子系统包括:第一特征提取单元、第二特征提取单元、第三特征提取单元、历史特征缓存单元、Concat单元和CTC单元;
所述第一特征提取单元的输入端作为语音识别子系统的输入端,其输出端分别与第二特征提取单元的输入端和历史特征缓存单元的输入端连接;所述Concat单元的第一输入端与第二特征提取单元的输出端连接,其第二输入端与历史特征缓存单元的输出端连接,其输出端与第三特征提取单元的输入端连接;所述CTC单元的输入端与第三特征提取单元的输出端连接,其输出端作为语音识别子系统的输出端。
本发明中第一特征提取单元在提取语音特征后,输入到第二特征提取单元中进行进一步的特征提取,还输入到历史特征缓存单元进行保存,Concat单元将当前的第二特征提取单元输出特征与上一时刻的第一特征提取单元输出特征进行拼接,实现前后语义特征关联,提高文字识别精度。
如图3所示,所述第一特征提取单元、第二特征提取单元和第三特征提取单元结构相同,均包括:第一卷积层、第二卷积层、第三卷积层、第四卷积层、乘法器M1和加法器A1;
所述第一卷积层的输入端分别与第二卷积层的输入端和加法器A1的第一输入端连接,并作为第一特征提取单元、第二特征提取单元或第三特征提取单元的输入端;所述乘法器M1的第一输入端与第三卷积层的输出端连接,其第二输入端与第一卷积层的输出端连接,其输出端与第四卷积层的输入端连接;所述第二卷积层的输出端与第三卷积层的输入端连接;所述加法器A1的第二输入端与第四卷积层的输出端连接,其输出端作为第一特征提取单元、第二特征提取单元或第三特征提取单元的输出端。
本发明中将第一卷积层的输出和第三卷积层的输出,采用乘法器M1进行融合,实现深浅特征汇集,再通过第四卷积层再次提取特征,在加法器A1处连接第四卷积层输出和特征提取单元的输入,防止特征丢失,且解决梯度消失的问题。
所述历史特征缓存单元用于缓存上一时刻第一特征提取单元输出的特征,所述Concat单元用于将上一时刻第一特征提取单元输出的特征和当前时刻第二特征提取单元输出的特征进行拼接。
本发明通过信号采集子系统采集用户的原始语音信号,采用基于最优滤波系数的滤波函数对原始语音信号进行滤波,从而最大程度的滤除噪声,得到滤波语音信号,再采用语音识别子系统处理滤波语音信号,结合滤波语音信号中当前特征及其相邻时刻的历史特征,实现对语音的识别,提高语音识别精度,得到用户需求,在提前获知用户需求的情况下,呼叫中心则可为其分配合适的话务员,同时,在明确客户需求的情况下,大量骚扰电话可不被接听,减少骚扰电话对呼叫中心通信量造成的挤兑。
Claims (10)
1.一种基于呼叫中心的用户呼叫实时监测系统,其特征在于,包括:信号采集子系统、滤波子系统和语音识别子系统;
所述信号采集子系统用于采集呼叫中心的用户原始语音信号;
所述滤波子系统根据最优滤波系数的滤波函数对原始语音信号进行滤波,得到滤波语音信号;
所述语音识别子系统用于处理滤波语音信号,结合当前特征及其相邻时刻的历史特征,得到用户需求。
2.根据权利要求1所述的基于呼叫中心的用户呼叫实时监测系统,其特征在于,所述滤波子系统包括:噪声混入单元、滤波系数更新单元、第一滤波单元、系数选择单元和第二滤波单元;
所述噪声混入单元用于对仿真语音信号加入噪声,得到原始混合信号;
所述滤波系数更新单元用于对滤波函数中滤波系数采用系数更新函数进行每一次更新;
所述第一滤波单元用于采用每次更新后的滤波函数对原始混合信号进行滤波,得到滤波混合信号;
所述系数选择单元用于建立系数选择目标函数,系数选择目标函数用于根据每次滤波后的滤波混合信号和原始混合信号计算目标值,在目标值最大时,更新后的滤波函数为最优滤波系数的滤波函数;
所述第二滤波单元用于根据最优滤波系数的滤波函数,对原始语音信号进行滤波,得到滤波语音信号。
3.根据权利要求2所述的基于呼叫中心的用户呼叫实时监测系统,其特征在于,所述滤波函数为:
,
,
其中,为第/>个滤波数据,/>为待滤波信号中第/>个数据,/>为待滤波信号中第个数据,/>为待滤波信号中临近第/>个数据/>的数据数量,/>为临近数据的编号,为第/>个滤波数据,/>为第/>次更新的滤波系数,/>为滤波权重,| |为绝对值运算。
4.根据权利要求3所述的基于呼叫中心的用户呼叫实时监测系统,其特征在于,所述系数更新函数的公式为:
,
其中,为第/>次更新的滤波系数,/>为第/>次更新的滤波系数,/>为第次更新后系数选择目标函数的目标值,/>为自然常数。
5.根据权利要求2所述的基于呼叫中心的用户呼叫实时监测系统,其特征在于,所述系数选择目标函数的通式为:
,
其中,为系数选择目标函数的目标值,/>为滤波混合信号的第一语音特征,/>为滤波混合信号的第二语音特征,/>为仿真语音信号的第一语音特征,/>为仿真语音信号的第二语音特征。
6.根据权利要求5所述的基于呼叫中心的用户呼叫实时监测系统,其特征在于,所述滤波混合信号和仿真语音信号的第一语音特征的表达式均为:
,
其中,为第一语音特征,/>为信号中的第/>个数据,/>为信号长度,/>为信号中数据的最大值,/>为信号中数据的最小值。
7.根据权利要求5所述的基于呼叫中心的用户呼叫实时监测系统,其特征在于,所述滤波混合信号和仿真语音信号的第二语音特征的表达式均为:
,
其中,为第二语音特征,/>为信号中数据的最大值,/>为信号中的第/>个数据,为信号长度。
8.根据权利要求1所述的基于呼叫中心的用户呼叫实时监测系统,其特征在于,所述语音识别子系统包括:第一特征提取单元、第二特征提取单元、第三特征提取单元、历史特征缓存单元、Concat单元和CTC单元;
所述第一特征提取单元的输入端作为语音识别子系统的输入端,其输出端分别与第二特征提取单元的输入端和历史特征缓存单元的输入端连接;所述Concat单元的第一输入端与第二特征提取单元的输出端连接,其第二输入端与历史特征缓存单元的输出端连接,其输出端与第三特征提取单元的输入端连接;所述CTC单元的输入端与第三特征提取单元的输出端连接,其输出端作为语音识别子系统的输出端。
9.根据权利要求8所述的基于呼叫中心的用户呼叫实时监测系统,其特征在于,所述第一特征提取单元、第二特征提取单元和第三特征提取单元结构相同,均包括:第一卷积层、第二卷积层、第三卷积层、第四卷积层、乘法器M1和加法器A1;
所述第一卷积层的输入端分别与第二卷积层的输入端和加法器A1的第一输入端连接,并作为第一特征提取单元、第二特征提取单元或第三特征提取单元的输入端;所述乘法器M1的第一输入端与第三卷积层的输出端连接,其第二输入端与第一卷积层的输出端连接,其输出端与第四卷积层的输入端连接;所述第二卷积层的输出端与第三卷积层的输入端连接;所述加法器A1的第二输入端与第四卷积层的输出端连接,其输出端作为第一特征提取单元、第二特征提取单元或第三特征提取单元的输出端。
10.根据权利要求8所述的基于呼叫中心的用户呼叫实时监测系统,其特征在于,所述历史特征缓存单元用于缓存上一时刻第一特征提取单元输出的特征,所述Concat单元用于将上一时刻第一特征提取单元输出的特征和当前时刻第二特征提取单元输出的特征进行拼接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311015933.3A CN116741151B (zh) | 2023-08-14 | 2023-08-14 | 一种基于呼叫中心的用户呼叫实时监测系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311015933.3A CN116741151B (zh) | 2023-08-14 | 2023-08-14 | 一种基于呼叫中心的用户呼叫实时监测系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116741151A true CN116741151A (zh) | 2023-09-12 |
CN116741151B CN116741151B (zh) | 2023-11-07 |
Family
ID=87910016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311015933.3A Active CN116741151B (zh) | 2023-08-14 | 2023-08-14 | 一种基于呼叫中心的用户呼叫实时监测系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116741151B (zh) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130211829A1 (en) * | 2010-02-12 | 2013-08-15 | Jose Carlos Principe | Adaptive systems using correntropy |
CN107331385A (zh) * | 2017-07-07 | 2017-11-07 | 重庆邮电大学 | 一种骚扰电话的识别与拦截方法 |
CN109946253A (zh) * | 2019-04-08 | 2019-06-28 | 中南大学 | 一种光谱去噪方法 |
CN110324499A (zh) * | 2019-07-09 | 2019-10-11 | 优估(上海)信息科技有限公司 | 一种语音通话的监控方法、装置及系统 |
CN112948662A (zh) * | 2019-12-10 | 2021-06-11 | 北京搜狗科技发展有限公司 | 一种推荐方法、装置和用于推荐的装置 |
CN113889087A (zh) * | 2021-09-24 | 2022-01-04 | 北京百度网讯科技有限公司 | 语音识别及模型建立方法、装置、设备和存储介质 |
CN113889076A (zh) * | 2021-09-13 | 2022-01-04 | 北京百度网讯科技有限公司 | 语音识别及编解码方法、装置、电子设备及存储介质 |
CN113990300A (zh) * | 2021-12-27 | 2022-01-28 | 广州小鹏汽车科技有限公司 | 语音交互方法、车辆、服务器和计算机可读存储介质 |
CN114283829A (zh) * | 2021-12-13 | 2022-04-05 | 电子科技大学 | 一种基于动态门控卷积循环网络的语音增强方法 |
CN114360567A (zh) * | 2022-02-16 | 2022-04-15 | 东北大学 | 一种基于深度复卷积网络的单通道语音增强方法 |
CN115062143A (zh) * | 2022-05-20 | 2022-09-16 | 青岛海尔电冰箱有限公司 | 语音识别与分类方法、装置、设备、冰箱及存储介质 |
CN115132210A (zh) * | 2022-09-02 | 2022-09-30 | 北京百度网讯科技有限公司 | 音频识别方法、音频识别模型的训练方法、装置和设备 |
US20230056680A1 (en) * | 2021-08-18 | 2023-02-23 | International Business Machines Corporation | Integrating dialog history into end-to-end spoken language understanding systems |
CN116504259A (zh) * | 2023-06-30 | 2023-07-28 | 中汇丰(北京)科技有限公司 | 一种基于自然语言处理的语义识别方法 |
-
2023
- 2023-08-14 CN CN202311015933.3A patent/CN116741151B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130211829A1 (en) * | 2010-02-12 | 2013-08-15 | Jose Carlos Principe | Adaptive systems using correntropy |
CN107331385A (zh) * | 2017-07-07 | 2017-11-07 | 重庆邮电大学 | 一种骚扰电话的识别与拦截方法 |
CN109946253A (zh) * | 2019-04-08 | 2019-06-28 | 中南大学 | 一种光谱去噪方法 |
CN110324499A (zh) * | 2019-07-09 | 2019-10-11 | 优估(上海)信息科技有限公司 | 一种语音通话的监控方法、装置及系统 |
CN112948662A (zh) * | 2019-12-10 | 2021-06-11 | 北京搜狗科技发展有限公司 | 一种推荐方法、装置和用于推荐的装置 |
US20230056680A1 (en) * | 2021-08-18 | 2023-02-23 | International Business Machines Corporation | Integrating dialog history into end-to-end spoken language understanding systems |
CN113889076A (zh) * | 2021-09-13 | 2022-01-04 | 北京百度网讯科技有限公司 | 语音识别及编解码方法、装置、电子设备及存储介质 |
CN113889087A (zh) * | 2021-09-24 | 2022-01-04 | 北京百度网讯科技有限公司 | 语音识别及模型建立方法、装置、设备和存储介质 |
CN114283829A (zh) * | 2021-12-13 | 2022-04-05 | 电子科技大学 | 一种基于动态门控卷积循环网络的语音增强方法 |
CN113990300A (zh) * | 2021-12-27 | 2022-01-28 | 广州小鹏汽车科技有限公司 | 语音交互方法、车辆、服务器和计算机可读存储介质 |
CN114360567A (zh) * | 2022-02-16 | 2022-04-15 | 东北大学 | 一种基于深度复卷积网络的单通道语音增强方法 |
CN115062143A (zh) * | 2022-05-20 | 2022-09-16 | 青岛海尔电冰箱有限公司 | 语音识别与分类方法、装置、设备、冰箱及存储介质 |
CN115132210A (zh) * | 2022-09-02 | 2022-09-30 | 北京百度网讯科技有限公司 | 音频识别方法、音频识别模型的训练方法、装置和设备 |
CN116504259A (zh) * | 2023-06-30 | 2023-07-28 | 中汇丰(北京)科技有限公司 | 一种基于自然语言处理的语义识别方法 |
Non-Patent Citations (2)
Title |
---|
T.AFOURAS: "Deeo Audio-Visual Speech Recognition", 《IEEE TRANSACTION ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
金浩: "基于注意力机制的TDNN-LSTM模型及应用", 《声学技术》 * |
Also Published As
Publication number | Publication date |
---|---|
CN116741151B (zh) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108156331B (zh) | 一种智能自动拨号外呼方法 | |
CN107566670B (zh) | 基于语音识别实现自主拨号,智能对话以及信息分析的方法 | |
CN109215665A (zh) | 一种基于3d卷积神经网络的声纹识别方法 | |
CN106297777A (zh) | 一种唤醒语音服务的方法和装置 | |
CN104980337A (zh) | 一种音频处理的性能提升方法及装置 | |
CN108462785B (zh) | 一种恶意呼叫电话的处理方法及装置 | |
CN106453971B (zh) | 呼叫中心质检语音的获取方法和呼叫中心质检系统 | |
CN109947934B (zh) | 针对短文本的数据挖掘方法及系统 | |
CN107734126A (zh) | 语音调节方法、装置、终端及存储介质 | |
CN101320560A (zh) | 语音识别系统应用采样速率转化提高识别率的方法 | |
CN112869711A (zh) | 一种基于深度神经网络的自动睡眠分期及迁移方法 | |
CN105933493A (zh) | 一种陌生来电处理方法、装置及移动终端 | |
CN104410973A (zh) | 一种播放录音的诈骗电话识别方法和系统 | |
CN108053822A (zh) | 一种语音信号处理方法、装置、终端设备及介质 | |
CN116741151B (zh) | 一种基于呼叫中心的用户呼叫实时监测系统 | |
CN108876400A (zh) | 一种商业活动管理平台基于客户管理的信息处理系统 | |
CN105516990B (zh) | 一种电信欺诈用户分析方法及装置 | |
CN105721651B (zh) | 一种语音拨号方法和设备 | |
CN110191005A (zh) | 一种告警日志处理方法及系统 | |
CN109461440A (zh) | 一种获取多轮语音通话最大可能意图的方法和智能设备 | |
CN113507541A (zh) | 来电意图展示方法及装置 | |
CN114331472A (zh) | 一种基于区块链技术的投诉管理系统 | |
WO2021051533A1 (zh) | 基于地址信息的黑名单识别方法、装置、设备及存储介质 | |
CN103811008A (zh) | 一种音频内容识别方法和装置 | |
CN111292748A (zh) | 一种可适应多种频率的语音录入系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |