CN112637428A - 无效通话判断方法、装置、计算机设备及存储介质 - Google Patents

无效通话判断方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN112637428A
CN112637428A CN202011594212.9A CN202011594212A CN112637428A CN 112637428 A CN112637428 A CN 112637428A CN 202011594212 A CN202011594212 A CN 202011594212A CN 112637428 A CN112637428 A CN 112637428A
Authority
CN
China
Prior art keywords
voice
call
segment
response
voice segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011594212.9A
Other languages
English (en)
Inventor
郝健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202011594212.9A priority Critical patent/CN112637428A/zh
Publication of CN112637428A publication Critical patent/CN112637428A/zh
Priority to PCT/CN2021/091263 priority patent/WO2022142031A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/22Arrangements for supervision, monitoring or testing
    • H04M3/2272Subscriber line supervision circuits, e.g. call detection circuits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/18Artificial neural networks; Connectionist approaches
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/527Centralised call answering arrangements not requiring operator intervention

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本申请实施例属于人工智能领域,应用于智能客服领域中,涉及一种无效通话判断方法、装置、计算机设备及存储介质,其中方法包括:获取第一应答语音片段,所述第一应答语音片段为智能客服发起通话时接收的对端应答语音中的片段;将所述第一应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征;计算所述第一应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第一语音片段为电子合成语音;确定所述智能客服发起的通话为无效通话。根据应答语音是电子合成语音确定通话为无效通话,立即结束通话,释放占用的资源,避免资源浪费。

Description

无效通话判断方法、装置、计算机设备及存储介质
技术领域
本申请涉及人工智能技术领域,尤其涉及无效通话判断方法、装置、计算机设备及存储介质。
背景技术
随着通信技术和互联网技术的发展,客服业务出现了智能客服、计算机客服取代了人工客服。智能客服AI节省了大量的人力,但是智能客服的外呼,大约有10%-15%是未接通的电话,这类通话目前处理方式通常为等待直到运营商挂机,所有的通信运营商在用户未接通电话时,都会通过播报电子合成语音来填充呼叫侧用户的等待时间。目前在做AI呼叫类项目时,并未对这类电子声进行预判断,在等待客户接听的这段时间内,收音系统仍在持续收音,并且会将其作为客户的语音转为文字传到后端。
这样做不但会将这类数据传给整个AI外呼链路的各个系统存储,各个系统在进行统计和汇总时,都需要额外将这类数据剔除,增加二次统计的复杂度,更是在这段电子播报时间内占用了价格高昂的外呼线路资源。
发明内容
本申请实施例的目的在于提出一种无效通话判断方法、装置、计算机设备及存储介质,以解决无效通话给智能客户业务带来的呼叫资源浪费的问题。
为了解决上述技术问题,本申请实施例提供一种无效通话判断方法,采用了如下所述的技术方案:
获取第一应答语音片段,所述第一应答语音片段为智能客服发起通话时接收的对端应答语音中的片段;
将所述第一应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征;
计算所述第一应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第一语音片段为电子合成语音;
当所述第一语音片段为电子合成语音时,确定所述智能客服发起的通话为无效通话。
进一步的,在所述获取第一应答语音片段的步骤之后,还包括:
将所述第一语音片段输入到预设的梅尔滤波器进行梅尔频谱提取,获得所述第一语音片段的梅尔频谱;
将所述第一语音片段的梅尔频谱输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征。
进一步的,在所述获取第一应答语音片段的步骤之前,还包括:
接收应答语音;
根据预设的反应时间,截取所述应答语音中不含起始部分的语音片段,得到第一语音片段,其中,所述起始部分为所述应答语音从起始到所述反应时间的部分。
进一步的,在所述接收应答语音的步骤之前,还包括:
获取M个智能客服发起通话后至接通前的反应时间样本,M为大于0的正整数;
根据所述M个反应时间样本统计分析反应时间的概率分布;
根据所述反应时间概率分布,确定所述预设的反应时间。
进一步的,在所述将所述第一应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征的步骤之前,还包括:
获取训练样本,所述训练样本为标注了是否为电子合成语音的N个语音样本,N为大于0的正整数;
将所述训练样本输入到深度学习神经网络模型中,获取所述深度学习神经网络模型响应所述训练样本输出的N个预测结果;
通过损失函数比对所述N个预测结果和所述标注是否一致,其中所述损失函数为:
Figure BDA0002869870490000031
其中,N为训练样本数,针对第i个样本其对应的yi是标注的结果,h=(h1,h2,...,hc)为样本i的预测结果,其中C是所有分类的数量;
调整所述深度学习神经网络模型各节点的参数,至所述损失函数达到最小时结束,得到训练好的深度学习神经网络模型。
进一步的,在所述当所述第一语音片段为电子合成语音时,确定所述智能客服发起的通话为无效通话的步骤之前还包括:
当所述第一应答语音片段为电子合成语音时,从所述应答语音中,截取第二应答语音片段,其中所述第二应答语音片段的起始时间滞后所述第一语音片段的结束时间;
将所述第二应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第二应答语音片段的声纹特征;
计算所述第二应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第二语音片段为电子合成语音;
当所述第一应答语音片段和第二应答语音片段都为电子合成语音时,确定所述智能客服发起的通话为无效通话。
进一步的,在所述当所述第一语音片段为电子合成语音时,确定所述智能客服发起的通话为无效通话的步骤之后,还包括:
结束所述智能客服发起的通话;
返回通话未接通消息至预设的服务日志数据库,返回通话结束消息至预设的外呼资源管理平台。
为了解决上述技术问题,本申请实施例还提供一种无效通话判断装置,采用了如下所述的技术方案:
获取模块,用于获取第一应答语音片段,所述第一应答语音片段为智能客服发起通话时接收的对端应答语音中的片段;
提取模块,用于将所述第一应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征;
计算模块,用于计算所述第一应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第一语音片段为电子合成语音;
确定模块,用于当所述第一语音片段为电子合成语音时,确定所述智能客服发起的通话为无效通话。
进一步的,所述的无效通话判断装置还包括:
第一提取子模块,用于将所述第一语音片段输入到预设的梅尔滤波器进行梅尔频谱提取,获得所述第一语音片段的梅尔频谱;
第二提取子模块,用于将所述第一语音片段的梅尔频谱输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征。
进一步的,所述无效通话判断装置还包括:
第一接收子模块,用于接收应答语音;
第一截取子模块,用于根据预设的反应时间,截取所述应答语音中不含起始部分的语音片段,得到第一语音片段,其中,所述起始部分为所述应答语音从起始到所述反应时间的部分。
进一步的,所述无效通话判断装置还包括:
第一获取子模块,用于获取M个智能客服发起通话后至接通前的反应时间样本,M为大于0的正整数;
第一统计子模块,用于根据所述M个反应时间样本统计分析反应时间的概率分布;
第一确定子模块,用于根据所述反应时间概率分布,确定所述预设的反应时间。
进一步的,所述无效通话判断装置还包括:
第二获取子模块,用于获取训练样本,所述训练样本为标注了是否为电子合成语音的N个语音样本,N为大于0的正整数;
第一预测子模块,用于将所述训练样本输入到深度学习神经网络模型中,获取所述深度学习神经网络模型响应所述训练样本输出的N个预测结果;
第一比对子模块,用于通过损失函数比对所述N个预测结果和所述标注是否一致,其中所述损失函数为:
Figure BDA0002869870490000051
其中,N为训练样本数,针对第i个样本其对应的yi是标注的结果,h=(h1,h2,...,hc)为样本i的预测结果,其中C是所有分类的数量;
第一调整子模块,用于调整所述深度学习神经网络模型各节点的参数,至所述损失函数达到最小时结束,得到训练好的深度学习神经网络模型。
进一步的,所述无效通话判断装置还包括:
第二截取子模块,用于当所述第一应答语音片段为电子合成语音时,从所述应答语音中,截取第二应答语音片段,其中所述第二应答语音片段的起始时间滞后所述第一语音片段的结束时间;
第三提取子模块,用于将所述第二应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第二应答语音片段的声纹特征;
第一计算子模块,用于计算所述第二应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第二语音片段为电子合成语音;
第二确定子模块,用于当所述第一应答语音片段和第二应答语音片段都为电子合成语音时,确定所述智能客服发起的通话为无效通话。
进一步的,所述无效通话判断装置还包括:
切断子模块,用于结束所述智能客服发起的通话;
消息返回子模块,用于返回通话未接通消息至预设的服务日志数据库,返回通话结束消息至预设的外呼资源管理平台。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,存储器中存储有计算机可读指令,处理器执行计算机可读指令时实现如上述无效通话判断方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,计算机可读存储介质上存储有计算机可读指令,计算机可读指令被处理器执行时实现如上述无效通话判断方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
通过获取第一应答语音片段,所述第一应答语音片段为智能客服发起通话时接收的对端应答语音中的片段;将所述第一应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征;计算所述第一应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第一语音片段为电子合成语音;当所述第一语音片段为电子合成语音时,确定所述智能客服发起的通话为无效通话。根据接收到应答语音是否为电子合成语音,判断是否为无效通话,若为无效通话,可立即结束通话,释放占用的资源,避免资源浪费,有利于提高智能客户的服务效率。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2根据本申请的无效通话判断方法的一个实施例的流程图;
图3是图2中深度神经网络训练的具体实施方式的流程图;
图4是根据本申请的无效通话判断装置的一个实施例的结构示意图;
图5是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的无效通话判断方法一般由服务器/终端设 执行,相应地,无效通话判断装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的无效通话判断的方法的一个实施例的流程图。所述的无效通话判断方法,包括以下步骤:
步骤S201,获取第一应答语音片段,所述第一应答语音片段为智能客服发起通话时接收的对端应答语音中的片段。
在本实施例中,无效通话判断方法运行于其上的电子设备(例如图1所示的服务 器/终端设备)可以通过有线连接方式或者无线连接方式接收第一应答语音片段。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
智能客服包含收音系统,通过收音系统接收通话时对端应答语音。使用通用的音频剪辑软件对对端应答语音进行剪辑,得到第一应答语音片段。
步骤S202,将所述第一应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征。
在本实施例中,通过预先训练的深度学习神经网络模型提取进行声纹特征提取。本实施例中预先训练的深度学习神经网络模型主要目标为识别接收的应答语音是电子合成的语音还是真人应答语音,经过电子合成语音和真人语音识别训练的深度学习神经网络模型相对与传统的声音特征提取方法能更好的提取出体现两者区别的特征。具体的深度学习神经网络模型的训练过程请参阅图3。
步骤S203,计算所述第一应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第一语音片段为电子合成语音。
在本实施例中,预先提取的电子合成语音声纹特征来自各电信运营商的电子语音播报,这里不采用上述深度学习神经网络模型直接判断是否为电子语音,而采用与预先提取的电子合成语音声纹特征比较相似度,因为电信运营商数量是有效的,电子语音播报的种类是有限的,可以预先获取的。通过预先提取的电子合成声纹特征与应答语音的声纹特征比较相似度,判断是否为电子合成语音而不是真人应答更准确。
特征相似度的计算采用欧式距离算法,即计算两个特征向量的距离。当相似度大于预设的阈值时,确定应答语音为电子合成语音。
步骤S204,当所述第一语音片段为电子合成语音时,确定所述智能客服发起的通话为无效通话。
当应答语音为电子合成语音时,当前通话为无效通话。判断当前通话为无效通话,可以基于此判断,智能客服的后台进行结束当前通话、释放当前通话所占的线路资源、计算资源、存储资源。
本申请通过获取第一应答语音片段,所述第一应答语音片段为智能客服发起通话时接收的对端应答语音中的片段;将所述第一应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征;计算所述第一应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第一语音片段为电子合成语音;当所述第一语音片段为电子合成语音时,确定所述智能客服发起的通话为无效通话。根据接收到应答语音是否为电子合成语音,判断是否为无效通话,若为无效通话,可立即结束通话,释放占用的资源,避免资源浪费,有利于提高智能客户的服务效率。
在本实施例的一些可选的实现方式中,在步骤S201之后,上述电子设备还可以执行以下步骤:
将所述第一语音片段输入到预设的梅尔滤波器进行梅尔频谱提取,获得所述第一语音片段的梅尔频谱;
将所述第一语音片段的梅尔频谱输入到预先训练的深度学习神经网络进行声纹特征提取,获得所述第一应答语音片段的声纹特征。
音频信号是一维信号,直观上只能看到时域信息,不能看到频域信息。通过傅里叶变换(FT)可以变换到频域,但是丢失了时域信息,无法看到时频关系。通常对音频信息作短时傅里叶变换得到声谱图,由于声谱图包含的信息量大,将声谱图通过梅尔滤波器,得到梅尔频谱。
在本实施例中,可以通过python的librosa库中的melspectrogram()函数提取音频时域信号的梅尔频谱。
在一些可选的实现方式中,在上述步骤S201之前,上述电子设备可以执行以下步骤:
接收应答语音;
根据预设的反应时间,截取所述应答语音中不含起始部分的语音片段,得到第一语音片段,其中,所述起始部分为所述应答语音从起始到所述反应时间的部分。
智能客服发起通话后,客户通常需要一定的反应时间来接听电话,为避免误判,在智能客服发起通话后,截掉从起始时间到预设的反应时间这一段的语音,使用反应时间后的语音片段进行是否为电子合成语音的判断。
在一些可选的实现方式中,上述预设的反应时间通过以下步骤确定:
获取M个智能客服发起通话后至接通前的反应时间样本,M为大于0的正整数;
根据所述M个反应时间样本统计分析反应时间的概率分布;
根据所述反应时间概率分布,确定所述预设的反应时间。
假设,根据M个反应时间样本统计分析得到反应时间的概率分布显示80%的反应时间小于10秒,那么预设反应时间设为10秒,智能客服发起通话后,收音系统立即开始接收对端语音,将接收到的对端语音前10秒截掉,最大程度避免了客户因合理的反应时间而未接通通话时,被判定为无效通话,从而导致通话结束的情况。
通过大数据分析,在最佳时间截取应答语音片段进行是否为电子合成语音的判断,根据判断确定是否结束通话,既可保证有效通话不被误挂断也可尽快结束无效通话,释放智能客服的外呼资源。
在一些可选的实现方式中,参考图3,在上述步骤S202之前,上述电子设备可以执行以下步骤:
获取训练样本,所述训练样本为标注了是否为电子合成语音的N个语音样本,N为大于0的正整数;
将所述训练样本输入到深度学习神经网络模型中,获取所述深度学习神经网络模型响应所述训练样本输出的N个预测结果;
通过损失函数比对所述N个预测结果和所述标注是否一致,其中所述损失函数为:
Figure BDA0002869870490000111
其中,N为训练样本数,针对第i个样本其对应的yi是标注的结果,h=(h1,h2,...,hc)为样本i的预测结果,其中C是所有分类的数量;
调整所述深度学习神经网络各节点的参数,至所述损失函数达到最小时结束,得到训练好的深度学习神经网络。
深度学习神经网络模型可以看成声纹特征提取模型连接输出层,其中输出层为softmax输出层,softmax输出层用于根据前述声纹特征提取模型提取的特征对输入的语音进行是否为电子合成语音的分类,训练时,通过softmaxloss比较预测结果和标注的结果是否一致,当softmaxloss达到最小值时,深度学习神经网络模型训练结束。
在一些可选的实现方式中,在上述步骤S204之前,上述电子设备可以执行以下步骤:
当所述第一应答语音片段为电子合成语音时,从所述应答语音中,截取第二应答语音片段,其中所述第二应答语音片段的起始时间滞后所述第一语音片段的结束时间;
将所述第二应答语音片段输入到预先训练的深度学习神经网络进行声纹特征提取,获得所述第二应答语音片段的声纹特征;
计算所述第二应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第二语音片段为电子合成语音;
当所述第一应答语音片段和第二应答语音片段都为电子合成语音时,确定所述智能客服发起的通话为无效通话。
在一些情况下,为了避免误判,截取应答语音中前后两段进行是否为电子合成语音的判断,当两段语音都为电子合成语音时,确定当前通话为无效通话。
在一些可选的实现方式中,在上述步骤S204之后,上述电子设备可以执行以下步骤:
结束所述智能客服发起的通话;
返回通话未接通消息至预设的服务日志数据库,返回通话结束消息至预设的外呼资源管理平台。
当通话为无效通话时,结束当前通话,并返回通话未接通消息给服务日志数据库。服务日志数据库记录通话的情况,用于查验客户电话是否接通。
返回通话结束消息至预设的外呼资源管理平台,通知外呼资源管理平台释放占用的资源。外呼资源是有限的,当判断为无效通话时,立即结束当前通话,释放外呼资源,有利于提高外呼资源利用率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图4,作为对上述图2所示方法的实现,本申请提供了一种无效通话判断装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例所述的无效通话判断装置400包括:获取模块401、提取模块402、计算模块403以及确定模块404。其中:
获取模块401,用于获取第一应答语音片段,所述第一应答语音片段为智能客服发起通话时接收的对端应答语音中的片段;
提取模块402,用于将所述第一应答语音片段输入到预先训练的深度学习神经网络进行声纹特征提取,获得所述第一应答语音片段的声纹特征;
计算模块403,用于计算所述第一应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第一语音片段为电子合成语音;
确定模块404,用于当所述第一语音片段为电子合成语音时,确定所述智能客服发起的通话为无效通话。
在本实施例中,通过获取第一应答语音片段,所述第一应答语音片段为智能客服发起通话时接收的对端应答语音中的片段;将所述第一应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征;计算所述第一应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第一语音片段为电子合成语音;当所述第一语音片段为电子合成语音时,确定所述智能客服发起的通话为无效通话。根据接收到应答语音是否为电子合成语音,判断是否为无效通话,若为无效通话,可立即结束通话,释放占用的资源,避免资源浪费,有利于提高智能客户的服务效率。
在本实施例的一些可选的实现方式中,所述的无效通话判断装置还包括:
第一提取子模块,用于将所述第一语音片段输入到预设的梅尔滤波器进行梅尔频谱提取,获得所述第一语音片段的梅尔频谱;
第二提取子模块,用于将所述第一语音片段的梅尔频谱输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征。
在本实施例的一些可选的实现方式中,所述无效通话判断装置还包括:
第一接收子模块,用于接收应答语音;
第一截取子模块,用于根据预设的反应时间,截取所述应答语音中不含起始部分的语音片段,得到第一语音片段,其中,所述起始部分为所述应答语音从起始到所述反应时间的部分。
在本实施例的一些可选的实现方式中,所述无效通话判断装置还包括:
第一获取子模块,用于获取M个智能客服发起通话后至接通前的反应时间样本,M为大于0的正整数;
第一统计子模块,用于根据所述M个反应时间样本统计分析反应时间的概率分布;
第一确定子模块,用于根据所述反应时间概率分布,确定所述预设的反应时间。
在本实施例的一些可选的实现方式中,所述无效通话判断装置还包括:
第二获取子模块,用于获取训练样本,所述训练样本为标注了是否为电子合成语音的N个语音样本,N为大于0的正整数;
第一预测子模块,用于将所述训练样本输入到深度学习神经网络模型中,获取所述深度学习神经网络模型响应所述训练样本输出的N个预测结果;
第一比对子模块,用于通过损失函数比对所述N个预测结果和所述标注是否一致,其中所述损失函数为:
Figure BDA0002869870490000151
其中,N为训练样本数,针对第i个样本其对应的yi是标注的结果,h=(h1,h2,...,hc)为样本i的预测结果,其中C是所有分类的数量;
第一调整子模块,用于调整所述深度学习神经网络模型各节点的参数,至所述损失函数达到最小时结束,得到训练好的深度学习神经网络模型。
在本实施例的一些可选的实现方式中,所述无效通话判断装置还包括:
第二截取子模块,用于当所述第一应答语音片段为电子合成语音时,从所述应答语音中,截取第二应答语音片段,其中所述第二应答语音片段的起始时间滞后所述第一语音片段的结束时间;
第三提取子模块,用于将所述第二应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第二应答语音片段的声纹特征;
第一计算子模块,用于计算所述第二应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第二语音片段为电子合成语音;
第二确定子模块,用于当所述第一应答语音片段和第二应答语音片段都为电子合成语音时,确定所述智能客服发起的通话为无效通话。
在本实施例的一些可选的实现方式中,所述无效通话判断装置还包括:
切断子模块,用于结束所述智能客服发起的通话;
消息返回子模块,用于返回通话未接通消息至预设的服务日志数据库,返回通话结束消息至预设的外呼资源管理平台。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图5,图5为本实施例计算机设备基本结构框图。
所述计算机设备5包括通过系统总线相互通信连接存储器51、处理器52、网络接口53。需要指出的是,图中仅示出了具有组件51-53的计算机设备5,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器51至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器51可以是所述计算机设备5的内部存储单元,例如该计算机设备5的硬盘或内存。在另一些实施例中,所述存储器51也可以是所述计算机设备5的外部存储设备,例如该计算机设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器51还可以既包括所述计算机设备5的内部存储单元也包括其外部存储设备。本实施例中,所述存储器51通常用于存储安装于所述计算机设备5的操作系统和各类应用软件,例如无效通话判断方法的计算机可读指令等。此外,所述存储器51还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器52在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器52通常用于控制所述计算机设备5的总体操作。本实施例中,所述处理器52用于运行所述存储器51中存储的计算机可读指令或者处理数据,例如运行所述无效通话判断方法的计算机可读指令。
所述网络接口53可包括无线网络接口或有线网络接口,该网络接口53通常用于在所述计算机设备5与其他电子设备之间建立通信连接。
通过获取第一应答语音片段,所述第一应答语音片段为智能客服发起通话时接收的对端应答语音中的片段;将所述第一应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征;计算所述第一应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第一语音片段为电子合成语音;当所述第一语音片段为电子合成语音时,确定所述智能客服发起的通话为无效通话。根据接收到应答语音是否为电子合成语音,判断是否为无效通话,若为无效通话,可立即结束通话,释放占用的资源,避免资源浪费,有利于提高智能客户的服务效率。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的无效通话判断方法的步骤。
通过获取第一应答语音片段,所述第一应答语音片段为智能客服发起通话时接收的对端应答语音中的片段;将所述第一应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征;计算所述第一应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第一语音片段为电子合成语音;当所述第一语音片段为电子合成语音时,确定所述智能客服发起的通话为无效通话。根据接收到应答语音是否为电子合成语音,判断是否为无效通话,若为无效通话,可立即结束通话,释放占用的资源,避免资源浪费,有利于提高智能客户的服务效率。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。

Claims (10)

1.一种无效通话判断方法,其特征在于,包括下述步骤:
获取第一应答语音片段,所述第一应答语音片段为智能客服发起通话时接收的对端应答语音中的片段;
将所述第一应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征;
计算所述第一应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第一语音片段为电子合成语音;
当所述第一语音片段为电子合成语音时,确定所述智能客服发起的通话为无效通话。
2.根据权利要求1所述的无效通话判断方法,其特征在于,在所述获取第一应答语音片段的步骤之后,还包括:
将所述第一语音片段输入到预设的梅尔滤波器进行梅尔频谱提取,获得所述第一语音片段的梅尔频谱;
将所述第一语音片段的梅尔频谱输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征。
3.根据权利要求1所述的无效通话判断方法,其特征在于,在所述获取第一应答语音片段的步骤之前,还包括:
接收应答语音;
根据预设的反应时间,截取所述应答语音中不含起始部分的语音片段,得到第一语音片段,其中,所述起始部分为所述应答语音从起始到所述反应时间的部分。
4.根据权利要求3所述的无效通话判断方法,其特征在于,在所述接收应答语音的步骤之前,还包括:
获取M个智能客服发起通话后至接通前的反应时间样本,M为大于0的正整数;
根据所述M个反应时间样本统计分析反应时间的概率分布;
根据所述反应时间概率分布,确定所述预设的反应时间。
5.根据权利要求1所述的无效通话判断方法,其特征在于,在所述将所述第一应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征的步骤之前,还包括:
获取训练样本,所述训练样本为标注了是否为电子合成语音的N个语音样本,N为大于0的正整数;
将所述训练样本输入到深度学习神经网络模型中,获取所述深度学习神经网络模型响应所述训练样本输出的N个预测结果;
通过损失函数比对所述N个预测结果和所述标注是否一致,其中所述损失函数为:
Figure FDA0002869870480000021
其中,N为训练样本数,针对第i个样本其对应的yi是标注的结果,h=(h1,h2,...,hc)为样本i的预测结果,其中C是所有分类的数量;
调整所述深度学习神经网络模型各节点的参数,至所述损失函数达到最小时结束,得到训练好的深度学习神经网络模型。
6.根据权利要求1所述的无效通话判断方法,其特征在于,在所述当所述第一语音片段为电子合成语音时,确定所述智能客服发起的通话为无效通话的步骤之前还包括:
当所述第一应答语音片段为电子合成语音时,从所述应答语音中,截取第二应答语音片段,其中所述第二应答语音片段的起始时间滞后所述第一语音片段的结束时间;
将所述第二应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第二应答语音片段的声纹特征;
计算所述第二应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第二语音片段为电子合成语音;
当所述第一应答语音片段和第二应答语音片段都为电子合成语音时,确定所述智能客服发起的通话为无效通话。
7.根据权利要求1所述的无效通话判断方法,其特征在于,在所述当所述第一语音片段为电子合成语音时,确定所述智能客服发起的通话为无效通话的步骤之后,还包括:
结束所述智能客服发起的通话;
返回通话未接通消息至预设的服务日志数据库,返回通话结束消息至预设的外呼资源管理平台。
8.一种无效通话判断装置,其特征在于,包括:
获取模块,用于获取第一应答语音片段,所述第一应答语音片段为智能客服发起通话时接收的对端应答语音中的片段;
提取模块,用于将所述第一应答语音片段输入到预先训练的深度学习神经网络模型进行声纹特征提取,获得所述第一应答语音片段的声纹特征;
计算模块,用于计算所述第一应答语音片段的声纹特征与预先提取的电子合成语音声纹特征的相似度,当所述相似度大于预设的阈值时,确定所述第一语音片段为电子合成语音;
确定模块,用于当所述第一语音片段为电子合成语音时,确定所述智能客服发起的通话为无效通话。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的无效通话判断方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的无效通话判断方法的步骤。
CN202011594212.9A 2020-12-29 2020-12-29 无效通话判断方法、装置、计算机设备及存储介质 Pending CN112637428A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011594212.9A CN112637428A (zh) 2020-12-29 2020-12-29 无效通话判断方法、装置、计算机设备及存储介质
PCT/CN2021/091263 WO2022142031A1 (zh) 2020-12-29 2021-04-30 无效通话判断方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011594212.9A CN112637428A (zh) 2020-12-29 2020-12-29 无效通话判断方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN112637428A true CN112637428A (zh) 2021-04-09

Family

ID=75286094

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011594212.9A Pending CN112637428A (zh) 2020-12-29 2020-12-29 无效通话判断方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
CN (1) CN112637428A (zh)
WO (1) WO2022142031A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113744741A (zh) * 2021-11-04 2021-12-03 阿里云计算有限公司 识别电话接听行为的方法及装置
CN113782036A (zh) * 2021-09-10 2021-12-10 北京声智科技有限公司 音频质量评估方法、装置、电子设备和存储介质
WO2022142031A1 (zh) * 2020-12-29 2022-07-07 平安科技(深圳)有限公司 无效通话判断方法、装置、计算机设备及存储介质
CN115277951A (zh) * 2022-07-26 2022-11-01 云南电网有限责任公司信息中心 一种智能语音外呼方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105513597A (zh) * 2015-12-30 2016-04-20 百度在线网络技术(北京)有限公司 声纹认证处理方法及装置
WO2018107810A1 (zh) * 2016-12-15 2018-06-21 平安科技(深圳)有限公司 声纹识别方法、装置、电子设备及介质
CN109599117A (zh) * 2018-11-14 2019-04-09 厦门快商通信息技术有限公司 一种音频数据识别方法及人声语音防重放识别系统
CN109769099A (zh) * 2019-01-15 2019-05-17 三星电子(中国)研发中心 通话人物异常的检测方法和装置
WO2019214047A1 (zh) * 2018-05-08 2019-11-14 平安科技(深圳)有限公司 建立声纹模型的方法、装置、计算机设备和存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107492382B (zh) * 2016-06-13 2020-12-18 阿里巴巴集团控股有限公司 基于神经网络的声纹信息提取方法及装置
CN109215646B (zh) * 2018-08-15 2021-08-17 北京百度网讯科技有限公司 语音交互处理方法、装置、计算机设备及存储介质
CN109473105A (zh) * 2018-10-26 2019-03-15 平安科技(深圳)有限公司 与文本无关的声纹验证方法、装置和计算机设备
CN110769425B (zh) * 2019-09-18 2022-11-04 平安科技(深圳)有限公司 异常通话对象的判断方法、装置、计算机设备和存储介质
CN112687274A (zh) * 2019-10-17 2021-04-20 北京猎户星空科技有限公司 一种语音信息的处理方法、装置、设备及介质
CN111508527B (zh) * 2020-04-17 2021-03-12 北京帝派智能科技有限公司 一种电话应答状态检测方法、装置及服务器
CN112637428A (zh) * 2020-12-29 2021-04-09 平安科技(深圳)有限公司 无效通话判断方法、装置、计算机设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105513597A (zh) * 2015-12-30 2016-04-20 百度在线网络技术(北京)有限公司 声纹认证处理方法及装置
WO2018107810A1 (zh) * 2016-12-15 2018-06-21 平安科技(深圳)有限公司 声纹识别方法、装置、电子设备及介质
WO2019214047A1 (zh) * 2018-05-08 2019-11-14 平安科技(深圳)有限公司 建立声纹模型的方法、装置、计算机设备和存储介质
CN109599117A (zh) * 2018-11-14 2019-04-09 厦门快商通信息技术有限公司 一种音频数据识别方法及人声语音防重放识别系统
CN109769099A (zh) * 2019-01-15 2019-05-17 三星电子(中国)研发中心 通话人物异常的检测方法和装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022142031A1 (zh) * 2020-12-29 2022-07-07 平安科技(深圳)有限公司 无效通话判断方法、装置、计算机设备及存储介质
CN113782036A (zh) * 2021-09-10 2021-12-10 北京声智科技有限公司 音频质量评估方法、装置、电子设备和存储介质
CN113782036B (zh) * 2021-09-10 2024-05-31 北京声智科技有限公司 音频质量评估方法、装置、电子设备和存储介质
CN113744741A (zh) * 2021-11-04 2021-12-03 阿里云计算有限公司 识别电话接听行为的方法及装置
CN115277951A (zh) * 2022-07-26 2022-11-01 云南电网有限责任公司信息中心 一种智能语音外呼方法、装置、设备及介质

Also Published As

Publication number Publication date
WO2022142031A1 (zh) 2022-07-07

Similar Documents

Publication Publication Date Title
CN112637428A (zh) 无效通话判断方法、装置、计算机设备及存储介质
CN108763499B (zh) 基于智能语音的呼叫质检方法、装置、设备及存储介质
CN111368043A (zh) 基于人工智能的事件问答方法、装置、设备及存储介质
CN110334241A (zh) 客服录音的质检方法、装置、设备及计算机可读存储介质
CN111276123B (zh) 一种语音播报留言的方法、装置、计算机设备及存储介质
CN111552633A (zh) 接口的异常调用测试方法、装置、计算机设备及存储介质
CN110782341A (zh) 业务催收方法、装置、设备及介质
CN113488024A (zh) 一种基于语义识别的电话打断识别方法和系统
CN114724561A (zh) 一种语音打断方法、装置、计算机设备及存储介质
CN114817478A (zh) 基于文本的问答方法、装置、计算机设备及存储介质
CN112669850A (zh) 语音质量检测方法、装置、计算机设备及存储介质
CN113242301A (zh) 真实服务器的选定方法、装置、计算机设备及存储介质
CN106371905B (zh) 应用程序操作方法、装置和服务器
CN110740212B (zh) 基于智能语音技术的通话接听方法、装置及电子设备
CN111640450A (zh) 多人声音频处理方法、装置、设备及可读存储介质
CN107644095A (zh) 用于搜索信息的方法和装置
CN115878768A (zh) 基于nlp的车险业务回话线索推荐方法及其相关设备
CN107645613A (zh) 服务转接的方法和装置
CN114418623A (zh) 基于用户兴趣进行广告推送的方法、装置及设备
CN112687293B (zh) 一种基于机器学习及数据挖掘的智能坐席训练方法和系统
CN114912958A (zh) 坐席外呼方法、装置、计算机设备及存储介质
CN113852835A (zh) 直播音频处理方法、装置、电子设备以及存储介质
CN113076932A (zh) 训练音频语种识别模型的方法、视频检测方法及其装置
CN113743983A (zh) 一种基于安卓应用的电销管理方法、装置、设备、介质
CN111783447B (zh) 基于ngram距离的敏感词检测方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210409