CN115482823A - 基于自动语音识别的音频处理方法及其装置 - Google Patents
基于自动语音识别的音频处理方法及其装置 Download PDFInfo
- Publication number
- CN115482823A CN115482823A CN202211103261.7A CN202211103261A CN115482823A CN 115482823 A CN115482823 A CN 115482823A CN 202211103261 A CN202211103261 A CN 202211103261A CN 115482823 A CN115482823 A CN 115482823A
- Authority
- CN
- China
- Prior art keywords
- target
- texts
- audio
- text
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 21
- 238000000034 method Methods 0.000 claims abstract description 48
- 238000012545 processing Methods 0.000 claims abstract description 38
- 238000004590 computer program Methods 0.000 claims description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000002372 labelling Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 abstract description 13
- 230000008569 process Effects 0.000 abstract description 12
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013518 transcription Methods 0.000 description 3
- 230000035897 transcription Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000011089 mechanical engineering Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了一种基于自动语音识别的音频处理方法及其装置,涉及计算机技术领域,尤其涉及语音识别技术领域。具体实现方案为:接收当前时刻音频采集设备发送的第一音频段,并基于第一音频段,获取目标音频数据;根据目标音频数据获取目标对象对应的M个目标文本,M为正整数;获取目标对象的当前服务模式以及当前服务模式的N个参考文本,N为正整数;根据M个目标文本和N个参考文本,确定目标对象对应的资源。本公开可以提高音频处理的灵活性,可以及时、准确的分析、发现目标对象服务过程中的缺漏,优化目标对象的资源,引导目标对象更好的进行服务,提高用户体验。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及语音识别技术领域。
背景技术
原始设备制造商(Original Equipment Manufacturer,OEM)进行数字化转型时,经常依赖于目标对象对客户的服务,目标对象在服务过程中的话术和服务质量好坏直接影响到销售转化率的高低,因此,如何及时、准确的分析、发现目标对象服务过程中的缺漏,优化目标对象的资源,已经成为重要的研究方向之一。
发明内容
本公开提供了一种基于自动语音识别(Automatic Speech Recognition,ASR)的音频处理方法及其装置。
根据本公开的一方面,提供了一种基于ASR的音频处理方法,由服务器执行,包括:
接收当前时刻音频采集设备发送的第一音频段,并基于第一音频段,获取目标音频数据;
根据目标音频数据获取目标对象对应的M个目标文本,M为正整数;
获取目标对象的当前服务模式以及当前服务模式的N个参考文本,N为正整数;
根据M个目标文本和N个参考文本,确定目标对象对应的资源。
本公开可以提高音频处理的灵活性,可以及时、准确的分析、发现目标对象服务过程中的缺漏,优化目标对象的资源,引导目标对象更好的进行服务,提高用户体验。
根据本公开的另一方面,提供了一种基于ASR的音频处理装置,包括:
第一获取模块,用于接收当前时刻音频采集设备发送的第一音频段,并基于第一音频段,获取目标音频数据;
第二获取模块,用于根据目标音频数据获取目标对象对应的M个目标文本;
第三获取模块,用于获取目标对象的当前服务模式以及当前服务模式的N个参考文本,其中,M和N均为正整数;
确定模块,用于根据M个目标文本和N个参考文本,确定目标对象对应的资源。
根据本公开的另一方面,提供了一种电子设备,包括至少一个处理器,以及
与至少一个处理器通信连接的存储器;其中,
存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本公开第一个方面实施例的基于ASR的音频处理方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行本公开第一个方面实施例的基于ASR的音频处理方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现本公开第一个方面实施例的基于ASR的音频处理方法的步骤。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开一个实施例的基于ASR的音频处理方法的示意图;
图2是根据本公开一个实施例的基于ASR的音频处理方法的流程图;
图3是根据本公开一个实施例的基于ASR的音频处理方法的流程图;
图4是根据本公开一个实施例的基于ASR的音频处理方法的流程图;
图5是根据本公开一个实施例的基于ASR的音频处理方法的示意图;
图6是根据本公开一个实施例的基于ASR的音频处理方法的流程图;
图7是根据本公开一个实施例的基于ASR的音频处理方法的示意图;
图8是根据本公开一个实施例的基于ASR的音频处理装置的结构图;
图9是用来实现本公开实施例的基于ASR的音频处理方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
计算机是具备数据存储、修改功能,并实现对相关逻辑与数据的计算,是现代化智能电子设备。作为集成网络、计算、媒体等技术为一体的电子设备。
计算机技术是指计算机领域中所运用的技术方法和技术手段,或指其硬件技术、软件技术及应用技术。计算机技术具有明显的综合特性,它与电子工程、应用物理、机械工程、现代通信技术和数学等紧密结合,发展很快。
自动语音识别技术(Automatic Speech Recognition,ASR)是一种将人的语音转换为文本的技术。语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。ASR技术的目标是让计算机能够“听写”出不同人所说出的连续语音,也就是俗称的“语音听写机”,是实现“声音”到“文字”转换的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。语音识别是研究如何采用数字信号处理技术自动提取以及决定语音信号中最基本、最有意义的信息的一门新兴的边缘学科。它是语音信号处理学科的一个分支。
图1是根据本公开一个实施例的基于ASR的音频处理系统的示意图,如图1所示,该系统包括音频采集设备110、服务器120和终端设备130。
其中,音频采集设备110可以是一个或多个收音设备,可以用于采集音频;可选地,服务器120服务器120作为电子设备,具备承担响应服务请求、承担服务、保障服务的能力,在网络中为其它客户端提供计算或者应用服务。可选地,客户端可以为个人计算机(PC机)、智能电视终端、智能车载终端等电子设备,服务器120可以是云服务器120等。可选地,终端设备130是经由通信设施向服务器120输入程序和数据或接收服务器120输出处理结果的设备,本公开实施例中,终端设备130可以是手机,可选地,终端设备130上还可以部署应用程序,终端设备130调用应用程序实现与服务器120的信息交互。
下面结合参考附图描述本公开的基于ASR的音频处理方法及其装置。
图2是根据本公开一个实施例的基于ASR的音频处理方法的流程图,如图2所示,该方法由服务器执行,包括以下步骤:
S201,接收当前时刻音频采集设备发送的第一音频段,并基于第一音频段,获取目标音频数据。
可选地,服务器向音频采集设备发送开始指令,开始指令用于指示音频采集设备开始采集音频数据。音频采集设备接收服务器发送的开始指令后,开始进场收音,采集音频数据。
可选地,音频采集设备上部署有降噪芯片,如富迪芯片,可以通过降噪芯片和/或降噪算法对采集到的音频数据进行降噪,以提高音频数据的音质的清晰度,可选地,降噪算法可以是关闭算法等。
在一些实现中,为了提高音频的时效性,音频采集设备对采集到的音频数据进行切片,例如每隔预设时间段进行一次音频切片,获取第一音频段,并将第一音频段发送给服务器。可选地,本公开实施例中,可以每隔20S进行一次音频切片,获取第一音频段并发送给服务器。
服务器接收当前时刻音频采集设备发送的第一音频段,在一些实现中,将第一音频段与历史时刻的多个音频段合并,获取目标音频数据。在一些实现中,将当前时刻的第一音频段与上一时刻的候选音频数据进行合并,获取目标音频数据。
本公开实施例中,对音频数据的格式不作限制,为了避免存储资源浪费,提高音频数据的音质,可选地,音频数据的格式可以是多重音频格式,且支持多重压缩算法。
可选地,为了保证音频采集设备和服务器之间的数据传输的稳定性,本公开实施例中,音频采集设备支持断点续传,及断网自动重试功能,保障数据无丢失,也就是说,音频采集设备在收音后,将音频数据持久化存储至本地的同时,会将第一音频段发送至服务器,如遇到网络断开时记录断开时上传的第一音频段的标识(标识可以为数字编号,例如第1个第一音频段的标识为“1”,第2个第一音频段的标识为“2”),音频采集设备再次联接网络后从下一个第一音频段开始重新上传未上传的音频数据。
在一些实现中,以汽车销售场景为例,音频采集设备上有2个收音通道(左、右声道)分别对准主驾驶位和副驾驶位,左右麦克风独立输出两路音轨,实现话者分离,从音频采集设备端将不同对象的声音进行区分,也就是说,音频数据中仅包含来自目标对象的声音。可选地,本公开实施例中,目标对象可以是工作人员/销售人员,其他对象可以是客户,目标对象对应多种服务模式,例如试乘模式或试驾模式,在一些实现中,当前服务模式为试乘模式,音频采集设备上报的第一音频段为来自主驾驶位的收音通道的音频段。在一些实现中,当前服务模式为试驾模式,音频采集设备上报的第一音频段为来自副驾驶位的收音通道的音频段。
S202,根据目标音频数据获取目标对象对应的M个目标文本,M为正整数。
在一些实现中,目标音频数据中仅包含来自目标对象的声音,对目标音频数据进行ASR语音转写文本服务,获取目标音频数据中的M个目标文本;
在一些实现中,目标音频数据中可能同时包含来自目标对象和其他对象的声音,对目标音频数据进行ASR语音转写文本服务,获取文本数据,进而对文本数据进行语料标注,获取来自于目标对象的M个目标文本。
S203,获取目标对象的当前服务模式以及当前服务模式的N个参考文本,N为正整数。
在一些实现中,终端设备向服务器发送指示信息,该指示信息用于指示目标对象的当前服务模式,以汽车销售场景为例,目标对象的当前服务模式可以是试乘模式或试驾模式,其中,不同的模式对应不同的参考文本。
可选地,参考文本可以是当前试乘/试驾的车辆的属性参数,例如“车内大空间”、“轴距2.75米”、“配备2.0L自然吸气发动机”、“百公里油耗5.7-6.0L/100KM”等。可选地,参考文本还可以是当前试乘/试驾的车辆的优势介绍,例如“车身线条流畅”、“外观大气动感”、“造型简约时尚”等。
S204,根据M个目标文本和N个参考文本,确定目标对象对应的资源。
在一些实现中,可以将不同的目标文本分别和参考文本进行匹配,根据匹配结果确定M个目标文本所命中的第一参考文本,进而将N个参考文本中非第一参考文本的确定为第二参考文本,并根据第二参考文本确定目标对象对应的资源。
可选地,目标对象对应的资源可以是第二参考文本对应的推送信息,目标对象对应的资源可以引导目标对象更好的服务其他对象,促进OEM进行数字化转型。
本公开实施例通过接收当前时刻音频采集设备发送的第一音频段,并基于第一音频段,获取目标音频数据;根据目标音频数据获取目标对象对应的M个目标文本;获取目标对象的当前服务模式以及当前服务模式的N个参考文本;根据M个目标文本和N个参考文本,确定目标对象对应的资源。本公开实施例中,提高音频处理的灵活性,可以及时、准确的分析、发现目标对象服务过程中的缺漏,优化目标对象的资源,引导目标对象更好的进行服务,提高用户体验。
图3是根据本公开一个实施例的基于ASR的音频处理方法的流程图,如图3所示,该方法由服务器执行,包括以下步骤:
S301,接收当前时刻音频采集设备发送的第一音频段,并基于第一音频段,获取目标音频数据。
S302,根据目标音频数据获取目标对象对应的M个目标文本,M为正整数。
S303,获取目标对象的当前服务模式以及当前服务模式的N个参考文本,N为正整数。
关于步骤S301~步骤S303的介绍可以参见上述实施例的相关内容,此处不再赘述。
S304,获取N个参考文本中被M个目标文本命中的第一参考文本,以及未被M个目标文本命中的第二参考文本。
在一些实现中,针对M个目标文本中的任一目标文本,对目标文本进行词法处理,获取目标文本中的第一关键词信息。也就是说,对目标文本进行自然语言处理(NaturalLanguage Processing,NLP)词法分析,获取目标文本中的第一关键词信息,进而将第一关键词信息分别与N个参考文本中的任一参考文本进行匹配,获取第一关键词信息与任一参考文本的相似度。可选地,可以获取第一关键词信息对应的第一词向量,以及任一参考文本的第二词向量,进而计算第一词向量与第二词向量之间的余弦相似度,作为第一关键词信息与任一参考文本的相似度。响应于第一关键词信息与N个参考文本中任一参考文本的相似度大于或等于预设相似度阈值,确定第一关键词信息所对应的目标文本为第一参考文本。
在一些实现中,根据M个目标文本命中的第一参考文本获取第一参考文本集,进而将M个目标文本中的未存在于第一参考文本集中的参考文本确定为第二参考文本。
词的语义、句子的语义本身就是在文字之上的抽象,在一些实现中,为了提高准确度,获取目标文本中的第一关键词信息之后,还包括:对第一关键词信息进行语义处理,获取第一关键词信息的同义词,根据第一关键词信息的同义词对第一关键词信息进行扩充,可选地,可以通过结构化数据中,获取第一关键词信息的同义词,例如可以通过现有的知识图谱数据中,获取第一关键词信息的同义词,从而使得目标文本有更好的覆盖度。
S305,根据第一参考文本和/或第二参考文本,获取目标对象对应的资源。
在一些实现中,根据第二参考文本,生成目标对象的引导信息,作为目标对象对应的资源。可选地,以第二参考文本有多个为例进行说明,不同的参考文本具有不同的权重,也就是说参考文本和权重之间具有映射关系,可以根据映射关系获取不同第二参考文本对应的权重,进而根据第二参考文本的权重大小确定第二参考文本的顺序,进而根据第二参考文本的顺序生成目标对象的引导信息。
在一些实现中,队第二参考文本进行词法处理,提取第二参考文本中的第二关键词信息,进而根据第二关键词信息对预设引导模板进行内容填充,生成引导信息。
在一些实现中,根据第一参考文本的数量和第二参考文本的数量,确定目标对象的文本命中率。可选地,可以获取第一参考文本的数量和第二参考文本的数量的和值,进而将第一参考文本的数量与和值之间的比值作为文本命中率,并根据文本命中率调整目标对象对应的资源数量,例如,文本命中率与资源数量之间具有映射关系,可以根据文本命中率获取目标对象的资源数量,进而按照资源数量获取目标对象对应的资源。例如,若根据文本命中率获取目标对象的资源数量为2,则根据权重最大的两个第二参考文本生成目标对象的引导信息,也即目标对象的资源。
本公开实施例中,获取N个参考文本中被M个目标文本命中的第一参考文本,以及未被M个目标文本命中的第二参考文本,根据第一参考文本和/或第二参考文本,获取目标对象对应的资源。本公开实施例可以提高音频处理的准确性,可以实时、准确的分析、发现目标对象服务过程中的缺漏,解决目标对象资源的局限性,引导目标对象更好的进行服务,提高用户体验。
在一些实现中,服务器每次接收第一音频段,对目标对象的资源进行更新,并将更新后的目标对象的资源实时发送给终端设备进行展示。
在一些实现中,服务结束后,服务器向音频采集设备发送结束指令,指示音频采集设备停止采集音频。可选地,还可以根据第一参考文本集中不同的第一参考文本对应的权重,获取目标对象的评分信息,进而根据目标对象的文本命中率、目标对象的评分信息等生成目标对象的评分报告,并将评分报告发送给终端设备进行展示,以便于根据评分报告对目标对象进行资源优化。
图4是根据本公开一个实施例的基于ASR的音频处理方法的流程图,如图4所示,该方法由服务器执行,包括以下步骤:
S401,接收当前时刻音频采集设备发送的第一音频段,并获取历史时刻的候选音频数据。
关于步骤S401的介绍可以参见上述实施例中的相关内容,此处不再赘述。
在一些实现中,候选音频数据包括不同历史时刻的多个第二音频段,
S402,将第一音频段与候选音频数据进行合并,获取目标音频数据。
在一些实现中,获取第一音频段和多个第二音频段各自的属性参数,属性参数包括音频段的开始时间、结束时间和音频索引。根据任一音频段的开始时间、结束时间和音频索引对第一音频段和多个第二音频段进行合并,获取目标音频数据。如图5所示,在一些实现中,服务器接收第i个时刻的第一音频段510,根据属性参数,将第一音频段510与候选音频数据520进行合并,也就是说。将第i个时刻的第一音频段520,与不同历史时刻的多个第二音频段进行合并,获取目标音频数据530。
S403,根据目标音频数据获取目标对象对应的M个目标文本,M为正整数。
S404,获取目标对象的当前服务模式以及当前服务模式的N个参考文本,N为正整数。
S405,根据M个目标文本和N个参考文本,确定目标对象对应的资源。
关于步骤S403~步骤S405的介绍可以参见上述实施例的相关内容,此处不再赘述。
本公开实施例接收当前时刻音频采集设备发送的第一音频段,并获取历史时刻的候选音频数据。将第一音频段与候选音频数据进行合并,获取目标音频数据。本公开实施例可以提高音频处理的准确性,可以实时、准确的分析、发现目标对象服务过程中的缺漏,解决目标对象资源的局限性,引导目标对象更好的进行服务,提高用户体验。
图6是根据本公开一个实施例的基于ASR的音频处理方法的流程图,如图6所示,该方法由服务器执行,包括以下步骤:
S601,接收当前时刻音频采集设备发送的第一音频段,并基于第一音频段,获取目标音频数据。
关于步骤S601的介绍可以参见上述实施例的相关内容,此处不再赘述。
S602,调用ASR算法对目标音频数据进行识别,获取文本数据,文本数据包括隶属于不同对象的多个候选文本。
在一些实现中,目标音频数据中可能同时包含来自目标对象和其他对象的声音,调用ASR算法对目标音频数据进行语音转写文本服务,获取文本数据,其中,文本数据包括隶属于不同对象的多个候选文本。
S603,获取不同对象的语料信息,并根据不同对象的语料信息对候选文本进行语料标注,获取目标对象对应的M个目标文本,M为正整数。
可选地,可以在语料库中获取不同对象的语料信息,其中,语料库指经科学取样和加工的大规模电子文本库,其中存放的是在语言的实际使用中真实出现过的语言材料。
以汽车销售场景为例进行说明,目标对象是工作人员/销售人员,其他对象是客户,在语料库中获取目标对象和其他对象的语料信息,进而根据不同对象的语料信息对候选文本进行语料标注,获取目标对象对应的M个目标文本。
S604,获取目标对象的当前服务模式以及当前服务模式的N个参考文本,N为正整数。
S605,根据M个目标文本和N个参考文本,确定目标对象对应的资源。
关于步骤S604~步骤S605的介绍可以参见上述实施例的相关内容,此处不再赘述。
本公开实施例调用ASR算法对目标音频数据进行识别,获取文本数据,文本数据包括隶属于不同对象的多个候选文本,获取不同对象的语料信息,并根据不同对象的语料信息对候选文本进行语料标注,获取目标对象对应的M个目标文本。本公开实施例可以提高音频处理的准确性,可以实时、准确的分析、发现目标对象服务过程中的缺漏,解决目标对象资源的局限性,引导目标对象更好的进行服务,提高用户体验。
图7是根据本公开一个实施例的基于ASR的音频处理方法的示意图,如图7所示,终端设备上部署有应用程序,终端设备调用应用程序向服务器发送服务开始的指示信息,该指示信息中还包括目标对象当前的服务模式,服务器收到服务开始的指示信息后,向音频采集设备发送开始指令,开始指令用于指示音频采集设备开始采集音频数据。音频采集设备接收服务器发送的开始指令后,开始近场收音,获取第一音频段,并发送给服务器,服务器接收当前时刻音频采集设备发送的第一音频段,并基于第一音频段,获取目标音频数据,根据目标音频数据获取目标对象对应的M个目标文本,获取目标对象的当前服务模式以及当前服务模式的N个参考文本,根据M个目标文本和N个参考文本,确定目标对象对应的资源,将资源发送给终端设备进行展示。其中,若服务器接收到切换模式的指示信息,对目标对象的当前服务模式进行切换,以更新当前服务模式的N个参考文本。服务器继续接收音频采集设备发送的第一音频段,并根据第一音频段对目标对象对应的资源进行更新,直至收到终端设备发送的指示服务结束的指示信息,服务器向音频采集设备发送结束指令,指示音频采集设备停止收音,并获取目标对象的评价报告,发送给终端设备进行展示。其中,获取评价报告的过程可以参见上述实施例中的介绍,此处不再赘述。
本公开实施例可以提高音频处理的准确性,可以实时、准确的分析、发现目标对象服务过程中的缺漏,解决目标对象资源的局限性,引导目标对象更好的进行服务,提高用户体验。
图8是根据本公开一个实施例的基于ASR的音频处理装置的结构图,如图8所示,基于ASR的音频处理装置800包括:
第一获取模块810,用于接收当前时刻音频采集设备发送的第一音频段,并基于第一音频段,获取目标音频数据;
第二获取模块820,用于根据目标音频数据获取目标对象对应的M个目标文本;
第三获取模块830,用于获取目标对象的当前服务模式以及当前服务模式的N个参考文本,其中,M和N均为正整数;
确定模块840,用于根据M个目标文本和N个参考文本,确定目标对象对应的资源。
在一些实现中,确定模块840,还用于:
获取N个参考文本中被M个目标文本命中的第一参考文本,以及未被M个目标文本命中的第二参考文本;
根据第一参考文本和/或第二参考文本,获取目标对象对应的资源。
在一些实现中,确定模块840,还用于:
针对M个目标文本中的任一目标文本,对目标文本进行词法处理,获取目标文本中的第一关键词信息;
将第一关键词信息分别与N个参考文本中的任一参考文本进行匹配,获取第一关键词信息与任一参考文本的相似度;
响应于任一相似度大于或等于预设相似度阈值,确定任一目标文本为第一参考文本;
将M个目标文本中的非第一参考文本的参考文本确定为第二参考文本。
在一些实现中,确定模块840,还用于:
对第一关键词信息进行语义处理,获取第一关键词信息的同义词信息;
根据同义词信息对第一关键词信息进行扩充。
在一些实现中,确定模块840,还用于:
根据第二参考文本,生成目标对象的引导信息,作为目标对象对应的资源。
在一些实现中,确定模块840,还用于:
提取第二参考文本中的第二关键词信息,根据第二关键词信息对预设引导模板进行内容填充,生成引导信息。
在一些实现中,确定模块840,还用于:
根据第一参考文本的数量和第二参考文本的数量,确定目标对象的文本命中率;
根据文本命中率调整目标对象对应的资源数量,按照资源数量获取目标对象对应的资源。
在一些实现中,第一获取模块810,还用于:
获取历史时刻的候选音频数据;
将第一音频段与候选音频数据进行合并,获取目标音频数据。
在一些实现中,候选音频数据包括不同历史时刻的多个第二音频段,第一获取模块810,还用于:
获取第一音频段和多个第二音频段各自的属性参数,属性参数包括音频段的开始时间、结束时间和音频索引;
根据任一音频段的开始时间、结束时间和音频索引对第一音频段和多个第二音频段进行合并,获取目标音频数据。
在一些实现中,第二获取模块820,还用于:
调用ASR算法对目标音频数据进行识别,获取文本数据,文本数据包括隶属于不同对象的多个候选文本;
获取不同对象的语料信息,并根据不同对象的语料信息对候选文本进行语料标注,获取目标对象对应的M个目标文本。
在一些实现中,基于ASR的音频处理装置800还包括展示模块850,用于:
将目标对象对应的资源发送给终端设备进行展示。
本公开实施例中,提高音频处理的灵活性,可以及时、准确的分析、发现目标对象服务过程中的缺漏,优化目标对象的资源,引导目标对象更好的进行服务,提高用户体验。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图9示出了可以用来实施本公开的实施例的示例电子设备900的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。计算单元901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如基于ASR的音频处理方法。例如,在一些实施例中,基于ASR的音频处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM 903并由计算单元901执行时,可以执行上文描述的基于ASR的音频处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行基于ASR的音频处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (25)
1.一种基于自动语音识别的音频处理方法,其中,由服务器执行,包括:
接收当前时刻音频采集设备发送的第一音频段,并基于所述第一音频段,获取目标音频数据;
根据所述目标音频数据获取目标对象对应的M个目标文本,所述M为正整数;
获取所述目标对象的当前服务模式以及所述当前服务模式的N个参考文本,所述N为正整数;
根据所述M个目标文本和所述N个参考文本,确定所述目标对象对应的资源。
2.根据权利要求1所述的方法,其中,所述根据所述M个目标文本和所述N个参考文本,获取所述目标对象对应的资源,包括:
获取所述N个参考文本中被所述M个目标文本命中的第一参考文本,以及未被所述M个目标文本命中的第二参考文本;
根据所述第一参考文本和/或所述第二参考文本,获取所述目标对象对应的资源。
3.根据权利要求2所述的方法,其中,所述获取所述N个参考文本中被所述M个目标文本命中的第一参考文本,以及未被所述M个目标文本命中的第二参考文本,包括:
针对所述M个目标文本中的任一目标文本,对所述目标文本进行词法处理,获取所述目标文本中的第一关键词信息;
将所述第一关键词信息分别与所述N个参考文本中的任一参考文本进行匹配,获取所述第一关键词信息与所述任一参考文本的相似度;
响应于任一所述相似度大于或等于预设相似度阈值,确定所述任一目标文本为所述第一参考文本;
将所述M个目标文本中的非第一参考文本的参考文本确定为所述第二参考文本。
4.根据权利要求3所述的方法,其中,所述获取所述目标文本中的第一关键词信息之后,还包括:
对所述第一关键词信息进行语义处理,获取所述第一关键词信息的同义词信息;
根据所述同义词信息对所述第一关键词信息进行扩充。
5.根据权利要求2所述的方法,其中,所述根据所述第一参考文本和/或所述第二参考文本,获取所述目标对象对应的资源,包括:
根据所述第二参考文本,生成所述目标对象的引导信息,作为所述目标对象对应的资源。
6.根据权利要求5所述的方法,其中,所述根据所述第二参考文本,生成所述目标对象的引导信息,包括:
提取所述第二参考文本中的第二关键词信息,根据所述第二关键词信息对预设引导模板进行内容填充,生成所述引导信息。
7.根据权利要求2所述的方法,其中,还包括:
根据所述第一参考文本的数量和所述第二参考文本的数量,确定所述目标对象的文本命中率;
根据所述文本命中率调整所述目标对象对应的资源数量,按照所述资源数量获取所述目标对象对应的资源。
8.根据权利要求1所述的方法,其中,所述基于所述第一音频段,获取目标音频数据,包括:
获取历史时刻的候选音频数据;
将所述第一音频段与所述候选音频数据进行合并,获取所述目标音频数据。
9.根据权利要求8所述的方法,其中,所述候选音频数据包括不同历史时刻的多个第二音频段,所述将所述第一音频段与所述候选音频数据进行合并,获取所述目标音频数据,包括:
获取所述第一音频段和所述多个第二音频段各自的属性参数,所述属性参数包括音频段的开始时间、结束时间和音频索引;
根据任一音频段的所述开始时间、所述结束时间和所述音频索引对所述第一音频段和所述多个第二音频段进行合并,获取所述目标音频数据。
10.根据权利要求1所述的方法,其中,所述根据所述目标音频数据获取目标对象对应的M个目标文本,包括:
调用ASR算法对所述目标音频数据进行识别,获取文本数据,所述文本数据包括隶属于不同对象的多个候选文本;
获取不同对象的语料信息,并根据所述不同对象的语料信息对所述候选文本进行语料标注,获取所述目标对象对应的所述M个目标文本。
11.根据权利要求1-10任一项所述的方法,其中,还包括:
将所述目标对象对应的所述资源发送给终端设备进行展示。
12.一种基于自动语音识别的音频处理装置,其中,包括:
第一获取模块,用于接收当前时刻音频采集设备发送的第一音频段,并基于所述第一音频段,获取目标音频数据;
第二获取模块,用于根据所述目标音频数据获取目标对象对应的M个目标文本;
第三获取模块,用于获取所述目标对象的当前服务模式以及所述当前服务模式的N个参考文本,其中,所述M和N均为正整数;
确定模块,用于根据所述M个目标文本和所述N个参考文本,确定所述目标对象对应的资源。
13.根据权利要求12所述的装置,其中,所述确定模块,还用于:
获取所述N个参考文本中被所述M个目标文本命中的第一参考文本,以及未被所述M个目标文本命中的第二参考文本;
根据所述第一参考文本和/或所述第二参考文本,获取所述目标对象对应的资源。
14.根据权利要求13所述的装置,其中,所述确定模块,还用于:
针对所述M个目标文本中的任一目标文本,对所述目标文本进行词法处理,获取所述目标文本中的第一关键词信息;
将所述第一关键词信息分别与所述N个参考文本中的任一参考文本进行匹配,获取所述第一关键词信息与所述任一参考文本的相似度;
响应于任一所述相似度大于或等于预设相似度阈值,确定所述任一目标文本为所述第一参考文本;
将所述M个目标文本中的非第一参考文本的参考文本确定为所述第二参考文本。
15.根据权利要求14所述的装置,其中,所述确定模块,还用于:
对所述第一关键词信息进行语义处理,获取所述第一关键词信息的同义词信息;
根据所述同义词信息对所述第一关键词信息进行扩充。
16.根据权利要求13所述的装置,其中,所述确定模块,还用于:
根据所述第二参考文本,生成所述目标对象的引导信息,作为所述目标对象对应的资源。
17.根据权利要求16所述的装置,其中,所述确定模块,还用于:
提取所述第二参考文本中的第二关键词信息,根据所述第二关键词信息对预设引导模板进行内容填充,生成所述引导信息。
18.根据权利要求13所述的装置,其中,所述确定模块,还用于:
根据所述第一参考文本的数量和所述第二参考文本的数量,确定所述目标对象的文本命中率;
根据所述文本命中率调整所述目标对象对应的资源数量,按照所述资源数量获取所述目标对象对应的资源。
19.根据权利要求12所述的装置,其中,所述第一获取模块,还用于:
获取历史时刻的候选音频数据;
将所述第一音频段与所述候选音频数据进行合并,获取所述目标音频数据。
20.根据权利要求19所述的装置,其中,所述候选音频数据包括不同历史时刻的多个第二音频段,所述第一获取模块,还用于:
获取所述第一音频段和所述多个第二音频段各自的属性参数,所述属性参数包括音频段的开始时间、结束时间和音频索引;
根据任一音频段的所述开始时间、所述结束时间和所述音频索引对所述第一音频段和所述多个第二音频段进行合并,获取所述目标音频数据。
21.根据权利要求12所述的装置,其中,所述第二获取模块,还用于:
调用ASR算法对所述目标音频数据进行识别,获取文本数据,所述文本数据包括隶属于不同对象的多个候选文本;
获取不同对象的语料信息,并根据所述不同对象的语料信息对所述候选文本进行语料标注,获取所述目标对象对应的所述M个目标文本。
22.根据权利要求12-21任一项所述的装置,其中,还包括展示模块,用于:
将所述目标对象对应的所述资源发送给终端设备进行展示。
23.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-11中任一项所述的方法。
24.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-11中任一项所述的方法。
25.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-11中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211103261.7A CN115482823A (zh) | 2022-09-09 | 2022-09-09 | 基于自动语音识别的音频处理方法及其装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211103261.7A CN115482823A (zh) | 2022-09-09 | 2022-09-09 | 基于自动语音识别的音频处理方法及其装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115482823A true CN115482823A (zh) | 2022-12-16 |
Family
ID=84392895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211103261.7A Pending CN115482823A (zh) | 2022-09-09 | 2022-09-09 | 基于自动语音识别的音频处理方法及其装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115482823A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115910042A (zh) * | 2023-01-09 | 2023-04-04 | 百融至信(北京)科技有限公司 | 识别格式化音频文件的信息种类的方法和装置 |
-
2022
- 2022-09-09 CN CN202211103261.7A patent/CN115482823A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115910042A (zh) * | 2023-01-09 | 2023-04-04 | 百融至信(北京)科技有限公司 | 识别格式化音频文件的信息种类的方法和装置 |
CN115910042B (zh) * | 2023-01-09 | 2023-05-05 | 百融至信(北京)科技有限公司 | 识别格式化音频文件的信息种类的方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9373322B2 (en) | System and method for determining query intent | |
CN110956955B (zh) | 一种语音交互的方法和装置 | |
CN103635963A (zh) | 语言模型的跨语种初始化 | |
CN105391730A (zh) | 一种信息反馈方法、装置及系统 | |
CN109785829B (zh) | 一种基于语音控制的客服辅助方法和系统 | |
KR20210098397A (ko) | 차량용 기기의 응답 속도 테스트 방법, 장치, 기기 및 저장매체 | |
CN111428011B (zh) | 词语的推荐方法、装置、设备及存储介质 | |
CN113889113A (zh) | 分句方法、装置、存储介质及电子设备 | |
US20190005950A1 (en) | Intention estimation device and intention estimation method | |
CN115482823A (zh) | 基于自动语音识别的音频处理方法及其装置 | |
CN113903329A (zh) | 语音处理方法、装置、电子设备及存储介质 | |
CN112527235A (zh) | 语音播放方法、装置、设备以及存储介质 | |
CN113157877A (zh) | 多语义识别方法、装置、设备和介质 | |
CN111414748A (zh) | 话务数据处理方法及装置 | |
CN113808572B (zh) | 语音合成方法、装置、电子设备和存储介质 | |
CN112711654B (zh) | 语音机器人的汉字解释话术生成方法、系统、设备及介质 | |
CN115497458A (zh) | 智能语音助手的持续学习方法、装置、电子设备及介质 | |
CN114049875A (zh) | 一种tts播报方法、装置、设备以及存储介质 | |
CN114299955A (zh) | 语音交互的方法、装置、电子设备及存储介质 | |
CN112509567A (zh) | 语音数据处理的方法、装置、设备、存储介质及程序产品 | |
CN114462364B (zh) | 录入信息的方法和装置 | |
CN110931014A (zh) | 基于正则匹配规则的语音识别方法及装置 | |
CN115688797A (zh) | 文本处理方法、装置、电子设备及计算机可读存储介质 | |
CN113763921B (zh) | 用于纠正文本的方法和装置 | |
EP4099320A2 (en) | Method and apparatus of processing speech, electronic device, storage medium, and program product |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |