CN112750425A - 语音识别方法、装置、计算机设备及计算机可读存储介质 - Google Patents
语音识别方法、装置、计算机设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN112750425A CN112750425A CN202010074075.XA CN202010074075A CN112750425A CN 112750425 A CN112750425 A CN 112750425A CN 202010074075 A CN202010074075 A CN 202010074075A CN 112750425 A CN112750425 A CN 112750425A
- Authority
- CN
- China
- Prior art keywords
- voice
- speech
- hidden layer
- segment
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 90
- 238000012545 processing Methods 0.000 claims abstract description 31
- 230000008569 process Effects 0.000 claims abstract description 28
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 239000012634 fragment Substances 0.000 claims description 45
- 238000001228 spectrum Methods 0.000 claims description 27
- 230000015654 memory Effects 0.000 claims description 19
- 238000013467 fragmentation Methods 0.000 claims description 11
- 238000006062 fragmentation reaction Methods 0.000 claims description 11
- 230000002441 reversible effect Effects 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 22
- 238000005516 engineering process Methods 0.000 description 21
- 239000013598 vector Substances 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000003595 spectral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 238000013473 artificial intelligence Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000006403 short-term memory Effects 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000037433 frameshift Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
- Telephonic Communication Services (AREA)
Abstract
本申请公开了一种语音识别方法、装置、计算机设备及计算机可读存储介质,属于语音处理领域。本申请通过获取待识别的语音数据;对语音数据进行特征提取,得到至少一个语音片段的语音特征;将至少一个语音片段输入语音识别模型,由语音识别模型中级联的隐层依次对各个语音片段的语音特征进行处理,得到各个语音片段的隐层特征,一个语音片段的一个隐层特征基于时序上位于该一个语音片段之后的第一目标数量个语音片段确定;基于各个语音片段的隐层特征,得到语音数据对应的文本信息。在上述过程中,一个语音片段对应的文本信息,是基于其之后的多个语音片段来确定的,在语音识别过程中,充分获取到了下文信息,提高语音识别的准确率。
Description
技术领域
本申请涉及语音处理领域,特别涉及一种语音识别方法、装置、计算机设备及计算机可读存储介质。
背景技术
语音识别,是将语音数据转换为文本输出的过程。语音数据往往具有上下文联系,在语音识别时利语音数据的用上下文信息可以使识别结果更加准确。对于实时输入的语音数据,在进行语音识别时,通常应用延时控制的双向长短时记忆网络,来获取下文信息,例如,延时控制的双向长短时记忆网络获取到当前输入语音数据后,可以延时处理,在获取到一段下文语音数据后,再基于下文语音数据对当前输入语音数据进行识别。
但是,为保证语音识别的实时性,延时的时长往往较短,因而在延时时段内所获取到的下文语音数据也较少,例如,通常情况下仅能获取300至600毫秒的语音片段,导致语音识别过程中获取到的下文信息较少,进而影响识别结果的准确率。
发明内容
本申请实施例提供了一种语音识别方法、装置、计算机设备及计算机可读存储介质,可以提高语音识别结构的准确率。该技术方案如下:
一方面,提供了一种语音识别方法,该方法包括:
获取待识别的语音数据;
对该语音数据进行特征提取,得到该语音数据中至少一个语音片段的语音特征;
将该至少一个语音片段输入语音识别模型,由该语音识别模型中第一目标数量个级联的隐层依次对各个该语音片段的语音特征进行处理,得到各个该语音片段的隐层特征,一个语音片段的一个隐层特征基于时序上位于该一个语音片段之后的该第一目标数量个语音片段以及该一个语音片段的语音特征确定;
基于各个该语音片段的隐层特征,得到该语音数据对应的文本信息。
一方面,提供了一种语音识别方法,该方法包括:
语音获取模块,用于响应于语音输入指令,获取实时输入的语音数据;
分片模块,用于对该语音数据进行分片处理,得到至少一个语音分片;
文本信息获取模块,用于获取各个该语音分片对应的文本信息;
显示模块,用于响应于语音输入完成的指令,在目标页面显示该文本信息。
一方面,提供了一种语音识别装置,该装置包括:
语音获取模块,用于获取待识别的语音数据;
语音特征获取模块,用于对该语音数据进行特征提取,得到该语音数据中至少一个语音片段的语音特征;
隐层特征获取模块,用于将该至少一个语音片段输入语音识别模型,由该语音识别模型中第一目标数量个级联的隐层依次对各个该语音片段的语音特征进行处理,得到各个该语音片段的隐层特征,一个语音片段的一个隐层特征基于时序上位于该一个语音片段之后的该第一目标数量个语音片段以及该一个语音片段的语音特征确定;
文本信息获取模块,用于基于各个该语音片段的隐层特征,得到该语音数据对应的文本信息。
在一种可能实现方式中,该隐层特征获取模块用于:
对于该语音识别模型中的任一个隐层,通过该任一个隐层对该任一语音片段的特征进行正向运算,得到第一特征;
通过该任一个隐层对该任一语音片段的特征、该后一语音片段的特征进行逆向运算,得到第二特征;
对该第一特征和该第二特征进行拼接,得到该任一个隐层输出的特征。
在一种可能实现方式中,该隐层特征获取模块用于:
获取该后一语音片段中第二目标数量个语音帧;
通过该任一个隐层对该任一语音片段、该第二目标数量个语音帧对应的特征进行逆向运算,得到该第二特征。
在一种可能实现方式中,该文本信息获取模块,用于:
基于该隐层特征,确定各个该语音片段对应的音素信息;
基于该音素信息、发音词典以及语言模型,确定该语音数据对应的文本信息,该发音词典用于指示音素与发音之间的映射关系,该语言模型用于确定组成该文本信息的各个词组所对应的概率值。
在一种可能实现方式中,该装置还包括:
显示模块,用于将该语音数据对应的该文本信息在目标页面进行显示。
一方面,提供了一种语音识别装置,该装置包括:
语音获取模块,用于响应于语音输入指令,获取实时输入的语音数据;
分片模块,用于对该语音数据进行分片处理,得到至少一个语音分片;
文本信息获取模块,用于获取各个该语音分片对应的文本信息;
显示模块,用于响应于语音输入完成的指令,在目标页面显示该文本信息。
在一种可能实现方式中,该文本信息获取模块用于:
向服务器发送语音识别请求,该语音识别请求携带该至少一个语音分片;
接收该服务器返回的该文本信息,该文本信息是该服务器基于该语音分片中各个语音片段的隐层特征确定的。
一方面,提供了一种计算机设备,该计算机设备包括一个或多个处理器和一个或多个存储器,该一个或多个存储器中存储有至少一条程序代码,该至少一条程序代码由该一个或多个处理器加载并执行以实现该语音识别方法所执行的操作。
一方面,提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条程序代码,该至少一条程序代码由处理器加载并执行以实现该语音识别方法所执行的操作。
本申请实施例提供的技术方案,通过获取待识别的语音数据;对该语音数据进行特征提取,得到该语音数据中至少一个语音片段的语音特征;将该至少一个语音片段输入语音识别模型,由该语音识别模型中第一目标数量个级联的隐层依次对各个语音片段的语音特征进行处理,得到各个语音片段的隐层特征,一个语音片段的一个隐层特征基于时序上位于该一个语音片段之后的第一目标数量个语音片段确定;基于各个语音片段的隐层特征,得到该语音数据对应的文本信息。在上述语音识别过程中,一个语音片段对应的文本信息,是基于其之后的多个语音片段来确定的,在语音识别过程中,充分获取到了下文信息,提供语音识别的准确率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种语音识别系统的示意图;
图2是本申请实施例提供的一种语音识别方法的流程图;
图3是本申请实施例提供的一种语音识别模型按时序展开的结构示意图;
图4是本申请实施例提供的一种隐层特征提取原理示意图;
图5是本申请实施例提供的一种语音识别模型的示意图;
图6是本申请实施例提供的一种解码器结构示意图;
图7是本申请实施例提供的一种文本信息显示方式示意图;
图8是本申请实施例提供的一种文本信息获取方法的流程图;
图9是本申请实施例提供的一种目标页面示意图;
图10是本申请实施例提供的一种文本信息显示效果示意图;
图11是本申请实施例提供的一种语音识别装置的结构示意图;
图12是本申请实施例提供的一种语音识别装置的结构示意图;
图13是本申请实施例提供的一种终端的结构示意图;
图14是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音技术、自然语言处理技术以及机器学习/深度学习等几大方向。本申请实施例提供的技术方案涉及语音技术、机器学习等。
其中,语音技术(Speech Technology)的关键技术有自动语音识别技术(Automatic Speech Recognition,ASR)和语音合成技术(Text To Speech,TTS)以及声纹识别技术。让计算机能听、能看、能说、能感觉,是未来人机交互的发展方向,其中语音成为未来最被看好的人机交互方式之一。本申请实施例提供的技术方案主要涉及自动语音识别技术,通过自动语音识别技术将语音数据转换为文本信息。
以下,对本申请涉及的术语进行解释:
流式语音识别(Streaming Speech Recognition):亦称为在线语音识别(OnlineSpeech Recognition),是一种在流式接收语音数据的同时,进行语音识别的解码流程。应用流式语音识别技术,在用户表达内容的过程可以立即反馈文本内容,交互具有实时性,适用于在线语音听写。
语音特征(Speech Feature):是通过一些信号处理技术,从输入的语音数据中提取的特征,通过特征向量的表示形式供声学模型处理,以尽可能降低环境噪声、信道、说话人等因素对识别造成的影响。在本申请中提取语音数据的频谱维度的特征,作为语音特征。
图1是本申请实施例提供的一种语音识别系统的示意图,参见图1,该语音识别系统100包括:终端110和语音识别平台140。
终端110通过无线网络或有线网络与语音识别平台140相连。终端110可以是智能手机、游戏主机、台式计算机、平板电脑、电子书阅读器、MP3(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)播放器、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器和膝上型便携计算机中的至少一种。终端110安装和运行有支持语音输入、语音识别的应用程序。该应用程序可以是社交类应用程序、即时通讯类应用程序等。示例性的,终端110是用户使用的终端,终端110中运行的应用程序内登录有用户账号。
语音识别平台140包括一台服务器、多台服务器、云计算平台和虚拟化中心中的至少一种。语音识别平台140用于为支持语音识别的应用程序提供后台服务。可选地,语音识别平台140承担主要语音识别工作,终端110承担次要语音识别工作;或者,语音识别平台140承担次要语音识别工作,终端110承担主要语音识别工作;或者,语音识别平台140或终端110分别可以单独承担语音识别工作。
可选地,语音识别平台140包括:接入服务器、语音识别服务器和数据库。接入服务器用于为终端110提供接入服务。语音识别服务器用于提供语音识别有关的后台服务。语音识别服务器可以是一台或多台。当语音识别服务器是多台时,存在至少两台语音识别服务器用于提供不同的服务,和/或,存在至少两台语音识别服务器用于提供相同的服务,比如以负载均衡方式提供同一种服务,本申请实施例对此不加以限定。语音识别服务器中可以设置有语音识别模型、语言模型等。
终端110可以泛指多个终端中的一个,本实施例仅以终端110来举例说明。
本领域技术人员可以知晓,上述终端的数量可以更多或更少。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量,此时上述图像检测系统还包括其他终端。本申请实施例对终端的数量和设备类型不加以限定。
图2是本申请实施例提供的一种语音识别方法的流程图。该方法可以应用于上述终端或者服务器,在本申请实施例中,以服务器作为执行主体,对该语音识别方法进行介绍,参见图2,该实施例具体可以包括以下步骤:
201、服务器获取待识别的语音数据。
其中,该语音数据可以为用户实时输入的语音数据,也可以为存储在服务器中的一段语音数据,还可以为从音频文件、视频文件中截取的一段语音数据,本申请实施例对具体采用哪种语音数据不作限定。
在本申请实施例中,该服务器可以为目标应用程序的后台服务器,该目标应用程序可以支持语音输入,例如,该目标应用程序可以为即时通讯类应用程序等。在一种可能实现方式中,当用户在任一终端通过该目标应用程序进行语音输入时,终端可以获取用户实时输入的语音数据,对语音数据进行分片、打包等处理后,发送至该服务器,由该服务器执行后续的语音识别步骤。
202、服务器对该语音数据进行频谱特征提取,得到该语音数据中各个语音帧对应的频谱特征。
其中,该频谱特征可以用于指示语音数据在频域的变化信息。当然,该服务器也可以提取该语音数据其他维度的特征,本申请实施例对此不作限定,在本申请实施例中,以提取频谱特征为例进行说明。在一种可能实现方式中,该频谱特征的获取过程具体可以包括以下步骤:
步骤一、服务器对语音数据进行预处理。
在本申请实施例中,该预处理过程可以包括预加重、分帧、加窗等处理过程。该与处理过程可以降低由于发声器官、采集语音信号的设备所带来的混叠、高次谐波失真、高频等因素,对语音数据质量的影响。
在一种可能实现方式中,首先,该服务器可以对该语音数据进行预加重,例如,可以通过一个高通滤波器对语音数据进行预加重处理,以对语音数据中的高频部分进行加重,增加高频分辨率,便于后续进行特征提取。然后,该服务器可以按照目标时长,对该语音数据进行分帧,得到该语音数据的多个语音帧,其中,该目标时长可以由开发人员进行设置,本申请实施例对此不作限定,在本申请实施例中,各个语音帧的帧移可以为10ms。最后,该服务器可以对各个语音帧进行加窗处理,以增强各个语音帧与其前一个、后一个语音帧之间的连续性,例如,可以应用汉明窗等窗函数对各个语音帧进行加窗处理。
需要说明的是,上述对语音数据预处理过程的描述,仅是一种示例性描述,本申请实施例对具体采用哪种预处理方法不作限定。
步骤二、服务器对预处理后的语音数据提取频谱特征。
在本申请实施例中,该服务器可以获取语音数据对应的梅尔频率倒谱系数。
在一种可能实现方式中,首先,该服务器可以对各个语音帧进行快速傅里叶变换,得到各个语音帧在频域上的能量分布信息,即得到各个语音帧的频谱,该服务器可以基于该频谱得到各个语音帧的功率谱,例如,可以对各个语音帧的频谱取模型平方,得到该功率谱。然后,该服务器可以将各个帧的功率谱通过N个Mel(梅尔)尺度的滤波器组,一个滤波器组可以包括M个三角形滤波器,该服务器可以获取各个滤波器组的输出结果,计算其对数能量。其中,N和M均为正整数,其具体数目可以由开发人员进行设置,本申请实施例对此不作限定。最后,该服务器可以对各个对数能量进行离散余弦变换,得到该梅尔频率倒谱系数,将该梅尔频率倒谱系数作为语音数据的频谱特征。
需要说明的是,上述对梅尔频率倒谱系数获取方法的说明,仅是一种示例性说明,本申请实施例对此不作具体限定。
在一种可能实现方式中,语音数据的频谱特征中还可以包括梅尔频率倒谱系数的变化信息,例如,该服务器还可以计算各个语音帧的梅尔频率倒谱系数之间的差分谱,得到一阶差分参数和二阶差分参数。基于一个语音帧的梅尔频率倒谱系数、一阶差分参数、二阶差分参数,确定该频谱特征。该梅尔频率倒谱系数可以用于指示语音数据的静态特征,静态特征之间的差分谱可以用于指示语音数据的动态特征,将静态特征和动态特征相结合,可以提高语音识别结果的准确率。在一种可能实现方式中,该服务器还可以获取各个语音帧的音量信息,即计算各个语音帧的帧能量,将该帧能量添加至该频谱特征中。当然,该频谱特征中还可以包括其他维度的信息,本申请实施例对此不作限定。
需要说明的是,上述对频谱特征获取方法的说明,仅是一种示例性说明,本申请实施例对具体采用哪种方法获取该频谱特征不作限定。
203、服务器将属于同一个语音片段的至少一个语音帧所对应的频谱特征,拼接为一个语音特征。
其中,一个语音片段可以包括语音数据中的多个语音帧,其具体数目可以由开发人员进行设置,本申请实施例对此不作限定。在一种可能实现方式中,该服务器可以按照预设时长对语音数据进行划分,得到多个语音片段,一个语音片段可以包括多个语音帧,一个语音片段的语音特征可以由各个语音帧的频谱特征组成。其中,该预设时长可以由开发人员进行设置,本申请实施例对此不作限定。以该预设时长设置为600ms,每个语音帧时长为10ms为例,该服务器获取到的各个语音片段可以包括60个语音帧。当最后一个语音片段中的语音帧数目不足60时,该服务器可以对最后一个语音帧进行复制,将复制出的语音帧添加在该最后一个语音帧之后,以补齐最后一个语音片段的数据。在一种可能实现方式中,该服务器还可以将多个语音帧组合为一个中间帧,例如,可以将三个语音帧组成一个中间帧,每个600ms的语音片段可以包括20个中间帧,当最后一个语音片段所包含的中间帧数量不足时,该服务器可以对最后一个中间帧进行复制,将复制出的中间帧添加在该最后一个中间帧之后,以补齐最后一个语音片段的数据。本申请实施例对语音片段的具体确定方法不作限定,在本申请实施例中,以该语音片段中包括多个中间帧为例进行说明。
在本申请实施例中,可以基于各个语音帧的时序顺序,对各个语音帧对应的频谱特征进行拼接,得到语音特征,例如,当频谱特征表示为向量时,可以按照各个语音帧的时序,将各个向量首尾相接,得到一个高维度的向量作为该语音特征。当然,该服务器还可以应用其他方法进行特征拼接,本申请实施例对此不作限定。
在本申请实施例中,通过特征拼接得到语音片段的语音特征,在后续语音识别过程中,以语音片段为单位,对语音片段中的多个语音帧同步处理,可以提高语音识别效率。
需要说明的是,上述步骤202和步骤203是服务器对该语音数据进行特征提取,得到该语音数据中至少一个语音片段的语音特征的步骤。通过特征提取的方式提取出语音数据的关键信息,将关键信息以特征的形式应用于后续的识别过程中,确保识别结果准确。
204、服务器将该至少一个语音片段的语音特征输入该语音识别模型。
其中,该语音识别模型可以基于一个语音片段之后的多个语音片段的语音特征,对该一个语音片段进一步特征提取,使该一个语音片段的特征可以融合之后的多个语音片段的信息。例如,该服务器在通过该语音识别模型对一个语音片段进行特征提取时,可以获取时序上位于该一个语音片段之后的多个语音片段的特征,将该多个语音片段的特征与该一个语音片段的特征进行加权运算,则该一个语音片段对应的输出结果可以融合其之后的多个语音片段的特征。
在一种可能实现方式中,该语音识别模型可以为基于TLC-BLSTM(Tri-Latency-Controlled Bidirectional Long Short-Term Memory,三角延时控制-双向长短时记忆网络)构建的模型,该语音识别模型可以包括多个隐层,一个隐层可以由一个TLC-BLSTM网络构成,一个隐层可以包括多个隐层单元,各个隐层单元可以对每次的输入信息进行记忆,将该输入信息保存在网络内部,并应用于当前运算过程中。在本申请实施例中,对于一个隐层中的任一个隐层单元,可以基于当前输入信息、当前隐层中前一隐层单元的运算结果、前一隐层中一个隐层单元的运算结果进行加权运算,得到当前输入信息对应的特征。参见图3,图3是本申请实施例提供的一种语音识别模型按时序展开的结构示意图,该语音识别模型可以包括隐层L1、L2和L3,该语音识别模型的输入信息为C1、C2和C3,对于隐层L2中的隐层单元301,该隐层单元301可以基于当前隐层L2中前一隐层单元302的运算结果、前一隐层L1中隐层单元303的运算结果,得到C2对应的特征。
在本申请实施例中,基于TLC-BLSTM网络构建语音识别模型,可以支持语音分片进行识别解码,支持流式语音识别的实现;TLC-BLSTM网络在正向识别的基础上增添逆向识别的建模,有效提高了语音识别模型的鲁棒性;再次,TLC-BLSTM网络通过三角视野的方法,如图3中的信息传输路径所示,各个隐层单元的运算结果的传输路径可以作为三角形的斜边,这种三角视野的方法拓展了逆向LSTM的视野宽度,在同样大小的语音片段下,充分获取下文信息。表1是本申请实施例提供的一种语音识别模型的性能对比表,表1展示了语音识别模型分别基于LSTM(Long Short-Term Memory,长短时记忆网络)、BLSTM(BidirectionalLong Short-Term Memory,双向长短时记忆网络)、LC-BLSTM(Latency-ControlledBidirectional Long Short-Term Memory,延时控制-双向长短时记忆网络)、TLC-BLSTM所构建的模型的性能信息,表1中示出了实时性和鲁棒性两个维度的性能对比信息。
表1
模型 | LSTM | BLSTM | LC-BLSTM | TLC-BLSTM |
实时性 | 强 | 弱 | 强 | 强 |
鲁棒性 | 弱 | 强 | 中 | 弱 |
基于表1中的信息,语音识别模型为基于TLC-BLSTM构建的模型时,可以良好的支持实时语音识别,即支持流式运算,而且其基于三角延时控制的特性,可以有效拓宽语音信号的视野,对语音特征由宽到窄、循序渐进地映射建模,在保证实时性的同时有效兼顾了模型的鲁棒性。
205、服务器通过该语音识别模型获取各个语音片段的隐层特征。
在本申请实施例中,该服务器可以通过该语音识别模型中的各个隐层,对各个语音片段的语音特征进行处理,得到隐层特征。在一种可能实现方式中,对于该语音识别模型中的第一个隐层,该第一个隐层以任一语音片段的语音特征、该任一语音片段的后一个语音片段的语音特征为输入,以该任一语音片段对应的初始隐层特征为输出;对于该语音识别模型中的任一个中间隐层,该中间隐层以该任一语音片段的初始隐层特征、该任一语音片段的后一个语音片段的初始隐层特征为输入,以该任一语音片段对应的中间隐层特征为输出;对于该语音识别模型中的最后一个隐层,该最后一个隐层以该任一语音片段的中间隐层特征、该任一语音片段的后一个语音片段的中间隐层特征为输入,以该任一语音片段对应的隐层特征为输出。其中,对于该语音识别模型中的任一个隐层,该服务器可以通过该任一个隐层对该任一语音片段的特征进行正向运算,得到第一特征;通过该任一个隐层对该任一语音片段的特征、该后一语音片段的特征进行逆向运算,得到第二特征;对该第一特征和该第二特征进行拼接,得到该任一个隐层输出的特征。在一种可能实现方式中,该第二特征,可以由服务器基于任意语音片段中的全部中间帧、该后一语音片段中的部分中间帧得到,例如,该服务器可以获取该后一语音片段中第二目标数量个语音帧,通过该任一个隐层对该任一语音片段、该第二目标数量个语音帧对应的特征进行逆向运算,得到该第二特征。其中,该第二目标数量的数值小于或等于一个语音片段所包含语音帧的总帧数,该第二目标数量的数值可以由开发人员进行设置,本申请实施例对此不做限定。
具体地,以该语音识别模型中的第一个隐层为例对上述隐层特征的提取过程进行说明。在本申请实施例中,可以将任一语音片段标记为Ccurr,将时序上位于该语音片段Ccurr之后的语音片段标记为Cright,该语音片段Ccurr和语音片段Cright均可以包括Nc个中间帧。其中,Nc为正整数,其具体数值可以由开发人员进行设置。参见图4,图4是本申请实施例提供的一种隐层特征提取原理示意图。在一种可能实现方式中,该服务器可以获取该语音片段Ccurr的前一个语音片段对应的第一特征401,由第一个隐层中的一个隐层单元,基于该第一特征401对语音片段Ccurr进行正向运算,具体地,一个隐层单元中可以包括多个子隐层单元,由各个子隐层单元对语音片段Ccurr对应的语音特征进行正向运算,一个子隐层单元可以获取前一个子隐层单元的运算结果,例如,子隐层单元402可以获取前一个子隐层单元403的运算结果,该服务器可以获取最后一个子隐层单元的运算结果,作为该语音片段Ccurr的第一特征。在一种可能实现方式中,该服务器可以获取语音片段Cright的前Nr个中间帧,按照时序,将该语音片段Ccurr的与该前Nr个中间帧进行拼接,得到语音片段Cmerge,将该语音片段Ccurr的语音特征与该前Nr个中间帧对应的语音特征进行拼接,得到语音片段Cmerge的语音特征。其中,Nr为正整数,Nr小于Nc,其具体数值可以由开发人员进行设置。该服务器通过多个子隐层单元对语音片段Cmerge的语音特征进行逆向LSTM运算,也即是一个子隐层单元可以获取后一个子隐层单元的运算结果,例如,子隐层单元404可以获取后一个子隐层单元405的运算结果,该服务器可以获取最前一个子隐层单元的输出结果,作为该语音片段Ccurr的第二特征。
在本申请实施例中,该服务器可以按照目标顺序对该第一特征和该第二特征进行拼接。例如,当该第一特征和该第二特征均表示为向量时,该服务器可以将两个向量拼接为一个更高维度的向量。当然,该服务器还可对该第一特征和该第二特征赋予不同的权重,将加权后的该第一特征和该第二特征进行拼接。本申请实施例对具体采用哪种特征拼接方式不作限定。
需要说明的是,上述对获取隐层特征的方法的说明,仅是一种示例性说明,本申请实施例对具体采用哪种方法获取各个语音帧的隐层特征不作限定。
需要说明的是,上述步骤204和步骤205,是将该至少一个语音片段输入语音识别模型,由该语音识别模型中第一目标数量个级联的隐层依次对各个该语音片段的语音特征进行处理,得到各个该语音片段的隐层特征,一个语音片段的一个隐层特征基于时序上位于该一个语音片段之后的该第一目标数量个语音片段以及该一个语音片段的语音特征确定的步骤。其中,该第一目标数量,也即是语音识别模型中隐层的数量可以由开发人员进行设置,本申请实施例对此不作限定。例如,当语音识别模型包含三个隐层时,一个语音片段的隐层特征可以基于其后三个语音片段的信息确定,而其后三个语音片段还可以包括其他语音片段的信息,本申请实施例对此不作限定。在本申请实施例中,在对一个语音片段进行语音识别时,通过多个级联的隐层进行逆向运算,可以获取到该一个语音片段之后的多个语音片段的特征,充分结合下文信息对当前语音片段进行识别,进而可以提高识别结果的准确性。
206、服务器基于该隐层特征,确定各个该语音片段对应的音素信息。
本申请实施例中,该语音识别模型还可以包括一个特征分类层,该特征分类层可以用于对各个语音片段的隐层特征进行分类,得到各个语音片段对应的音素信息,即得到语音片段对应于各个音素的概率值。在一种可能实现方式中,该特征分类层可以是基于全连接层和SoftMax函数(逻辑回归函数)构建的。该服务器可以将语音片段对应的隐层特征输入一个全连接层,基于全连接层中的权重参数,将隐层特征映射为一个向量,再通过SoftMax函数将该向量中的各个元素映射为(0,1)中的数值,即得到一个概率向量,该概率向量中的一个元素可以指示语音片段对应于某一个音素的概率值。该服务器可以获取各个语音片段对应的概率向量作为该音素信息。参见图5,图5是本申请实施例提供的一种语音识别模型的示意图,输入的语音特征经过多个隐层501的运算后,该服务器可以将运算结果输入特征分类层502,由特征分类层502输出分类结果。
需要说明的是,上述对获取音素信息的方法的说明,仅是一种示例性说明,本申请实施例对具体采用哪种方法获取该音素信息不作限定。
207、服务器基于该音素信息、发音词典以及语言模型,确定该语音数据对应的文本信息。
其中,该发音词典用于指示音素与发音之间的映射关系,该语言模型用于确定组成该文本信息的各个词组所对应的概率值。
在一种可能实现方式中,该服务器在基于该音素信息确定文本信息前,可以对音素信息进行进一步处理,以提高语音转文本的准确率。例如,该服务器可以基于贝叶斯公式、HMM模型的初始概率矩阵、转移概率矩阵和语音片段对应的概率向量进行前向解码,获得所输入的语音片段对应的隐藏状态序列。本申请实施例对上述前向解码的具体过程不作限定。
该服务器可以基于该隐藏状态序列、发音词典以及语言模型,得到文本信息。在一种可能实现方式中,该服务器可以基于发音词典、语言模型等构建WFST(Weighted FiniteState Transducer,加权有限状态机)网络,该WFST可以基于输入信息、输出信息以及输入转为输出的权重值,得到语音片段对应的文字组合。其中,该输入信息可以为语音片段对应的隐藏状态序列,输出信息可以为个音素可能对应的文字。
需要说明的是,上述步骤206和步骤207,是基于各个该语音片段的隐层特征,得到该语音数据对应的文本信息的步骤。上述对基于隐层特征获取文本信息的说明,仅是一种示例性说明,本申请实施例对此不作具体限定。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
本申请实施例提供的技术方案,通过获取待识别的语音数据;对该语音数据进行特征提取,得到该语音数据中至少一个语音片段的语音特征;将该至少一个语音片段输入语音识别模型,由该语音识别模型中第一目标数量个级联的隐层依次对各个语音片段的语音特征进行处理,得到各个语音片段的隐层特征,一个语音片段的一个隐层特征基于时序上位于该一个语音片段之后的第一目标数量个语音片段确定;基于各个语音片段的隐层特征,得到该语音数据对应的文本信息。在上述语音识别过程中,一个语音片段对应的文本信息,是基于其之后的多个语音片段来确定的,在语音识别过程中,充分获取到了下文信息,提高语音识别的准确率。
在本申请实施例中个,频谱特征提取模块以及该语音识别模型可以组成声学模型,该声学模型、发音词典以及语言模型可以组成解码器,应用该解码器,可以实现对流式语音数据的识别。参见图6,图6是本申请实施例提供的一种解码器结构示意图,该解码器601可以包括声学模型602、发音词典603以及语言模型604,声学模型602可以包括频谱特征提取模块605以及该语音识别模型606。本申请实施例提供的技术方案,基于TLC-BLSTM网络构建语音识别模型,实现流式语音识别,可以稳定地输出高识别率、低延时的语音识别服务。表2示出了语音识别模型分别基于LSTM、BLSTM、LC-BLSTM、TLC-BLSTM构建时,模型的识别效果,包括延迟时间、平均错字率,其中,该平均错字率可以表示识别每100个字中错误的字数,平均字错率为本方案在多个干净与带噪测试集合下的平均表现。
表2
模型 | LSTM | BLSTM | LC-BLSTM | TLC-BLSTM |
延迟时间 | 150ms | 不支持流式 | 250ms | 300ms |
平均字错率 | 14.47 | 12.05 | 12.5 | 12.06 |
基于表2所展示的信息,本申请实施例提供的技术方案不仅支持流式语音识别,而且与支持流式语音识别的其他方案,例如,LSTM、LC-BLSTM,一样拥有低于500ms的低延时,且本方案在平均字错率方面,与BLSTM模型效果相当,较LSTM、LC-BLSTM有所降低。本方案可以实现稳定低延时的输出,识别结果精准。
上述实施例主要介绍了一种语音识别方法,在本申请实施例中,该服务器还可以将语音数据对应的文本信息在目标页面进行显示,也即是该服务器可以将该文本信息发送至用户终端,由用户终端在目标页面对该文本信息进行显示。其中,该目标页面可以为会话页面、搜索页面等,本申请实施例对此不作限定。
图7是本申请实施例提供的一种文本信息显示方式示意图,参见图7,以该目标页面701为会话页面为例,该服务器可以对用户在该会话页面701输入的语音数据进行语音识别,将该语音数据对应的文本信息702,在该目标页面701的会话显示区域703进行显示。
本申请实施例提供的技术方案,可以应用于任一需要输入文本信息的场景中,例如,本方案还可以应用于搜索场景,用户在搜索信息时无需逐字输入搜索内容,只需录入语音即可。本方案提供的语音识别技术,可以有效提高信息输入效率。
在本申请实施例中,上述语音识别技术部署于服务器中,该服务器可以为目标应用程序的后台服务器,该服务器可以为该目标应用程序提供语音识别服务。例如,该目标应用程序为即时通讯类应用程序时,用户可以通过语音输入的形式在终端录入语音信息,由服务器将语音信息转换为文本信息,以提高信息输入的效率。图8是本申请实施例提供的一种文本信息获取方法的流程图,参见图8,该方法具体可以包括以下步骤:
801、终端响应于语音输入指令,获取实时输入的语音数据。
其中,该终端可以为用户所使用的计算机设备,例如,该终端可以为手机、电脑等,该终端可以安装和运行有该目标应用程序。
在一种可能实现方式中,该终端检测到用户对语音输入控件的触发操作时,可以获取用户实时输入的语音数据。其中,该触发操作可以为点击操作、长按操作等,本申请实施例对此不作限定。
802、终端对该语音数据进行分片处理,得到至少一个语音分片。
在一种可能实现方式中,该终端可以按照目标周期对用户输入的语音数据进行分片处理,其中,该目标周期可以由开发人员进行设置,本申请实施例对此不作限定。
803、终端获取各个该语音分片对应的文本信息。
在一种可能实现方式中,该终端可以向服务器发送语音识别请求,该语音识别请求携带该至少一个语音分片,例如,该终端获取到语音分片后,可以将语音分片利用网络协议打包,再将语音识别请求与打包后的语音数据发送至服务器。该终端可以接收该服务器返回的该文本信息,该文本信息是该服务器基于该语音分片中各个语音片段的隐层特征确定的。
在一种可能实现方式中,该终端获取到语音数据后,可以对语音数据进行实时识别,得到文本信息。本申请实施例对此不作限定,在本申请实施例中,以服务器执行语音识别的步骤为例进行说明。
需要说明的是,上述语音识别的方法,与上述步骤202至步骤207中语音识别的方法同理,在此不作赘述。
804、终端响应于语音输入完成的指令,在目标页面显示该文本信息。
其中,该目标页面可以为会话页面,终端可以将获取到的文本信息在该会话页面进行显示。在一种可能实现方式中,该会话页面可以显示有语音输入控件,当终端检测到用户对语音输入控件的触发操作时,可以在该会话界面中显示语音输入窗,用户可以在该语音输入窗录入语音数据,当用户触发语音输入完成的指令时,该终端可以隐藏该语音输入窗,终端可以从服务器中获取到本次语音输入对应的全部文本信息,在该会话页面,也即是目标页面中显示该文本信息。参见图9,图9是本申请实施例提供的一种目标页面示意图,例如图9中的(a)图,该目标页面901可以包括语音输入窗902,该语音输入窗902中可以显示有录音控件903,该终端检测到用户按住该录音控件903时,即可开始采集用户输入的语音信息,当用户松开该录音控件903时,即可触发语音输入完成的指令,该终端可以获取本次输入语音数据对应的文本信息,在目标页面进行显示。
在本申请实施例中,该目标页面也可以为搜索页面,终端可以将获取到的文本信息在该搜索页面进行显示。在一种可能实现方式中,用户在进行搜索时,可以将搜索内容以语音的形式录入,当接收到语音输入完成的指令时,获取本次输入语音数据对应的文本信息,在该搜索页面的搜索框中显示。参见图9中的(b)图,该目标页面904中可以显示有结束录音控件905,当用户点击该结束录音控件905时,即可触发语音输入完成的指令,该终端可以获取本次输入语音数据对应的文本信息,在目标页面进行显示。
当然,该语音输入完成的指令还可以通过其他方式触发,本申请实施例对此不作限定。
在一种可能实现方式中,该终端可以在用户进行语音输入的过程中实时显示已输入语音数据对应的文本信息。参见图10,图10是本申请实施例提供的一种文本信息显示效果示意图,以该目标页面为会话页面为例,该会话页面1001中可以显示有语音输入窗1002,该语音输入窗1002可以包括文本信息显示区域1003,终端在将语音分片发送至服务器后,服务器可以实时返回语音分片中语音数据的识别结果,终端可以将各个语音分片对应的识别结果在文本信息显示区域1003中显示。当用户语音输入完毕,终端可以将语音输入完成的指令发送至服务器,服务器结束语音识别,终端可以获取到本次语音识别的全部识别结果,即本次输入语音数据对应的文本信息,终端可以隐藏语音输入窗1002,在该会话页面1001显示该文本信息。例如,该目标页面可以为会话页面等。
在一种可能实现方式中,该终端可以在语音输入完成后,再显示语音数据对应的文本信息。即终端可以基于用户输入的语音数据以及语音输入完成的指令,从服务器中获取全部文本信息,在目标页面显示该文本信息。
需要说明的是,上述对文本信息显示方式的说明,仅是一种示例性说明,本申请实施例对具体采用哪种文本信息显示方式不作限定。
本申请实施例提供的技术方案,将语音识别方案放于云服务中,作为一种基础技术赋能于使用该云服务的用户,使用户在进行输入文本信息时,无需再应用拼音、笔画等传统输入方法,直接说话即可实现快速文本输入。而且,该语音识别方案可以对流式语音,即实时输入的语音,进行实时识别,可以缩短识别时间,提高语音识别效率。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
图11是本申请实施例提供的一种语音识别装置的结构示意图,参见图11,该装置包括:
语音获取模块1101,用于获取待识别的语音数据;
语音特征获取模块1102,用于对该语音数据进行特征提取,得到该语音数据中至少一个语音片段的语音特征;
隐层特征获取模块1103,用于将该至少一个语音片段输入语音识别模型,由该语音识别模型中第一目标数量个级联的隐层依次对各个该语音片段的语音特征进行处理,得到各个该语音片段的隐层特征,一个语音片段的一个隐层特征基于时序上位于该一个语音片段之后的该第一目标数量个语音片段以及该一个语音片段的语音特征确定;
文本信息获取模块1104,用于基于各个该语音片段的隐层特征,得到该语音数据对应的文本信息。
在一种可能实现方式中,该语音特征获取模块1102用于:
对该语音数据进行频谱特征提取,得到该语音数据中各个语音帧对应的频谱特征;
将属于同一个该语音片段的至少一个语音帧所对应的频谱特征,拼接为一个该语音特征。
在一种可能实现方式中,该隐层特征获取模块1103用于:
将该至少一个语音片段的语音特征输入该语音识别模型;
对于该语音识别模型中的第一个隐层,该第一个隐层以任一语音片段的语音特征、该任一语音片段的后一个语音片段的语音特征为输入,以该任一语音片段对应的初始隐层特征为输出;
对于该语音识别模型中的任一个中间隐层,该中间隐层以该任一语音片段的初始隐层特征、该任一语音片段的后一个语音片段的初始隐层特征为输入,以该任一语音片段对应的中间隐层特征为输出;
对于该语音识别模型中的最后一个隐层,该最后一个隐层以该任一语音片段的中间隐层特征、该任一语音片段的后一个语音片段的中间隐层特征为输入,以该任一语音片段对应的隐层特征为输出。
在一种可能实现方式中,该隐层特征获取模块1103用于:
对于该语音识别模型中的任一个隐层,通过该任一个隐层对该任一语音片段的特征进行正向运算,得到第一特征;
通过该任一个隐层对该任一语音片段的特征、该后一语音片段的特征进行逆向运算,得到第二特征;
对该第一特征和该第二特征进行拼接,得到该任一个隐层输出的特征。
在一种可能实现方式中,该隐层特征获取模块1103用于:
获取该后一语音片段中第二目标数量个语音帧;
通过该任一个隐层对该任一语音片段、该第二目标数量个语音帧对应的特征进行逆向运算,得到该第二特征。
在一种可能实现方式中,该文本信息获取1104模块,用于:
基于该隐层特征,确定各个该语音片段对应的音素信息;
基于该音素信息、发音词典以及语言模型,确定该语音数据对应的文本信息,该发音词典用于指示音素与发音之间的映射关系,该语言模型用于确定组成该文本信息的各个词组所对应的概率值。
在一种可能实现方式中,该装置还包括:
显示模块,用于将该语音数据对应的该文本信息在目标页面进行显示。
本申请实施例提供的装置,通过获取待识别的语音数据;对该语音数据进行特征提取,得到该语音数据中至少一个语音片段的语音特征;将该至少一个语音片段输入语音识别模型,由该语音识别模型中第一目标数量个级联的隐层依次对各个语音片段的语音特征进行处理,得到各个语音片段的隐层特征,一个语音片段的一个隐层特征基于时序上位于该一个语音片段之后的第一目标数量个语音片段确定;基于各个语音片段的隐层特征,得到该语音数据对应的文本信息。应用上述语音识别装置,一个语音片段对应的文本信息,是基于其之后的多个语音片段来确定的,在语音识别过程中,充分获取到了下文信息,提高语音识别的准确率。
图12是本申请实施例提供的一种语音识别装置的结构示意图,参见图12,该装置包括:
语音获取模块1201,用于响应于语音输入指令,获取实时输入的语音数据;
分片模块1201,用于对该语音数据进行分片处理,得到至少一个语音分片;
文本信息获取模块1203,用于获取各个该语音分片对应的文本信息;
显示模块1204,用于响应于语音输入完成的指令,在目标页面显示该文本信息。
在一种可能实现方式中,该文本信息获取模块1203用于:
向服务器发送语音识别请求,该语音识别请求携带该至少一个语音分片;
接收该服务器返回的该文本信息,该文本信息是该服务器基于该语音分片中各个语音片段的隐层特征确定的。
需要说明的是:上述实施例提供的语音识别装置在语音识别时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的语音识别装置与基于语音识别方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
上述技术方案所提供的计算机设备可以实现为终端或服务器,例如,图13是本申请实施例提供的一种终端的结构示意图。该终端1300可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端1300还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1300包括有:一个或多个处理器1301和一个或多个存储器1302。
处理器1301可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1301可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1301也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1301可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1301还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1302可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1302还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1302中的非暂态的计算机可读存储介质用于存储至少一条程序代码,该至少一条程序代码用于被处理器1301所执行以实现本申请中方法实施例提供的语音识别方法。
在一些实施例中,终端1300还可选包括有:外围设备接口1303和至少一个外围设备。处理器1301、存储器1302和外围设备接口1303之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1303相连。具体地,外围设备包括:射频电路1304、显示屏1305、摄像头组件1306、音频电路1307、定位组件1308和电源1309中的至少一种。
外围设备接口1303可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1301和存储器1302。在一些实施例中,处理器1301、存储器1302和外围设备接口1303被集成在同一芯片或电路板上;在一些其他实施例中,处理器1301、存储器1302和外围设备接口1303中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1304用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1304通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1304将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1304包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1304可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1304还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1305用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1305是触摸显示屏时,显示屏1305还具有采集在显示屏1305的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1301进行处理。此时,显示屏1305还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1305可以为一个,设置终端1300的前面板;在另一些实施例中,显示屏1305可以为至少两个,分别设置在终端1300的不同表面或呈折叠设计;在一些实施例中,显示屏1305可以是柔性显示屏,设置在终端1300的弯曲表面上或折叠面上。甚至,显示屏1305还可以设置成非矩形的不规则图形,也即异形屏。显示屏1305可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1306用于采集图像或视频。可选地,摄像头组件1306包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1306还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1307可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1301进行处理,或者输入至射频电路1304以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1300的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1301或射频电路1304的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1307还可以包括耳机插孔。
定位组件1308用于定位终端1300的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件1308可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源1309用于为终端1300中的各个组件进行供电。电源1309可以是交流电、直流电、一次性电池或可充电电池。当电源1309包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1300还包括有一个或多个传感器1310。该一个或多个传感器1310包括但不限于:加速度传感器1311、陀螺仪传感器1312、压力传感器1313、指纹传感器1314、光学传感器1315以及接近传感器1316。
加速度传感器1311可以检测以终端1300建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1311可以用于检测重力加速度在三个坐标轴上的分量。处理器1301可以根据加速度传感器1311采集的重力加速度信号,控制显示屏1305以横向视图或纵向视图进行用户界面的显示。加速度传感器1311还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1312可以检测终端1300的机体方向及转动角度,陀螺仪传感器1312可以与加速度传感器1311协同采集用户对终端1300的3D动作。处理器1301根据陀螺仪传感器1312采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1313可以设置在终端1300的侧边框和/或显示屏1305的下层。当压力传感器1313设置在终端1300的侧边框时,可以检测用户对终端1300的握持信号,由处理器1301根据压力传感器1313采集的握持信号进行左右手识别或快捷操作。当压力传感器1313设置在显示屏1305的下层时,由处理器1301根据用户对显示屏1305的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1314用于采集用户的指纹,由处理器1301根据指纹传感器1314采集到的指纹识别用户的身份,或者,由指纹传感器1314根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1301授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1314可以被设置终端1300的正面、背面或侧面。当终端1300上设置有物理按键或厂商Logo时,指纹传感器1314可以与物理按键或厂商Logo集成在一起。
光学传感器1315用于采集环境光强度。在一个实施例中,处理器1301可以根据光学传感器1315采集的环境光强度,控制显示屏1305的显示亮度。具体地,当环境光强度较高时,调高显示屏1305的显示亮度;当环境光强度较低时,调低显示屏1305的显示亮度。在另一个实施例中,处理器1301还可以根据光学传感器1315采集的环境光强度,动态调整摄像头组件1306的拍摄参数。
接近传感器1316,也称距离传感器,通常设置在终端1300的前面板。接近传感器1316用于采集用户与终端1300的正面之间的距离。在一个实施例中,当接近传感器1316检测到用户与终端1300的正面之间的距离逐渐变小时,由处理器1301控制显示屏1305从亮屏状态切换为息屏状态;当接近传感器1316检测到用户与终端1300的正面之间的距离逐渐变大时,由处理器1301控制显示屏1305从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图13中示出的结构并不构成对终端1300的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图14是本申请实施例提供的一种服务器的结构示意图,该服务器1400可因配置或性能不同而产生比较大的差异,可以包括一个或多个处理器(Central Processing Units,CPU)1401和一个或多个的存储器1402,其中,该一个或多个存储器1402中存储有至少一条程序代码,该至少一条程序代码由该一个或多个处理器1401加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器1400还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器1400还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,例如包括至少一条程序代码的存储器,上述至少一条程序代码可由处理器执行以完成上述实施例中的语音识别方法。例如,该计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来至少一条程序代码相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
上述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (15)
1.一种语音识别方法,其特征在于,所述方法包括:
获取待识别的语音数据;
对所述语音数据进行特征提取,得到所述语音数据中至少一个语音片段的语音特征;
将所述至少一个语音片段输入语音识别模型,由所述语音识别模型中第一目标数量个级联的隐层依次对各个所述语音片段的语音特征进行处理,得到各个所述语音片段的隐层特征,一个语音片段的一个隐层特征基于时序上位于所述一个语音片段之后的所述第一目标数量个语音片段以及所述一个语音片段的语音特征确定;
基于各个所述语音片段的隐层特征,得到所述语音数据对应的文本信息。
2.根据权利要求1所述的方法,其特征在于,所述对所述语音数据进行特征提取,得到所述语音数据中至少一个语音片段的语音特征,包括:
对所述语音数据进行频谱特征提取,得到所述语音数据中各个语音帧对应的频谱特征;
将属于同一个所述语音片段的至少一个语音帧所对应的频谱特征,拼接为一个所述语音特征。
3.根据权利要求1所述的方法,其特征在于,所述将所述至少一个语音片段输入语音识别模型,由所述语音识别模型中第一目标数量个级联的隐层依次对各个所述语音片段的语音特征进行处理,得到各个所述语音片段的隐层特征,包括:
将所述至少一个语音片段的语音特征输入所述语音识别模型;
对于所述语音识别模型中的第一个隐层,所述第一个隐层以任一语音片段的语音特征、所述任一语音片段的后一个语音片段的语音特征为输入,以所述任一语音片段对应的初始隐层特征为输出;
对于所述语音识别模型中的任一个中间隐层,所述中间隐层以所述任一语音片段的初始隐层特征、所述任一语音片段的后一个语音片段的初始隐层特征为输入,以所述任一语音片段对应的中间隐层特征为输出;
对于所述语音识别模型中的最后一个隐层,所述最后一个隐层以所述任一语音片段的中间隐层特征、所述任一语音片段的后一个语音片段的中间隐层特征为输入,以所述任一语音片段对应的隐层特征为输出。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
对于所述语音识别模型中的任一个隐层,通过所述任一个隐层对所述任一语音片段的特征进行正向运算,得到第一特征;
通过所述任一个隐层对所述任一语音片段的特征、所述后一语音片段的特征进行逆向运算,得到第二特征;
对所述第一特征和所述第二特征进行拼接,得到所述任一个隐层输出的特征。
5.根据权利要求4所述的方法,其特征在于,所述通过所述任一个隐层对所述任一语音片段的特征、所述后一语音片段的特征进行逆向运算,得到第二特征,包括:
获取所述后一语音片段中第二目标数量个语音帧;
通过所述任一个隐层对所述任一语音片段、所述第二目标数量个语音帧对应的特征进行逆向运算,得到所述第二特征。
6.根据权利要求1所述的方法,其特征在于,所述基于各个所述语音片段的所述隐层特征,得到所述语音数据对应的文本信息,包括:
基于所述隐层特征,确定各个所述语音片段对应的音素信息;
基于所述音素信息、发音词典以及语言模型,确定所述语音数据对应的文本信息,所述发音词典用于指示音素与发音之间的映射关系,所述语言模型用于确定组成所述文本信息的各个词组所对应的概率值。
7.根据权利要求1所述的方法,其特征在于,所述基于各个所述语音片段的隐层特征,得到所述语音数据对应的文本信息之后,所述方法还包括:
将所述语音数据对应的所述文本信息在目标页面进行显示。
8.一种语音识别方法,其特征在于,所述方法包括:
响应于语音输入指令,获取实时输入的语音数据;
对所述语音数据进行分片处理,得到至少一个语音分片;
获取各个所述语音分片对应的文本信息;
响应于语音输入完成的指令,在目标页面显示所述文本信息。
9.根据权利要求8所述的方法,其特征在于,所述获取各个所述语音分片对应的文本信息,包括:
向服务器发送语音识别请求,所述语音识别请求携带所述至少一个语音分片;
接收所述服务器返回的所述文本信息,所述文本信息是所述服务器基于所述语音分片中各个语音片段的隐层特征确定的。
10.一种语音识别装置,其特征在于,所述装置包括:
语音获取模块,用于获取待识别的语音数据;
语音特征获取模块,用于对所述语音数据进行特征提取,得到所述语音数据中至少一个语音片段的语音特征;
隐层特征获取模块,用于将所述至少一个语音片段输入语音识别模型,由所述语音识别模型中第一目标数量个级联的隐层依次对各个所述语音片段的语音特征进行处理,得到各个所述语音片段的隐层特征,一个语音片段的一个隐层特征基于时序上位于所述一个语音片段之后的所述第一目标数量个语音片段以及所述一个语音片段的语音特征确定;
文本信息获取模块,用于基于各个所述语音片段的隐层特征,得到所述语音数据对应的文本信息。
11.根据权利要求10所述的装置,其特征在于,所述语音特征获取模块用于:
对所述语音数据进行频谱特征提取,得到所述语音数据中各个语音帧对应的频谱特征;
将属于同一个所述语音片段的至少一个语音帧所对应的频谱特征,拼接为一个所述语音特征。
12.根据权利要求10所述的装置,其特征在于,所述隐层特征获取模块用于:
将所述至少一个语音片段的语音特征输入所述语音识别模型;
对于所述语音识别模型中的第一个隐层,所述第一个隐层以任一语音片段的语音特征、所述任一语音片段的后一个语音片段的语音特征为输入,以所述任一语音片段对应的初始隐层特征为输出;
对于所述语音识别模型中的任一个中间隐层,所述中间隐层以所述任一语音片段的初始隐层特征、所述任一语音片段的后一个语音片段的初始隐层特征为输入,以所述任一语音片段对应的中间隐层特征为输出;
对于所述语音识别模型中的最后一个隐层,所述最后一个隐层以所述任一语音片段的中间隐层特征、所述任一语音片段的后一个语音片段的中间隐层特征为输入,以所述任一语音片段对应的隐层特征为输出。
13.一种语音识别装置,其特征在于,所述装置包括:
语音获取模块,用于响应于语音输入指令,获取实时输入的语音数据;
分片模块,用于对所述语音数据进行分片处理,得到至少一个语音分片;
文本信息获取模块,用于获取各个所述语音分片对应的文本信息;
显示模块,用于响应于语音输入完成的指令,在目标页面显示所述文本信息。
14.一种计算机设备,其特征在于,所述计算机设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条程序代码,所述至少一条程序代码由所述一个或多个处理器加载并执行以实现如权利要求1至权利要求7任一项所述的语音识别方法所执行的操作;或如权利要求8或9所述的语音识别方法所执行的操作。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行以实现如权利要求1至权利要求7任一项所述的语音识别方法所执行的操作;或如权利要求8或9所述的语音识别方法所执行的操作。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010074075.XA CN112750425B (zh) | 2020-01-22 | 2020-01-22 | 语音识别方法、装置、计算机设备及计算机可读存储介质 |
PCT/CN2020/123738 WO2021147417A1 (zh) | 2020-01-22 | 2020-10-26 | 语音识别方法、装置、计算机设备及计算机可读存储介质 |
US17/709,011 US20220223142A1 (en) | 2020-01-22 | 2022-03-30 | Speech recognition method and apparatus, computer device, and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010074075.XA CN112750425B (zh) | 2020-01-22 | 2020-01-22 | 语音识别方法、装置、计算机设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112750425A true CN112750425A (zh) | 2021-05-04 |
CN112750425B CN112750425B (zh) | 2023-11-03 |
Family
ID=75645224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010074075.XA Active CN112750425B (zh) | 2020-01-22 | 2020-01-22 | 语音识别方法、装置、计算机设备及计算机可读存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220223142A1 (zh) |
CN (1) | CN112750425B (zh) |
WO (1) | WO2021147417A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113763932A (zh) * | 2021-05-13 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、计算机设备及存储介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4625081A (en) * | 1982-11-30 | 1986-11-25 | Lotito Lawrence A | Automated telephone voice service system |
US9202469B1 (en) * | 2014-09-16 | 2015-12-01 | Citrix Systems, Inc. | Capturing noteworthy portions of audio recordings |
CN105869624A (zh) * | 2016-03-29 | 2016-08-17 | 腾讯科技(深圳)有限公司 | 数字语音识别中语音解码网络的构建方法及装置 |
CN106940998A (zh) * | 2015-12-31 | 2017-07-11 | 阿里巴巴集团控股有限公司 | 一种设定操作的执行方法及装置 |
CN107680597A (zh) * | 2017-10-23 | 2018-02-09 | 平安科技(深圳)有限公司 | 语音识别方法、装置、设备以及计算机可读存储介质 |
CN109754789A (zh) * | 2017-11-07 | 2019-05-14 | 北京国双科技有限公司 | 语音音素的识别方法及装置 |
CN110176235A (zh) * | 2019-05-23 | 2019-08-27 | 腾讯科技(深圳)有限公司 | 语音识别文的展示方法、装置、存储介质和计算机设备 |
CN110189749A (zh) * | 2019-06-06 | 2019-08-30 | 四川大学 | 语音关键词自动识别方法 |
CN110381389A (zh) * | 2018-11-14 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的字幕生成方法和装置 |
CN110415686A (zh) * | 2019-05-21 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、介质、电子设备 |
CN110534092A (zh) * | 2019-06-28 | 2019-12-03 | 腾讯科技(深圳)有限公司 | 语音音素识别方法和装置、存储介质及电子装置 |
CN110600018A (zh) * | 2019-09-05 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 语音识别方法及装置、神经网络训练方法及装置 |
CN110634469A (zh) * | 2019-09-27 | 2019-12-31 | 腾讯科技(深圳)有限公司 | 基于人工智能的语音信号处理方法、装置及存储介质 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7467087B1 (en) * | 2002-10-10 | 2008-12-16 | Gillick Laurence S | Training and using pronunciation guessers in speech recognition |
US20120316875A1 (en) * | 2011-06-10 | 2012-12-13 | Red Shift Company, Llc | Hosted speech handling |
US20150032449A1 (en) * | 2013-07-26 | 2015-01-29 | Nuance Communications, Inc. | Method and Apparatus for Using Convolutional Neural Networks in Speech Recognition |
US9620145B2 (en) * | 2013-11-01 | 2017-04-11 | Google Inc. | Context-dependent state tying using a neural network |
WO2018071389A1 (en) * | 2016-10-10 | 2018-04-19 | Google Llc | Very deep convolutional neural networks for end-to-end speech recognition |
US10916235B2 (en) * | 2017-07-10 | 2021-02-09 | Vox Frontera, Inc. | Syllable based automatic speech recognition |
CN107301864B (zh) * | 2017-08-16 | 2020-12-22 | 重庆邮电大学 | 一种基于Maxout神经元的深度双向LSTM声学模型 |
CN108417202B (zh) * | 2018-01-19 | 2020-09-01 | 苏州思必驰信息科技有限公司 | 语音识别方法及系统 |
US10380997B1 (en) * | 2018-07-27 | 2019-08-13 | Deepgram, Inc. | Deep learning internal state index-based search and classification |
KR20190080833A (ko) * | 2019-06-18 | 2019-07-08 | 엘지전자 주식회사 | 음성 정보 기반 언어 모델링 시스템 및 방법 |
CN110415702A (zh) * | 2019-07-04 | 2019-11-05 | 北京搜狗科技发展有限公司 | 训练方法和装置、转换方法和装置 |
-
2020
- 2020-01-22 CN CN202010074075.XA patent/CN112750425B/zh active Active
- 2020-10-26 WO PCT/CN2020/123738 patent/WO2021147417A1/zh active Application Filing
-
2022
- 2022-03-30 US US17/709,011 patent/US20220223142A1/en active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4625081A (en) * | 1982-11-30 | 1986-11-25 | Lotito Lawrence A | Automated telephone voice service system |
US9202469B1 (en) * | 2014-09-16 | 2015-12-01 | Citrix Systems, Inc. | Capturing noteworthy portions of audio recordings |
CN106940998A (zh) * | 2015-12-31 | 2017-07-11 | 阿里巴巴集团控股有限公司 | 一种设定操作的执行方法及装置 |
CN105869624A (zh) * | 2016-03-29 | 2016-08-17 | 腾讯科技(深圳)有限公司 | 数字语音识别中语音解码网络的构建方法及装置 |
CN107680597A (zh) * | 2017-10-23 | 2018-02-09 | 平安科技(深圳)有限公司 | 语音识别方法、装置、设备以及计算机可读存储介质 |
CN109754789A (zh) * | 2017-11-07 | 2019-05-14 | 北京国双科技有限公司 | 语音音素的识别方法及装置 |
CN110381388A (zh) * | 2018-11-14 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的字幕生成方法和装置 |
CN110381389A (zh) * | 2018-11-14 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的字幕生成方法和装置 |
CN110415686A (zh) * | 2019-05-21 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、介质、电子设备 |
CN110176235A (zh) * | 2019-05-23 | 2019-08-27 | 腾讯科技(深圳)有限公司 | 语音识别文的展示方法、装置、存储介质和计算机设备 |
CN110189749A (zh) * | 2019-06-06 | 2019-08-30 | 四川大学 | 语音关键词自动识别方法 |
CN110534092A (zh) * | 2019-06-28 | 2019-12-03 | 腾讯科技(深圳)有限公司 | 语音音素识别方法和装置、存储介质及电子装置 |
CN110600018A (zh) * | 2019-09-05 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 语音识别方法及装置、神经网络训练方法及装置 |
CN110634469A (zh) * | 2019-09-27 | 2019-12-31 | 腾讯科技(深圳)有限公司 | 基于人工智能的语音信号处理方法、装置及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113763932A (zh) * | 2021-05-13 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、计算机设备及存储介质 |
CN113763932B (zh) * | 2021-05-13 | 2024-02-13 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112750425B (zh) | 2023-11-03 |
US20220223142A1 (en) | 2022-07-14 |
WO2021147417A1 (zh) | 2021-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108615526B (zh) | 语音信号中关键词的检测方法、装置、终端及存储介质 | |
CN110379430B (zh) | 基于语音的动画显示方法、装置、计算机设备及存储介质 | |
CN111179962B (zh) | 语音分离模型的训练方法、语音分离方法及装置 | |
CN110933330A (zh) | 视频配音方法、装置、计算机设备及计算机可读存储介质 | |
CN111564152B (zh) | 语音转换方法、装置、电子设备及存储介质 | |
CN110322760B (zh) | 语音数据生成方法、装置、终端及存储介质 | |
CN110047468B (zh) | 语音识别方法、装置及存储介质 | |
CN111696532A (zh) | 语音识别方法、装置、电子设备以及存储介质 | |
CN112735429B (zh) | 确定歌词时间戳信息的方法和声学模型的训练方法 | |
CN113763933B (zh) | 语音识别方法、语音识别模型的训练方法、装置和设备 | |
CN111524501A (zh) | 语音播放方法、装置、计算机设备及计算机可读存储介质 | |
CN110992927A (zh) | 音频生成方法、装置、计算机可读存储介质及计算设备 | |
CN111223475A (zh) | 语音数据生成方法、装置、电子设备及存储介质 | |
CN111048109A (zh) | 声学特征的确定方法、装置、计算机设备及存储介质 | |
CN113220590A (zh) | 语音交互应用的自动化测试方法、装置、设备及介质 | |
CN111428079B (zh) | 文本内容处理方法、装置、计算机设备及存储介质 | |
CN113409770A (zh) | 发音特征处理方法、装置、服务器及介质 | |
US20220223142A1 (en) | Speech recognition method and apparatus, computer device, and computer-readable storage medium | |
CN110837557B (zh) | 摘要生成方法、装置、设备及介质 | |
CN109829067B (zh) | 音频数据处理方法、装置、电子设备及存储介质 | |
CN115206305B (zh) | 语义文本的生成方法、装置、电子设备及存储介质 | |
CN112151017B (zh) | 语音处理方法、装置、系统、设备及存储介质 | |
CN111091807B (zh) | 语音合成方法、装置、计算机设备及存储介质 | |
CN114360494A (zh) | 韵律标注方法、装置、计算机设备及存储介质 | |
CN113362836A (zh) | 训练声码器方法、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40044511 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |