CN106653030A - 标点添加方法及装置 - Google Patents
标点添加方法及装置 Download PDFInfo
- Publication number
- CN106653030A CN106653030A CN201611109690.XA CN201611109690A CN106653030A CN 106653030 A CN106653030 A CN 106653030A CN 201611109690 A CN201611109690 A CN 201611109690A CN 106653030 A CN106653030 A CN 106653030A
- Authority
- CN
- China
- Prior art keywords
- information
- language material
- punctuate
- text message
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 239000000463 material Substances 0.000 claims description 87
- 239000013598 vector Substances 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 13
- 238000004590 computer program Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004899 motility Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明是关于一种标点添加方法及装置,其中,方法包括:获取包含标点的预设训练语料信息;利用所述预设训练语料信息和预设的网络模型结构进行训练,得到标点添加模型,其中,所述预设的网络模型结构包括编码器结构和解码器结构;接收用户输入的语音数据信息;对所述语音数据信息进行识别,得到所述语音数据信息对应的文本信息和停顿信息;根据所述文本信息、所述停顿信息和所述标点添加模型,确定所述文本信息对应的标点信息。通过该技术方案,可以实现简单方便地实现标点符号的自动添加,并提高标点符号添加的准确性和灵活性。
Description
技术领域
本发明涉及语音识别技术领域,尤其涉及一种标点添加方法及装置。
背景技术
在当前的语音识别过程中,大多是当语音识别时,中间有停顿的地方识别为逗号,结束时自动添加句号,整个句子都被视为陈述语气,这种方式在某些情形下并不能正确传达出讲话者语义和情感。
发明内容
本发明实施例提供一种标点添加方法及装置,用以实现简单方便地实现标点符号的自动添加,并提高标点符号添加的准确性和灵活性。
根据本发明实施例的第一方面,提供一种标点添加方法,包括:
获取包含标点的预设训练语料信息;
利用所述预设训练语料信息和预设的网络模型结构进行训练,得到标点添加模型,其中,所述预设的网络模型结构包括编码器结构和解码器结构;
接收用户输入的语音数据信息;
对所述语音数据信息进行识别,得到所述语音数据信息对应的文本信息和停顿信息;
根据所述文本信息、所述停顿信息和所述标点添加模型,确定所述文本信息对应的标点信息。
在该实施例中,根据预设训练语料和预设的网络模型结构进行训练,得到包含编码器结构和解码器结构的标点添加模型,通过该标点添加模型为接收到的语音数据信息添加标点。这样,可以实现简单方便地实现标点符号的自动添加,并提高标点符号添加的准确性和灵活性。
在一个实施例中,所述编码器结构包括第一LSTM隐藏层,所述解码器结构包括第二LSTM隐藏层。
在一个实施例中,所述利用所述预设训练语料信息和预设的网络模型结构进行训练,得到标点添加模型,包括:
确定所述预设训练语料信息对应的语料文本信息、语料停顿信息和语料标点信息;
将所述语料文本信息和所述语料停顿信息确定为所述预设的网络模型结构的输入向量,将所述语料标点信息确定为所述预设的网络模型结构的输出向量,计算所述预设网络模型结构对应的目标模型参数;
根据所述目标模型参数和所述预设的网络模型结构确定所述标点添加模型。
在一个实施例中,所述将所述语料文本信息和所述语料停顿信息确定为所述预设的网络模型结构的输入向量,将所述语料标点信息确定为所述预设的网络模型结构的输出向量,计算所述预设网络模型结构对应的目标模型参数,包括:
利用所述语料文本信息、所述语料停顿信息、所述语料标点信息和所述预设的网络模型结构进行前向计算,确定所述预设网络模型结构对应的模型参数;
利用所述语料文本信息、所述语料停顿信息、所述语料标点信息和所述预设的网络模型结构进行后向计算,对所述模型参数进行修正,得到所述目标模型参数。
在该实施例中,分别利用语料文本信息、所述语料停顿信息、所述语料标点信息和所述预设的网络模型结构进行前向计算和后向计算,这样,可以保证得到的目标模型参数的准确性。
在一个实施例中,所述根据所述文本信息、所述停顿信息和所述标点添加模型,确定所述文本信息对应的标点信息,包括:
将所述文本信息和所述停顿信息作为所述标点添加模型的输入向量,得到所述标点添加模型的输出向量;
根据所述标点添加模型的输出向量确定所述文本信息对应的标点信息。
在该实施例中,标点添加模型的输出向量表示各标点可能的概率,这样,取输出向量中值最大的维度作为最终结果。
根据本发明实施例的第二方面,提供一种标点添加装置,包括:
获取模块,用于获取包含标点的预设训练语料信息;
训练模块,用于利用所述预设训练语料信息和预设的网络模型结构进行训练,得到标点添加模型,其中,所述预设的网络模型结构包括编码器结构和解码器结构;
接收模块,用于接收用户输入的语音数据信息;
识别模块,用于对所述语音数据信息进行识别,得到所述语音数据信息对应的文本信息和停顿信息;
确定模块,用于根据所述文本信息、所述停顿信息和所述标点添加模型,确定所述文本信息对应的标点信息。
在一个实施例中,所述编码器结构包括第一LSTM隐藏层,所述解码器结构包括第二LSTM隐藏层。
在一个实施例中,所述训练模块包括:
第一确定子模块,用于确定所述预设训练语料信息对应的语料文本信息、语料停顿信息和语料标点信息;
计算子模块,用于将所述语料文本信息和所述语料停顿信息确定为所述预设的网络模型结构的输入向量,将所述语料标点信息确定为所述预设的网络模型结构的输出向量,计算所述预设网络模型结构对应的目标模型参数;
第二确定子模块,用于根据所述目标模型参数和所述预设的网络模型结构确定所述标点添加模型。
在一个实施例中,所述计算子模块用于:
利用所述语料文本信息、所述语料停顿信息、所述语料标点信息和所述预设的网络模型结构进行前向计算,确定所述预设网络模型结构对应的模型参数;
利用所述语料文本信息、所述语料停顿信息、所述语料标点信息和所述预设的网络模型结构进行后向计算,对所述模型参数进行修正,得到所述目标模型参数。
在一个实施例中,所述确定模块包括:
处理子模块,用于将所述文本信息和所述停顿信息作为所述标点添加模型的输入向量,得到所述标点添加模型的输出向量;
第三确定子模块,用于根据所述标点添加模型的输出向量确定所述文本信息对应的标点信息。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的一种标点添加方法的流程图。
图2是根据一示例性实施例示出的一种标点添加模型的示意图。
图3是根据一示例性实施例示出的一种标点添加方法中步骤S102的流程图。
图4是根据一示例性实施例示出的一种标点添加方法中步骤S105的流程图。
图5是根据一示例性实施例示出的一种标点添加装置的框图。
图6是根据一示例性实施例示出的一种标点添加装置中训练模块的框图。
图7是根据一示例性实施例示出的一种标点添加装置中确定模块的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的一种标点添加方法的流程图。该标点添加方法应用于终端设备中,该终端设备可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等任一具有语音识别功能的设备。如图1所示,该方法包括步骤S101-S105:
在步骤S101中,获取包含标点的预设训练语料信息;
在步骤S102中,利用预设训练语料信息和预设的网络模型结构进行训练,得到标点添加模型,其中,预设的网络模型结构包括编码器结构和解码器结构;
在步骤S103中,接收用户输入的语音数据信息;
在步骤S104中,对语音数据信息进行识别,得到语音数据信息对应的文本信息和停顿信息;
在步骤S105中,根据文本信息、停顿信息和标点添加模型,确定文本信息对应的标点信息。
在该实施例中,根据预设训练语料和预设的网络模型结构进行训练,得到包含编码器结构和解码器结构的标点添加模型,通过该标点添加模型为接收到的语音数据信息添加标点。这样,可以实现简单方便地实现标点符号的自动添加,并提高标点符号添加的准确性和灵活性。
在一个实施例中,编码器结构包括第一LSTM隐藏层,解码器结构包括第二LSTM隐藏层。
下面以一个具体实施例详细说明本发明的技术方案。
如图2所示,本发明的标点添加模型包括编码器encoder结构和解码器decoder结构,其中,输入序列为X1,X2……XN,其中,每个输入包括文字信息和停顿信息,输出序列为标点符号ID或者为空。其中,输入序列中,文字信息可以为200维的特征向量,停顿信息可以为1维的特征向量,将两个特征向量做拼接,则得到201维的特征向量,而输出序列的维度可以为5维,分别为无标点、逗号、句号、分号、顿号。编码器结构对应一个隐藏层,解码器结构对应一个隐藏层,即本发明中有两个隐藏层,每一层的计算方式可以相同。
图3是根据一示例性实施例示出的一种标点添加方法中步骤S102的流程图。
如图3所示,在一个实施例中,上述步骤S102包括步骤S301-S303:
在步骤S301中,确定预设训练语料信息对应的语料文本信息、语料停顿信息和语料标点信息;
在步骤S302中,将语料文本信息和语料停顿信息确定为预设的网络模型结构的输入向量,将语料标点信息确定为预设的网络模型结构的输出向量,计算预设网络模型结构对应的目标模型参数;
在步骤S303中,根据目标模型参数和预设的网络模型结构确定标点添加模型。
在一个实施例中,上述步骤S302包括:
利用语料文本信息、语料停顿信息、语料标点信息和预设的网络模型结构进行前向计算,确定预设网络模型结构对应的模型参数;
利用语料文本信息、语料停顿信息、语料标点信息和预设的网络模型结构进行后向计算,对模型参数进行修正,得到目标模型参数。
在该实施例中,分别利用语料文本信息、语料停顿信息、语料标点信息和预设的网络模型结构进行前向计算和后向计算,这样,可以保证得到的目标模型参数的准确性。
图4是根据一示例性实施例示出的一种标点添加方法中步骤S105的流程图。
如图4所示,在一个实施例中,上述步骤S105包括步骤S401-S402:
在步骤S401中,将文本信息和停顿信息作为标点添加模型的输入向量,得到标点添加模型的输出向量;
在步骤S402中,根据标点添加模型的输出向量确定文本信息对应的标点信息。
在该实施例中,标点添加模型的输出向量表示各标点可能的概率,这样,取输出向量中值最大的维度作为最终结果。
下述为本发明装置实施例,可以用于执行本发明方法实施例。
图5是根据一示例性实施例示出的一种标点添加装置的框图,该装置可以通过软件、硬件或者两者的结合实现成为终端设备的部分或者全部。如图5所示,该标点添加装置包括:
获取模块51,用于获取包含标点的预设训练语料信息;
训练模块52,用于利用所述预设训练语料信息和预设的网络模型结构进行训练,得到标点添加模型,其中,所述预设的网络模型结构包括编码器结构和解码器结构;
接收模块53,用于接收用户输入的语音数据信息;
识别模块54,用于对所述语音数据信息进行识别,得到所述语音数据信息对应的文本信息和停顿信息;
确定模块55,用于根据所述文本信息、所述停顿信息和所述标点添加模型,确定所述文本信息对应的标点信息。
在该实施例中,根据预设训练语料和预设的网络模型结构进行训练,得到包含编码器结构和解码器结构的标点添加模型,通过该标点添加模型为接收到的语音数据信息添加标点。这样,可以实现简单方便地实现标点符号的自动添加,并提高标点符号添加的准确性和灵活性。
在一个实施例中,所述编码器结构包括第一LSTM隐藏层,所述解码器结构包括第二LSTM隐藏层。
图6是根据一示例性实施例示出的一种标点添加装置中训练模块的框图。
如图6所示,在一个实施例中,所述训练模块52包括:
第一确定子模块61,用于确定所述预设训练语料信息对应的语料文本信息、语料停顿信息和语料标点信息;
计算子模块62,用于将所述语料文本信息和所述语料停顿信息确定为所述预设的网络模型结构的输入向量,将所述语料标点信息确定为所述预设的网络模型结构的输出向量,计算所述预设网络模型结构对应的目标模型参数;
第二确定子模块63,用于根据所述目标模型参数和所述预设的网络模型结构确定所述标点添加模型。
在一个实施例中,所述计算子模块62用于:
利用所述语料文本信息、所述语料停顿信息、所述语料标点信息和所述预设的网络模型结构进行前向计算,确定所述预设网络模型结构对应的模型参数;
利用所述语料文本信息、所述语料停顿信息、所述语料标点信息和所述预设的网络模型结构进行后向计算,对所述模型参数进行修正,得到所述目标模型参数。
在该实施例中,分别利用语料文本信息、所述语料停顿信息、所述语料标点信息和所述预设的网络模型结构进行前向计算和后向计算,这样,可以保证得到的目标模型参数的准确性。
图7是根据一示例性实施例示出的一种标点添加装置中确定模块的框图。
如图7所示,在一个实施例中,所述确定模块55包括:
处理子模块71,用于将所述文本信息和所述停顿信息作为所述标点添加模型的输入向量,得到所述标点添加模型的输出向量;
第三确定子模块72,用于根据所述标点添加模型的输出向量确定所述文本信息对应的标点信息。
在该实施例中,标点添加模型的输出向量表示各标点可能的概率,这样,取输出向量中值最大的维度作为最终结果。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种标点添加方法,其特征在于,包括:
获取包含标点的预设训练语料信息;
利用所述预设训练语料信息和预设的网络模型结构进行训练,得到标点添加模型,其中,所述预设的网络模型结构包括编码器结构和解码器结构;
接收用户输入的语音数据信息;
对所述语音数据信息进行识别,得到所述语音数据信息对应的文本信息和停顿信息;
根据所述文本信息、所述停顿信息和所述标点添加模型,确定所述文本信息对应的标点信息。
2.根据权利要求1所述的方法,其特征在于,所述编码器结构包括第一LSTM隐藏层,所述解码器结构包括第二LSTM隐藏层。
3.根据权利要求2所述的方法,其特征在于,所述利用所述预设训练语料信息和预设的网络模型结构进行训练,得到标点添加模型,包括:
确定所述预设训练语料信息对应的语料文本信息、语料停顿信息和语料标点信息;
将所述语料文本信息和所述语料停顿信息确定为所述预设的网络模型结构的输入向量,将所述语料标点信息确定为所述预设的网络模型结构的输出向量,计算所述预设网络模型结构对应的目标模型参数;
根据所述目标模型参数和所述预设的网络模型结构确定所述标点添加模型。
4.根据权利要求3所述的方法,其特征在于,所述将所述语料文本信息和所述语料停顿信息确定为所述预设的网络模型结构的输入向量,将所述语料标点信息确定为所述预设的网络模型结构的输出向量,计算所述预设网络模型结构对应的目标模型参数,包括:
利用所述语料文本信息、所述语料停顿信息、所述语料标点信息和所述预设的网络模型结构进行前向计算,确定所述预设网络模型结构对应的模型参数;
利用所述语料文本信息、所述语料停顿信息、所述语料标点信息和所述预设的网络模型结构进行后向计算,对所述模型参数进行修正,得到所述目标模型参数。
5.根据权利要求1所述的方法,其特征在于,所述根据所述文本信息、所述停顿信息和所述标点添加模型,确定所述文本信息对应的标点信息,包括:
将所述文本信息和所述停顿信息作为所述标点添加模型的输入向量,得到所述标点添加模型的输出向量;
根据所述标点添加模型的输出向量确定所述文本信息对应的标点信息。
6.一种标点添加装置,其特征在于,包括:
获取模块,用于获取包含标点的预设训练语料信息;
训练模块,用于利用所述预设训练语料信息和预设的网络模型结构进行训练,得到标点添加模型,其中,所述预设的网络模型结构包括编码器结构和解码器结构;
接收模块,用于接收用户输入的语音数据信息;
识别模块,用于对所述语音数据信息进行识别,得到所述语音数据信息对应的文本信息和停顿信息;
确定模块,用于根据所述文本信息、所述停顿信息和所述标点添加模型,确定所述文本信息对应的标点信息。
7.根据权利要求6所述的装置,其特征在于,所述编码器结构包括第一LSTM隐藏层,所述解码器结构包括第二LSTM隐藏层。
8.根据权利要求7所述的装置,其特征在于,所述训练模块包括:
第一确定子模块,用于确定所述预设训练语料信息对应的语料文本信息、语料停顿信息和语料标点信息;
计算子模块,用于将所述语料文本信息和所述语料停顿信息确定为所述预设的网络模型结构的输入向量,将所述语料标点信息确定为所述预设的网络模型结构的输出向量,计算所述预设网络模型结构对应的目标模型参数;
第二确定子模块,用于根据所述目标模型参数和所述预设的网络模型结构确定所述标点添加模型。
9.根据权利要求8所述的装置,其特征在于,所述计算子模块用于:
利用所述语料文本信息、所述语料停顿信息、所述语料标点信息和所述预设的网络模型结构进行前向计算,确定所述预设网络模型结构对应的模型参数;
利用所述语料文本信息、所述语料停顿信息、所述语料标点信息和所述预设的网络模型结构进行后向计算,对所述模型参数进行修正,得到所述目标模型参数。
10.根据权利要求6所述的装置,其特征在于,所述确定模块包括:
处理子模块,用于将所述文本信息和所述停顿信息作为所述标点添加模型的输入向量,得到所述标点添加模型的输出向量;
第三确定子模块,用于根据所述标点添加模型的输出向量确定所述文本信息对应的标点信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611109690.XA CN106653030A (zh) | 2016-12-02 | 2016-12-02 | 标点添加方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611109690.XA CN106653030A (zh) | 2016-12-02 | 2016-12-02 | 标点添加方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106653030A true CN106653030A (zh) | 2017-05-10 |
Family
ID=58818371
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611109690.XA Pending CN106653030A (zh) | 2016-12-02 | 2016-12-02 | 标点添加方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106653030A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107221330A (zh) * | 2017-05-26 | 2017-09-29 | 北京搜狗科技发展有限公司 | 标点添加方法和装置、用于标点添加的装置 |
CN107767870A (zh) * | 2017-09-29 | 2018-03-06 | 百度在线网络技术(北京)有限公司 | 标点符号的添加方法、装置和计算机设备 |
CN108564953A (zh) * | 2018-04-20 | 2018-09-21 | 科大讯飞股份有限公司 | 一种语音识别文本的标点处理方法及装置 |
CN109558576A (zh) * | 2018-11-05 | 2019-04-02 | 中山大学 | 一种基于自注意力机制的标点符号预测方法 |
CN109614627A (zh) * | 2019-01-04 | 2019-04-12 | 平安科技(深圳)有限公司 | 一种文本标点预测方法、装置、计算机设备及存储介质 |
CN109979435A (zh) * | 2017-12-28 | 2019-07-05 | 北京搜狗科技发展有限公司 | 数据处理方法和装置、用于数据处理的装置 |
CN110032732A (zh) * | 2019-03-12 | 2019-07-19 | 平安科技(深圳)有限公司 | 一种文本标点预测方法、装置、计算机设备及存储介质 |
CN111339786A (zh) * | 2020-05-20 | 2020-06-26 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、电子设备及存储介质 |
CN111344779A (zh) * | 2017-12-15 | 2020-06-26 | 谷歌有限责任公司 | 训练和/或使用编码器模型确定自然语言输入的响应动作 |
CN111883137A (zh) * | 2020-07-31 | 2020-11-03 | 龙马智芯(珠海横琴)科技有限公司 | 基于语音识别的文本处理方法及装置 |
CN112001167A (zh) * | 2020-08-26 | 2020-11-27 | 四川云从天府人工智能科技有限公司 | 一种标点符号添加方法、系统、设备和介质 |
CN112599131A (zh) * | 2020-12-07 | 2021-04-02 | 维沃移动通信有限公司 | 一种语音输入方法、装置和电子设备 |
CN112673424A (zh) * | 2018-11-16 | 2021-04-16 | 谷歌有限责任公司 | 用于自动语音识别的场境去规范化 |
WO2022166218A1 (zh) * | 2021-02-07 | 2022-08-11 | 虫洞创新平台(深圳)有限公司 | 一种语音识别中添加标点符号的方法及语音识别装置 |
CN115394298A (zh) * | 2022-08-26 | 2022-11-25 | 思必驰科技股份有限公司 | 语音识别文本标点预测模型训练方法和预测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110064171A (ko) * | 2009-12-07 | 2011-06-15 | 한국전자통신연구원 | 음성인식결과 문장에 대한 문형분류장치 및 방법 |
CN104142915A (zh) * | 2013-05-24 | 2014-11-12 | 腾讯科技(深圳)有限公司 | 一种添加标点的方法和系统 |
-
2016
- 2016-12-02 CN CN201611109690.XA patent/CN106653030A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110064171A (ko) * | 2009-12-07 | 2011-06-15 | 한국전자통신연구원 | 음성인식결과 문장에 대한 문형분류장치 및 방법 |
CN104142915A (zh) * | 2013-05-24 | 2014-11-12 | 腾讯科技(深圳)有限公司 | 一种添加标点的方法和系统 |
Non-Patent Citations (5)
Title |
---|
0TTOKAR TILK等: "《LSTM for punctuation restoration in speech transcripts》", 《INTERSPEECH 2015》 * |
DZMITRY BAHDANAU等: "Neural Machine Translation by Jointly Learning to Align and Translate", 《ICLR2015》 * |
JAN CHOROWSKL等: "Attention-Based Models for Speech Recognition", 《ARXIV》 * |
KYUNGHYUN CHO等: "Describing Multimedia Content Using Attention-Based Encoder-Decoder Networks", 《IEEE TRANSACTIONS ON MULTIMEDIA》 * |
OTTOKAR TILK等: "《Bidirectional recurrent neural network with attention mechanism for punctuation restoration》", 《INTERSPEECH 2016》 * |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107221330A (zh) * | 2017-05-26 | 2017-09-29 | 北京搜狗科技发展有限公司 | 标点添加方法和装置、用于标点添加的装置 |
CN107221330B (zh) * | 2017-05-26 | 2020-11-27 | 北京搜狗科技发展有限公司 | 标点添加方法和装置、用于标点添加的装置 |
CN107767870A (zh) * | 2017-09-29 | 2018-03-06 | 百度在线网络技术(北京)有限公司 | 标点符号的添加方法、装置和计算机设备 |
CN107767870B (zh) * | 2017-09-29 | 2021-03-23 | 百度在线网络技术(北京)有限公司 | 标点符号的添加方法、装置和计算机设备 |
US11842253B2 (en) | 2017-12-15 | 2023-12-12 | Google Llc | Training encoder model and/or using trained encoder model to determine responsive action(s) for natural language input |
CN111344779A (zh) * | 2017-12-15 | 2020-06-26 | 谷歌有限责任公司 | 训练和/或使用编码器模型确定自然语言输入的响应动作 |
CN111344779B (zh) * | 2017-12-15 | 2024-01-23 | 谷歌有限责任公司 | 训练和/或使用编码器模型确定自然语言输入的响应动作 |
CN109979435A (zh) * | 2017-12-28 | 2019-07-05 | 北京搜狗科技发展有限公司 | 数据处理方法和装置、用于数据处理的装置 |
CN109979435B (zh) * | 2017-12-28 | 2021-10-22 | 北京搜狗科技发展有限公司 | 数据处理方法和装置、用于数据处理的装置 |
CN108564953A (zh) * | 2018-04-20 | 2018-09-21 | 科大讯飞股份有限公司 | 一种语音识别文本的标点处理方法及装置 |
CN109558576A (zh) * | 2018-11-05 | 2019-04-02 | 中山大学 | 一种基于自注意力机制的标点符号预测方法 |
CN109558576B (zh) * | 2018-11-05 | 2023-05-23 | 中山大学 | 一种基于自注意力机制的标点符号预测方法 |
CN112673424A (zh) * | 2018-11-16 | 2021-04-16 | 谷歌有限责任公司 | 用于自动语音识别的场境去规范化 |
CN109614627B (zh) * | 2019-01-04 | 2023-01-20 | 平安科技(深圳)有限公司 | 一种文本标点预测方法、装置、计算机设备及存储介质 |
CN109614627A (zh) * | 2019-01-04 | 2019-04-12 | 平安科技(深圳)有限公司 | 一种文本标点预测方法、装置、计算机设备及存储介质 |
CN110032732A (zh) * | 2019-03-12 | 2019-07-19 | 平安科技(深圳)有限公司 | 一种文本标点预测方法、装置、计算机设备及存储介质 |
CN111339786B (zh) * | 2020-05-20 | 2020-08-25 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、电子设备及存储介质 |
CN111339786A (zh) * | 2020-05-20 | 2020-06-26 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、电子设备及存储介质 |
CN111883137A (zh) * | 2020-07-31 | 2020-11-03 | 龙马智芯(珠海横琴)科技有限公司 | 基于语音识别的文本处理方法及装置 |
CN111883137B (zh) * | 2020-07-31 | 2024-07-16 | 龙马智芯(珠海横琴)科技有限公司 | 基于语音识别的文本处理方法及装置 |
CN112001167A (zh) * | 2020-08-26 | 2020-11-27 | 四川云从天府人工智能科技有限公司 | 一种标点符号添加方法、系统、设备和介质 |
CN112001167B (zh) * | 2020-08-26 | 2021-04-23 | 四川云从天府人工智能科技有限公司 | 一种标点符号添加方法、系统、设备和介质 |
CN112599131A (zh) * | 2020-12-07 | 2021-04-02 | 维沃移动通信有限公司 | 一种语音输入方法、装置和电子设备 |
WO2022166218A1 (zh) * | 2021-02-07 | 2022-08-11 | 虫洞创新平台(深圳)有限公司 | 一种语音识别中添加标点符号的方法及语音识别装置 |
CN115394298A (zh) * | 2022-08-26 | 2022-11-25 | 思必驰科技股份有限公司 | 语音识别文本标点预测模型训练方法和预测方法 |
CN115394298B (zh) * | 2022-08-26 | 2024-09-06 | 思必驰科技股份有限公司 | 语音识别文本标点预测模型训练方法和预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106653030A (zh) | 标点添加方法及装置 | |
US20210124881A1 (en) | Neural network model compresesion method, corpus translation method and device | |
CN112735373A (zh) | 语音合成方法、装置、设备及存储介质 | |
CN106486126B (zh) | 语音识别纠错方法及装置 | |
CN106649694A (zh) | 语音交互中确定用户意图的方法及装置 | |
CN111312231B (zh) | 音频检测方法、装置、电子设备及可读存储介质 | |
CN107632980A (zh) | 语音翻译方法和装置、用于语音翻译的装置 | |
CN107291690A (zh) | 标点添加方法和装置、用于标点添加的装置 | |
CN107221330A (zh) | 标点添加方法和装置、用于标点添加的装置 | |
CN110148400A (zh) | 发音类型的识别方法、模型的训练方法、装置及设备 | |
CN108877782A (zh) | 语音识别方法和装置 | |
CN110245224B (zh) | 对话生成方法及装置 | |
CN111667810B (zh) | 多音字语料的获取方法、装置、可读介质和电子设备 | |
CN107945802A (zh) | 语音识别结果处理方法及装置 | |
CN107291704A (zh) | 处理方法和装置、用于处理的装置 | |
CN106649696A (zh) | 信息分类方法及装置 | |
CN109215630A (zh) | 实时语音识别方法、装置、设备及存储介质 | |
CN113299312A (zh) | 一种图像生成方法、装置、设备以及存储介质 | |
CN108039181A (zh) | 一种声音信号的情感信息分析方法和装置 | |
CN114093384A (zh) | 说话视频生成方法、装置、设备以及存储介质 | |
CN107910021A (zh) | 一种符号插入方法及装置 | |
CN106847273B (zh) | 语音识别的唤醒词选择方法及装置 | |
CN111177296A (zh) | 信息推荐方法、装置、电子设备及计算机存储介质 | |
CN115206342A (zh) | 一种数据处理方法、装置、计算机设备及可读存储介质 | |
CN112669821B (zh) | 一种语音意图识别方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170510 |