CN105225658B - 韵律停顿信息的确定方法和装置 - Google Patents
韵律停顿信息的确定方法和装置 Download PDFInfo
- Publication number
- CN105225658B CN105225658B CN201510689302.9A CN201510689302A CN105225658B CN 105225658 B CN105225658 B CN 105225658B CN 201510689302 A CN201510689302 A CN 201510689302A CN 105225658 B CN105225658 B CN 105225658B
- Authority
- CN
- China
- Prior art keywords
- text
- prosody prediction
- rhythm
- speaker
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Document Processing Apparatus (AREA)
Abstract
本发明提出一种韵律停顿信息的确定方法和装置,该韵律停顿信息的确定方法包括:提取待合成文本的韵律预测特征;根据所用的发音人选择所述发音人对应的自适应韵律预测模型;将所述待合成文本的韵律预测特征输入到所述发音人对应的自适应韵律预测模型中,以确定所述待合成文本的韵律停顿信息。本发明解决了声学模型和韵律模型两者所用韵律训练数据不一致的问题,改善了韵律节奏,提升了合成流畅度,并且使用发音人各自的自适应韵律预测模型,使得多发音人切换的场合的合成效果更加自然。
Description
技术领域
本发明涉及语音合成技术领域,尤其涉及一种韵律停顿信息的确定方法和装置。
背景技术
语音合成的目的是将文本转换为语音播放给用户,目标是达到真人文本播报的效果。在语音合成环节中一个重要模块是预测待合成文本的韵律停顿,然后根据预测得到的韵律停顿去生成合成语音。
目前语音合成中的韵律预测是基于统计机器学习的方法实现的,其流程包括准备训练数据、训练韵律预测模型和基于训练好的模型进行韵律预测。
但是,现有技术中,韵律预测模型中训练的韵律停顿模式和声学模型训练中的韵律停顿模式是不匹配的。其原因是韵律停顿的训练数据是标注人根据文本标注获得的,而且一般是多个标注人共同标注的结果,因此训练的韵律停顿模型表征的是这些标注人的平均韵律停顿模式;而声学模型训练中输入特征的韵律停顿是根据发音人录音标注来的,即反映的是发音人个人的韵律停顿模式。
另外一个问题是现在的语音合成系统均支持多个发音人,比如男声、女声和童声等,但是目前的解决方案不同发音人对相同文本的韵律停顿是同一个,这也不符合真人发音的特点。
发明内容
本发明的目的旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种韵律停顿信息的确定方法。该方法解决了声学模型和韵律模型两者所用韵律训练数据不一致的问题,改善了韵律节奏,提升了合成流畅度,并且使用发音人各自的自适应韵律预测模型,使得多发音人切换的场合的合成效果更加自然。
本发明的第二个目的在于提出一种韵律停顿信息的确定装置。
为了实现上述目的,本发明第一方面实施例的韵律停顿信息的确定方法,包括:提取待合成文本的韵律预测特征;根据所用的发音人选择所述发音人对应的自适应韵律预测模型;将所述待合成文本的韵律预测特征输入到所述发音人对应的自适应韵律预测模型中,以确定所述待合成文本的韵律停顿信息。
本发明实施例的韵律停顿信息的确定方法中,提取待合成文本的韵律预测特征之后,根据所用的发音人选择上述发音人对应的韵律预测模型,然后将上述待合成文本的韵律预测特征输入到上述发音人对应的自适应韵律预测模型中,以确定待合成文本的韵律停顿信息,从而可以解决声学模型和韵律模型两者所用韵律训练数据不一致的问题,改善了韵律节奏,提升了合成流畅度,并且使用发音人各自的自适应韵律预测模型,使得多发音人切换的场合的合成效果更加自然。
为了实现上述目的,本发明第二方面实施例的韵律停顿信息的确定装置,包括:提取模块,用于提取待合成文本的韵律预测特征;选择模块,用于根据所用的发音人选择所述发音人对应的自适应韵律预测模型;确定模块,用于将所述提取模块提取的待合成文本的韵律预测特征输入到所述选择模块选择的所述发音人对应的自适应韵律预测模型中,以确定所述待合成文本的韵律停顿信息。
本发明实施例的韵律停顿信息的确定装置中,提取模块提取待合成文本的韵律预测特征之后,选择模块根据所用的发音人选择上述发音人对应的韵律预测模型,然后确定模块将上述待合成文本的韵律预测特征输入到上述发音人对应的自适应韵律预测模型中,以确定待合成文本的韵律停顿信息,从而可以解决声学模型和韵律模型两者所用韵律训练数据不一致的问题,改善了韵律节奏,提升了合成流畅度,并且使用发音人各自的自适应韵律预测模型,使得多发音人切换的场合的合成效果更加自然。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明韵律停顿信息的确定方法一个实施例的流程图;
图2为本发明韵律停顿信息的确定方法另一个实施例的流程图;
图3为本发明韵律停顿信息的确定方法再一个实施例的流程图;
图4为本发明韵律停顿信息的确定方法再一个实施例的流程图;
图5为本发明韵律停顿信息的确定方法的实现示意图;
图6为本发明韵律停顿信息的确定装置一个实施例的结构示意图;
图7为本发明韵律停顿信息的确定装置另一个实施例的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
图1为本发明韵律停顿信息的确定方法一个实施例的流程图,如图1所示,该韵律停顿信息的确定方法可以包括:
步骤101,提取待合成文本的韵律预测特征。
具体地,提取待合成文本的韵律预测特征可以为:对上述待合成文本进行分词和词性标注等操作,以提取上述待合成文本的韵律预测特征。
步骤102,根据所用的发音人选择上述发音人对应的自适应韵律预测模型。
步骤103,将上述待合成文本的韵律预测特征输入到上述发音人对应的自适应韵律预测模型中,以确定上述待合成文本的韵律停顿信息。
上述韵律停顿信息的确定方法中,提取待合成文本的韵律预测特征之后,根据所用的发音人选择上述发音人对应的自适应韵律预测模型,然后将上述待合成文本的韵律预测特征输入到上述发音人对应的自适应韵律预测模型中,以确定待合成文本的韵律停顿信息,从而可以解决声学模型和韵律模型两者所用韵律训练数据不一致的问题,改善了韵律节奏,提升了合成流畅度,并且使用发音人各自的自适应韵律预测模型,使得多发音人切换的场合的合成效果更加自然。
图2为本发明韵律停顿信息的确定方法另一个实施例的流程图,如图2所示,步骤102之前,还可以包括:
步骤201,训练韵律预测的基础模型。
步骤202,通过上述基础模型对发音人的韵律停顿信息进行自适应,获得上述发音人对应的自适应韵律预测模型。
其中,步骤201~步骤202可以与步骤101并行执行,也可以先后执行,本实施例对步骤201~步骤202与步骤101的执行顺序不作限定,图2中以步骤201~步骤202在步骤101之前执行为例示出。
图3为本发明韵律停顿信息的确定方法再一个实施例的流程图,如图3所示,步骤201可以包括:
步骤301,获得韵律预测的标注文本。
步骤302,提取上述标注文本的韵律预测特征,以及标注上述标注文本的韵律停顿信息。
具体地,可以对标注文本进行分词和词性标注等操作,以提取上述标注文本的韵律预测特征。
步骤303,通过机器学习工具建立上述标注文本的韵律预测特征与韵律停顿信息之间的映射关系,获得上述韵律预测的基础模型。
具体地,可以选择机器学习工具在上述标注文本的韵律预测特征与韵律停顿信息之间建模,以描述这两者之间的映射关系,最终训练得到韵律预测的基础模型。
此处为了后面的自适应操作,对于机器学习工具推荐使用深度神经网络模型,但本实施例并不仅限于此,也可以使用其他的机器学习工具,本实施例对此不作限定。
图4为本发明韵律停顿信息的确定方法再一个实施例的流程图,如图4所示,步骤202可以包括:
步骤401,获得发音人的录音文本。
其中,上述发音人的录音文本的数量相对于训练基础模型时的标注文本的数量来说要小得多。
步骤402,提取上述录音文本的韵律预测特征,以及根据上述发音人朗读的节奏标注上述录音文本的韵律停顿信息。
具体地,可以对上述录音文本进行分词和词性标注等操作,以提取上述录音文本的韵律预测特征。
步骤403,根据上述录音文本的韵律预测特征,通过上述基础模型对上述录音文本的韵律停顿信息进行自适应,获得上述发音人对应的自适应韵律预测模型。
需要说明的是,如果语音合成系统存在多个发音人,对于每个发音人均可按照上述流程训练各自的自适应韵律预测模型。
本发明图1~图4所示实施例提供的韵律停顿信息的确定方法的实现示意图可以如图5所示,图5为本发明韵律停顿信息的确定方法的实现示意图。
上述韵律停顿信息的确定方法解决了声学模型和韵律模型两者所用韵律训练数据不一致的问题,改善了韵律节奏提升了合成流畅度,并且使用发音人各自的自适应韵律预测模型,使得多发音人切换的场合合成效果更加自然。
图6为本发明韵律停顿信息的确定装置一个实施例的结构示意图,本实施例中的韵律停顿信息的确定装置可以实现本发明提供的韵律停顿信息的确定方法的流程,如图6所示,上述韵律停顿信息的确定装置可以包括:提取模块61、选择模块62和确定模块63;
其中,提取模块61,用于提取待合成文本的韵律预测特征;具体地,提取模块61,具体用于对上述待合成文本进行分词和词性标注等操作,以提取上述待合成文本的韵律预测特征。
选择模块62,用于根据所用的发音人选择上述发音人对应的自适应韵律预测模型;
确定模块63,用于将提取模块61提取的待合成文本的韵律预测特征输入到选择模块62选择的上述发音人对应的自适应韵律预测模型中,以确定上述待合成文本的韵律停顿信息。
上述韵律停顿信息的确定装置中,提取模块61提取待合成文本的韵律预测特征之后,选择模块62根据所用的发音人选择上述发音人对应的自适应韵律预测模型,然后确定模块63将上述待合成文本的韵律预测特征输入到上述发音人对应的自适应韵律预测模型中,以确定待合成文本的韵律停顿信息,从而可以解决声学模型和韵律模型两者所用韵律训练数据不一致的问题,改善了韵律节奏,提升了合成流畅度,并且使用发音人各自的自适应韵律预测模型,使得多发音人切换的场合的合成效果更加自然。
图7为本发明韵律停顿信息的确定装置另一个实施例的结构示意图,与图6所示的韵律停顿信息的确定装置相比,不同之处在于,图7所示的韵律停顿信息的确定装置还可以包括:
训练模块64,用于在选择模块62选择上述发音人对应的自适应韵律预测模型之前,训练韵律预测的基础模型;
获得模块65,用于通过训练模块64训练的基础模型对发音人的韵律停顿信息进行自适应,获得上述发音人对应的自适应韵律预测模型。
本实施例中,训练模块64可以包括:
第一获得子模块641,用于获得韵律预测的标注文本。
第一提取子模块642,用于提取第一获得子模块641获得的标注文本的韵律预测特征;具体地,第一提取子模块642可以对标注文本进行分词和词性标注等操作,以提取上述标注文本的韵律预测特征。
第一标注子模块643,用于标注第一获得子模块641获得的标注文本的韵律停顿信息。
第一模型获得子模块644,用于通过机器学习工具建立第一提取子模块642提取的标注文本的韵律预测特征与第一标注子模块643标注的韵律停顿信息之间的映射关系,获得上述韵律预测的基础模型。具体地,第一模型获得子模块644可以选择机器学习工具在上述标注文本的韵律预测特征与韵律停顿信息之间建模,以描述这两者之间的映射关系,最终训练得到韵律预测的基础模型。
此处为了后面的自适应操作,对于机器学习工具推荐使用深度神经网络模型,但本实施例并不仅限于此,也可以使用其他的机器学习工具,本实施例对此不作限定。
本实施例中,获得模块65可以包括:
第二获得子模块651,用于获得发音人的录音文本;其中,上述发音人的录音文本的数量相对于训练基础模型时的标注文本的数量来说要小得多。
第二提取子模块652,用于提取第二获得子模块651获得的录音文本的韵律预测特征;具体地,第二提取子模块652可以对上述录音文本进行分词和词性标注等操作,以提取上述录音文本的韵律预测特征。
第二标注子模块653,用于根据上述发音人朗读的节奏标注第二获得子模块651获得的录音文本的韵律停顿信息。
第二模型获得子模块654,用于根据第二提取子模块652提取的录音文本的韵律预测特征,通过上述基础模型对第二标注子模块653标注的录音文本的韵律停顿信息进行自适应,获得上述发音人对应的自适应韵律预测模型。
需要说明的是,如果语音合成系统存在多个发音人,对于每个发音人均可按照上述流程训练各自的自适应韵律预测模型。
上述韵律停顿信息的确定装置解决了声学模型和韵律模型两者所用韵律训练数据不一致的问题,改善了韵律节奏提升了合成流畅度,并且使用发音人各自的自适应韵律预测模型,使得多发音人切换的场合合成效果更加自然。
需要说明的是,在本发明的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(Programmable Gate Array;以下简称:PGA),现场可编程门阵列(Field ProgrammableGate Array;以下简称:FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (4)
1.一种韵律停顿信息的确定方法,其特征在于,包括:
提取待合成文本的韵律预测特征;
根据所用的发音人选择所述发音人对应的自适应韵律预测模型;
将所述待合成文本的韵律预测特征输入到所述发音人对应的自适应韵律预测模型中,以确定所述待合成文本的韵律停顿信息,其中,
所述根据所用的发音人选择所述发音人对应的自适应韵律预测模型之前,还包括:
训练韵律预测的基础模型;
通过所述基础模型对发音人的韵律停顿信息进行自适应,获得所述发音人对应的自适应韵律预测模型;
其中,所述训练韵律预测的基础模型包括:
获得韵律预测的标注文本;
提取所述标注文本的韵律预测特征,以及标注所述标注文本的韵律停顿信息;
通过机器学习工具建立所述标注文本的韵律预测特征与韵律停顿信息之间的映射关系,获得所述韵律预测的基础模型;
所述通过所述基础模型对发音人的韵律停顿信息进行自适应,获得所述发音人对应的自适应韵律预测模型包括:
获得发音人的录音文本;
提取所述录音文本的韵律预测特征,以及根据所述发音人朗读的节奏标注所述录音文本的韵律停顿信息;
根据所述录音文本的韵律预测特征,通过所述基础模型对所述录音文本的韵律停顿信息进行自适应,获得所述发音人对应的自适应韵律预测模型。
2.根据权利要求1所述的方法,其特征在于,所述提取待合成文本的韵律预测特征包括:
对所述待合成文本进行分词和词性标注,以提取所述待合成文本的韵律预测特征。
3.一种韵律停顿信息的确定装置,其特征在于,包括:
提取模块,用于提取待合成文本的韵律预测特征;
选择模块,用于根据所用的发音人选择所述发音人对应的自适应韵律预测模型;
确定模块,用于将所述提取模块提取的待合成文本的韵律预测特征输入到所述选择模块选择的所述发音人对应的自适应韵律预测模型中,以确定所述待合成文本的韵律停顿信息;
训练模块,用于在所述选择模块选择所述发音人对应的自适应韵律预测模型之前,训练韵律预测的基础模型;
获得模块,用于通过所述训练模块训练的基础模型对发音人的韵律停顿信息进行自适应,获得所述发音人对应的自适应韵律预测模型;
其中,所述训练模块包括:
第一获得子模块,用于获得韵律预测的标注文本;
第一提取子模块,用于提取所述第一获得子模块获得的标注文本的韵律预测特征;
第一标注子模块,用于标注所述第一获得子模块获得的标注文本的韵律停顿信息;
第一模型获得子模块,用于通过机器学习工具建立所述第一提取子模块提取的标注文本的韵律预测特征与所述第一标注子模块标注的韵律停顿信息之间的映射关系,获得所述韵律预测的基础模型;
所述获得模块包括:
第二获得子模块,用于获得发音人的录音文本;
第二提取子模块,用于提取所述第二获得子模块获得的录音文本的韵律预测特征;
第二标注子模块,用于根据所述发音人朗读的节奏标注所述第二获得子模块获得的录音文本的韵律停顿信息;
第二模型获得子模块,用于根据所述第二提取子模块提取的录音文本的韵律预测特征,通过所述基础模型对所述第二标注子模块标注的录音文本的韵律停顿信息进行自适应,获得所述发音人对应的自适应韵律预测模型。
4.根据权利要求3所述的装置,其特征在于,
所述提取模块,具体用于对所述待合成文本进行分词和词性标注,以提取所述待合成文本的韵律预测特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510689302.9A CN105225658B (zh) | 2015-10-21 | 2015-10-21 | 韵律停顿信息的确定方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510689302.9A CN105225658B (zh) | 2015-10-21 | 2015-10-21 | 韵律停顿信息的确定方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105225658A CN105225658A (zh) | 2016-01-06 |
CN105225658B true CN105225658B (zh) | 2018-10-19 |
Family
ID=54994569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510689302.9A Active CN105225658B (zh) | 2015-10-21 | 2015-10-21 | 韵律停顿信息的确定方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105225658B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107039034B (zh) * | 2016-02-04 | 2020-05-01 | 科大讯飞股份有限公司 | 一种韵律预测方法及系统 |
CN105632484B (zh) * | 2016-02-19 | 2019-04-09 | 云知声(上海)智能科技有限公司 | 语音合成数据库停顿信息自动标注方法及系统 |
CN106601228B (zh) * | 2016-12-09 | 2020-02-04 | 百度在线网络技术(北京)有限公司 | 基于人工智能韵律预测的样本标注方法及装置 |
CN109360551B (zh) * | 2018-10-25 | 2021-02-05 | 珠海格力电器股份有限公司 | 一种语音识别方法及装置 |
CN110010136B (zh) * | 2019-04-04 | 2021-07-20 | 北京地平线机器人技术研发有限公司 | 韵律预测模型的训练和文本分析方法、装置、介质和设备 |
CN110782871B (zh) | 2019-10-30 | 2020-10-30 | 百度在线网络技术(北京)有限公司 | 一种韵律停顿预测方法、装置以及电子设备 |
CN110767213A (zh) * | 2019-11-08 | 2020-02-07 | 四川长虹电器股份有限公司 | 一种韵律预测方法及装置 |
CN111754978B (zh) * | 2020-06-15 | 2023-04-18 | 北京百度网讯科技有限公司 | 韵律层级标注方法、装置、设备和存储介质 |
CN112466277B (zh) * | 2020-10-28 | 2023-10-20 | 北京百度网讯科技有限公司 | 韵律模型训练方法、装置、电子设备及存储介质 |
CN112786023B (zh) * | 2020-12-23 | 2024-07-02 | 竹间智能科技(上海)有限公司 | 标记模型构建方法及语音播报系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101051458A (zh) * | 2006-04-04 | 2007-10-10 | 中国科学院自动化研究所 | 基于组块分析的韵律短语预测方法 |
CN101814288A (zh) * | 2009-02-20 | 2010-08-25 | 富士通株式会社 | 使语音合成时长模型自适应的方法和设备 |
CN103778912A (zh) * | 2012-10-19 | 2014-05-07 | 财团法人工业技术研究院 | 引导式说话人自适应语音合成的系统与方法及程序产品 |
CN104835493A (zh) * | 2014-02-10 | 2015-08-12 | 株式会社东芝 | 语音合成字典生成装置和语音合成字典生成方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6082657B2 (ja) * | 2013-05-28 | 2017-02-15 | 日本電信電話株式会社 | ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム |
-
2015
- 2015-10-21 CN CN201510689302.9A patent/CN105225658B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101051458A (zh) * | 2006-04-04 | 2007-10-10 | 中国科学院自动化研究所 | 基于组块分析的韵律短语预测方法 |
CN101814288A (zh) * | 2009-02-20 | 2010-08-25 | 富士通株式会社 | 使语音合成时长模型自适应的方法和设备 |
CN103778912A (zh) * | 2012-10-19 | 2014-05-07 | 财团法人工业技术研究院 | 引导式说话人自适应语音合成的系统与方法及程序产品 |
CN104835493A (zh) * | 2014-02-10 | 2015-08-12 | 株式会社东芝 | 语音合成字典生成装置和语音合成字典生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105225658A (zh) | 2016-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105225658B (zh) | 韵律停顿信息的确定方法和装置 | |
CN105304080B (zh) | 语音合成装置及方法 | |
CN105206258B (zh) | 声学模型的生成方法和装置及语音合成方法和装置 | |
US9911352B2 (en) | Situated simulation for training, education, and therapy | |
CN104916284B (zh) | 用于语音合成系统的韵律与声学联合建模的方法及装置 | |
JP2004246184A (ja) | 視覚化された発音の提案を備えた言語学習システム及び方法 | |
CN109584648A (zh) | 数据生成方法及装置 | |
CN109377797A (zh) | 虚拟人物教学方法及装置 | |
CN110148399A (zh) | 一种智能设备的控制方法、装置、设备及介质 | |
CN106781721A (zh) | 一种基于机器人的儿童英语交互方法以及机器人 | |
CN108182830A (zh) | 机器人控制装置、学生机器人、教师机器人、机器人控制方法、学习支援系统以及存储介质 | |
CN110910691A (zh) | 一种个性化课程生成方法及系统 | |
Muneesawang et al. | A machine intelligence approach to virtual ballet training | |
Liu et al. | Realistic facial expression synthesis for an image-based talking head | |
CN110164422A (zh) | 一种口语考试的多维度评估方法及装置 | |
KR20190041105A (ko) | 학습자의 문장입력 및 음성입력을 이용한 학습 시스템 및 그 방법 | |
CN106297766B (zh) | 语音合成方法及系统 | |
CN113724683A (zh) | 音频生成方法、计算机设备及计算机可读存储介质 | |
CN110288214A (zh) | 级别划分的方法及装置 | |
CN109147419A (zh) | 基于错误发音检测的语言学习机系统 | |
JP2016062062A (ja) | 音声出力装置、音声出力プログラムおよび音声出力方法 | |
CN111816157B (zh) | 一种基于语音合成的乐谱智能视唱方法和系统 | |
Altalmas et al. | Lips tracking identification of a correct Quranic letters pronunciation for Tajweed teaching and learning | |
CN106557914A (zh) | 一种闹钟提醒方法和装置 | |
JPS616732A (ja) | 発声訓練装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |