CN104575488A - 一种基于文本信息的波形拼接语音合成方法 - Google Patents
一种基于文本信息的波形拼接语音合成方法 Download PDFInfo
- Publication number
- CN104575488A CN104575488A CN201410816486.6A CN201410816486A CN104575488A CN 104575488 A CN104575488 A CN 104575488A CN 201410816486 A CN201410816486 A CN 201410816486A CN 104575488 A CN104575488 A CN 104575488A
- Authority
- CN
- China
- Prior art keywords
- text
- primitive
- information
- prediction model
- preliminary election
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于文本信息的波形拼接语音合成方法,该方法包括以下步骤:通过音段切分,提取原始音频中所有基元的声学参数与文本参数,根据提取的参数训练时长预测模型与训练权重预测模型;采用分层预选方法,进行分层预选,利用文本分析的目标基元、时长预测模型预测的时长对语料库中的基元进行初步预选,获得候选基元;对目标基元、候选基元和权重预测模型预测的权重信息计算,获得目标代价;对相邻两个基元的契合度进行计算,得到拼接代价;用维特比搜索方法对目标代价和拼接代价进行搜索,得到最小代价路径,进而得到最佳基元并经过平滑拼接得到合成语音。本发明提高了合成语音的效率,增强拼接合成的实时性并提高了合成语音的韵律表现。
Description
技术领域
本发明涉及一种波形拼接语音合成方法,尤其涉及一种基于文本信息的波形拼接语音合成方法,属于智能信息处理领域。
背景技术
语音作为人机交互的主要手段之一,语音合成主要目的是让计算机能够产生高清晰度、高自然度的连续语音。语音合成主要有两种方式,早期的研究主要是采用参数语音合成,最常用的合成方法是基于隐马尔柯夫的参数语音合成方法。该方法作为一种基于统计声学建模方法的具休实现,对语音的声学参数进行隐马尔柯夫建模,并通过参数生成算法来重构声学参数轨迹,最后调用语音合成器来产生语音波形。该方法的不足在于合成语音的音质、自然度和清晰度都不够理想,与实际语音具有较大的差距。另一种方法是基于语料库的语音拼接合成方法,该方法是直接从原始录制的语料库中挑选合适的基元来进行拼接合成语音。但该方法虽能合成出较为接近原始语音的波形,但受限于语料库大小的制约,合成语音的稳定性不够理想(音库过大,合成语音速度较慢,无法实时合成;音库过小,合成语音不稳定),很大程度上影响的听感。并且现有的拼接合成系统,在计算代价时缺少考虑文本信息对基元的影响,合成出的语音在韵律表现上也不是很好。
发明内容
为了解决上述技术所存在的不足之处,本发明提供了一种基于文本信息的波形拼接语音合成方法。
为了解决以上技术问题,本发明采用的技术方案是:一种基于文本信息的波形拼接语音合成方法,该方法包括以下步骤:
步骤S1:通过音段切分,提取原始音频中所有基元的声学参数与文本参数,根据提取的参数训练时长预测模型与训练权重预测模型;
步骤S2:采用分层预选方法,进行分层预选,利用文本分析的目标基元、时长预测模型预测的时长对语料库中的基元进行初步预选,获得候选基元;
步骤S3:对目标基元、候选基元和权重预测模型预测的权重信息计算,获得目标代价;对相邻两个基元的契合度进行计算,得到拼接代价;用维特比搜索方法对目标代价和拼接代价进行搜索,得到最小代价路径,进而得到最佳基元并经过平滑拼接得到合成语音。
训练时长预测模型包括以下步骤:
步骤S11:对原始音库进行音段切分,切分为波形拼接所需的最小基本单元,以切分后的基元为单位,按帧提取基频参数、梅尔倒谱参数与能量;
步骤S12:对所述原始音频对应文本进行文本分析,根据音段切分结果,提取所有基元对应的上下文文本的特征信息与时长信息,并与提取的声学参数一一对应;
步骤S13:根据与声学参数一一对应的文本特征与时长信息,采用决策树训练时长预测模型。
训练权重预测模型包括以下步骤:
步骤S1A:对原始音库进行音段切分,切分为波形拼接系统所需的最小基本单元,并以切分后的基元为单位,按帧提取基频参数、梅尔倒谱参数与能量;在本发明一实施例中,谱参数是提取的12阶梅尔倒谱系数;
步骤S1B:对所述原始音频对应文本进行文本分析,根据音段切分结果,提取所有基元对应的上下文文本的特征信息与时长信息,并与提取的声学参数一一对应:
步骤S1C:根据提取的所有基元的文本特征与声学特征,按基元进行分类;
步骤S1D:对于每一类基元,计算所有任意两个基元对应的文本特征参数与声学参数之间的距离,存储所有距离信息作为训练样本;
步骤S1F:采用决策树和线性回归算法(M5P),进行权重预测模型的训练。
文本的特征信息与时长信息作为决策树的节点,在叶节点处与声学参数的距离作线性回归;得到文本信息对应的权重。
分层预选包括以下步骤:
步骤S21:设置标识参数flag=0,第一层预选采用基元上下文特征信息作为预选信息进行预选;
步骤S22:第二层预选是在第一层预选的基础上,采用文本特征信息、词性和重音信息作为预选信息进行基元预选,如果标识参数flag=0,则执行步骤S23;如果标识参数flag=1,则输出第二层候选基元;
步骤S23:第三层预选是在第二层预选的基础上,采用根据文本特征预测出来的时长信息作为预选信息进行预选,如果候选基元个数不为0,设置标识参数flag=1,返回步骤S21;如果候选基元个数不为0,则输出第三层候选基元。
获得目标代价包括以下步骤:
步骤S31:根据待合成语句的文本分析结果提取的相关基元的文本参数作为目标基元的参数,经过分层预选后的基元的文本参数作为候选基元的参数;
步骤S32:计算目标基元与候选基元文本特征之间的距离,结合预测出的权重信息,经过线性回归运算得到的结果即为目标代价。
本发明的有益效果:
(1)本发明结合待合成语音与原始语音的文本特征,在基元预选时用分层预选方法,不仅能有效率的在保证候选基元接近目标基元的情况下,减少基元的个数,降低后期代价计算的时间开销,提高了合成语音的效率,增强拼接合成的实时性;并且加入的时长预测模型能保证选到的基元在时长上的连续性,提高了合成语音自然度;
(2)目标代价的计算方法采用的是基于文本信息结合预测得到的权重信息得到的代价,保证了代价最小的基元在韵律上与目标基元的一致性,拼接合成出高自然度,并提高了合成语音的韵律表现。
附图说明
下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为根据本发明基于文本信息的波形拼接语音合成方法流程图。
图2为本发明中训练时长预测模型的流程图。
图3为本发明中训练权重预测模型的流程图。
图4为本发明实施例的分层预选流程图。
图5本发明实施例的基于文本特征的目标代价的计算流程图。
具体实施方式
如图1所示,文本信息的的波形拼接语音合成方法流程图,该方法包括以下步骤:
步骤S1:通过音段切分,提取原始音频中所有基元的声学参数与文本参数,根据提取的参数训练权重预测模型与时长预测模型;
模型训练模块,根据训练文本与对应的音频提取基元的文本参数与声学参数进行模型训练,获取分层预选中的时长预测模型与目标代价计算时所需的权重预测模型;
如图2所示,训练时长预测模型包括以下步骤:
步骤S11:对原始音库进行音段切分(基元切分),切分为波形拼接所需的最小基本单元,以切分后的基元为单位,按帧提取基频参数、梅尔倒谱参数与能量;谱参数是提取的12阶梅尔倒谱系数。
步骤S12:对所述原始音频对应文本进行文本分析,根据音段切分结果,提取所有基元对应的上下文文本的特征信息与时长信息(文本的距离信息),并与提取的声学参数一一对应;
步骤S13:根据与声学参数一一对应的文本特征与时长信息,采用决策树训练时长预测模型;
如图3所示,训练权重预测模型包括以下步骤:
步骤S1A:对原始音库进行音段切分,切分为波形拼接系统所需的最小基本单元,并以切分后的基元为单位,按帧提取基频参数、梅尔倒谱参数与能量;在本发明一实施例中,谱参数是提取的12阶梅尔倒谱系数;
步骤S1B:对所述原始音频对应文本进行文本分析,根据音段切分结果,提取所有基元对应的上下文文本的特征信息与时长信息(文本的距离信息),并与提取的声学参数一一对应;
步骤S1C:根据提取的所有基元的文本特征与声学特征,按基元进行分类;
步骤S1D:对于每一类基元,计算所有任意两个基元对应的文本特征参数与声学参数之间的距离,存储所有距离信息作为训练样本;
步骤S1F:采用决策树和线性回归算法(M5P),进行权重预测模型的训练。
文本的距离信息作为决策树的节点,在叶节点处与声学参数的距离作线性回归,即可得到文本信息对应的权重。
叶节点处的回归可以用以下公式表示:
w0|x0-x′0|+w1|x1-x′1|+…+wn|xn-x′n|=π0|F0-F0′|+π1|Dur-Dur′|+π2|E-E′| (1)
其中x′i和xi为两基元对应的文本特征,F0和F0′为对应的基频信息,Dur和Dur′为对应的时长信息,E和E′为能量信息。本实例取[π0,π1,π2]的值为[1,1,0.5]。经过叶节点处的回归运算,(w0,w1,...,wn)即为预测得到的权重信息。
步骤S2:采用分层预选方法,利用文本分析的目标基元、时长预测模型预测的时长对语料库中的基元进行初步预选,获得候选基元;基元预选模块,采用分层预选方法,对语料库中的基元进行初步预选,以减少后期代价计算的复杂度,提高合成效率。
如图4所示,分层预选包括以下步骤:
步骤S21:设置标识参数flag=0,第一层预选采用基元上下文特征信息作为预选信息进行预选;
步骤S22:第二层预选是在第一层预选的基础上,采用文本特征信息、词性和重音信息作为预选信息进行基元预选,如果标识参数flag=0,则执行步骤S23;如果标识参数flag=1,则输出第二层候选基元;
步骤S23:第三层预选是在第二层预选的基础上,采用根据文本特征预测出来的时长信息作为预选信息进行预选,如果候选基元个数不为0,设置标识参数flag=1,返回步骤S21;如果候选基元个数不为0,则输出第三层候选基元。
步骤S3:对目标基元、候选基元和权重预测模型预测的权重信息计算,得到目标代价;对相邻两个基元的契合度进行计算,得到拼接代价;用维特比搜索方法对目标代价和拼接代价进行搜索,得到最小代价路径,进而得到最佳基元并经过平滑拼接得到合成语音。
选音合成模块,包括目标代价与拼接代价的计算。利用代价和最小原则挑选得到最佳基元。
如图5所示,获取目标代价包括以下步骤:
步骤S31:根据待合成语句的文本分析结果提取的相关基元的文本参数作为目标基元的参数,经过分层预选后的基元的文本参数作为候选基元的参数;
步骤S32:计算目标基元与候选基元文本特征之间的距离,结合预测出的权重信息,经过线性回归运算得到的结果即为目标代价;
在拼接代价计算中,计算相邻两个基元的相邻N帧(本实例中N=3)的声学参数距离,作为拼接代价;
表格1为根据本发明一实施例的所需要的文本特征。
本发明方法结合待合成语音与原始语音的文本特征,首先对音库中的基元进行分层预选,提高了合成语音的效率,增强了合成语音的实时性,然后结合基于文本信息预测出的权重信息,计算代价,挑选合适的基元,最后拼接合成出高自然度与高韵律表现的语音。
综上所述,本发明提出了一种基于文本信息的波形拼接语音合成的选音方法,其中包括基于文本信息分层预选与权重预测,该方法不仅可以合成出较高音质的语音,而且提高了系统的运行速度,增强了系统运行的实时性。
需要说明的是,上述对各部件的实现方式并不仅限于实施方式中提到的各种实现方式,本领域的普通技术人员可对其进行简单地熟知地替换,例如:
(1)训练中采用的谱参数是梅尔倒谱系数,可以用其它参数替代,如使用不同阶数的线谱对参数。
(2)对实验室中所采用的文本特征个数与类别,可根据自己的实际需要进行实际的增加或减少。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于文本信息的波形拼接语音合成方法,其特征在于:该方法包括以下步骤:
步骤S1:通过音段切分,提取原始音频中所有基元的声学参数与文本参数,根据提取的参数训练时长预测模型与训练权重预测模型;
步骤S2:采用分层预选方法,进行分层预选,利用文本分析的目标基元、时长预测模型预测的时长对语料库中的基元进行初步预选,获得候选基元;
步骤S3:对目标基元、候选基元和权重预测模型预测的权重信息计算,获得目标代价;对相邻两个基元的契合度进行计算,得到拼接代价;用维特比搜索方法对目标代价和拼接代价进行搜索,得到最小代价路径,进而得到最佳基元并经过平滑拼接得到合成语音。
2.根据权利要求1所述的基于文本信息的波形拼接语音合成方法,其特征在于:所述训练时长预测模型包括以下步骤:
步骤S11:对原始音库进行音段切分,切分为波形拼接所需的最小基本单元,以切分后的基元为单位,按帧提取基频参数、梅尔倒谱参数与能量;
步骤S12:对所述原始音频对应文本进行文本分析,根据音段切分结果,提取所有基元对应的上下文文本的特征信息与时长信息,并与提取的声学参数一一对应;
步骤S13:根据与声学参数一一对应的文本特征与时长信息,采用决策树训练时长预测模型。
3.根据权利要求1所述的基于文本信息的波形拼接语音合成方法,其特征在于:所述训练权重预测模型包括以下步骤:
步骤S1A:对原始音库进行音段切分,切分为波形拼接系统所需的最小基本单元,并以切分后的基元为单位,按帧提取基频参数、梅尔倒谱参数与能量;在本发明一实施例中,谱参数是提取的12阶梅尔倒谱系数;
步骤S1B:对所述原始音频对应文本进行文本分析,根据音段切分结果,提取所有基元对应的上下文文本的特征信息与时长信息,并与提取的声学参数一一对应;
步骤S1C:根据提取的所有基元的文本特征与声学特征,按基元进行分类;
步骤S1D:对于每一类基元,计算所有任意两个基元对应的文本特征参数与声学参数之间的距离,存储所有距离信息作为训练样本;
步骤S1F:采用决策树和线性回归算法(M5P),进行权重预测模型的训练。
4.根据权利要求2或3所述的基于文本信息的波形拼接语音合成方法,其特征在于:所述文本的特征信息与时长信息作为决策树的节点,在叶节点处与声学参数的距离作线性回归;得到文本信息对应的权重。
5.根据权利要求1所述的基于文本信息的波形拼接语音合成方法,其特征在于:所述分层预选包括以下步骤:
步骤S21:设置标识参数flag=0,第一层预选采用基元上下文特征信息作为预选信息进行预选;
步骤S22:第二层预选是在第一层预选的基础上,采用文本特征信息、词性和重音信息作为预选信息进行基元预选,如果标识参数flag=0,则执行步骤S23;如果标识参数flag=1,则输出第二层候选基元;
步骤S23:第三层预选是在第二层预选的基础上,采用根据文本特征预测出来的时长信息作为预选信息进行预选,如果候选基元个数不为0,设置标识参数flag=1,返回步骤S21;如果候选基元个数不为0,则输出第三层候选基元。
6.根据权利要求1所述的基于文本信息的波形拼接语音合成方法,其特征在于:所述获得目标代价包括以下步骤:
步骤S31:根据待合成语句的文本分析结果提取的相关基元的文本参数作为目标基元的参数,经过分层预选后的基元的文本参数作为候选基元的参数;
步骤S32:计算目标基元与候选基元文本特征之间的距离,结合预测出的权重信息,经过线性回归运算得到的结果即为目标代价。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410816486.6A CN104575488A (zh) | 2014-12-25 | 2014-12-25 | 一种基于文本信息的波形拼接语音合成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410816486.6A CN104575488A (zh) | 2014-12-25 | 2014-12-25 | 一种基于文本信息的波形拼接语音合成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104575488A true CN104575488A (zh) | 2015-04-29 |
Family
ID=53091392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410816486.6A Pending CN104575488A (zh) | 2014-12-25 | 2014-12-25 | 一种基于文本信息的波形拼接语音合成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104575488A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107507619A (zh) * | 2017-09-11 | 2017-12-22 | 厦门美图之家科技有限公司 | 语音转换方法、装置、电子设备及可读存储介质 |
CN107731219A (zh) * | 2017-09-06 | 2018-02-23 | 百度在线网络技术(北京)有限公司 | 语音合成处理方法、装置及设备 |
WO2018072543A1 (zh) * | 2016-10-17 | 2018-04-26 | 腾讯科技(深圳)有限公司 | 模型生成方法、语音合成方法及装置 |
CN109346056A (zh) * | 2018-09-20 | 2019-02-15 | 中国科学院自动化研究所 | 基于深度度量网络的语音合成方法及装置 |
CN110047462A (zh) * | 2019-01-31 | 2019-07-23 | 北京捷通华声科技股份有限公司 | 一种语音合成方法、装置和电子设备 |
CN111599339A (zh) * | 2020-05-19 | 2020-08-28 | 苏州奇梦者网络科技有限公司 | 具有高自然度的语音拼接合成方法、系统、设备及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030004723A1 (en) * | 2001-06-26 | 2003-01-02 | Keiichi Chihara | Method of controlling high-speed reading in a text-to-speech conversion system |
CN1455386A (zh) * | 2002-11-01 | 2003-11-12 | 中国科学院声学研究所 | 一种嵌入式语音合成方法及系统 |
US20090007015A1 (en) * | 2007-06-29 | 2009-01-01 | Microsoft Corporation | Segment ring menu |
CN102103856A (zh) * | 2009-12-21 | 2011-06-22 | 盛大计算机(上海)有限公司 | 语音合成方法及系统 |
CN103531196A (zh) * | 2013-10-15 | 2014-01-22 | 中国科学院自动化研究所 | 一种波形拼接语音合成的选音方法 |
CN104112444A (zh) * | 2014-07-28 | 2014-10-22 | 中国科学院自动化研究所 | 一种基于文本信息的波形拼接语音合成方法 |
-
2014
- 2014-12-25 CN CN201410816486.6A patent/CN104575488A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030004723A1 (en) * | 2001-06-26 | 2003-01-02 | Keiichi Chihara | Method of controlling high-speed reading in a text-to-speech conversion system |
CN1455386A (zh) * | 2002-11-01 | 2003-11-12 | 中国科学院声学研究所 | 一种嵌入式语音合成方法及系统 |
US20090007015A1 (en) * | 2007-06-29 | 2009-01-01 | Microsoft Corporation | Segment ring menu |
CN102103856A (zh) * | 2009-12-21 | 2011-06-22 | 盛大计算机(上海)有限公司 | 语音合成方法及系统 |
CN103531196A (zh) * | 2013-10-15 | 2014-01-22 | 中国科学院自动化研究所 | 一种波形拼接语音合成的选音方法 |
CN104112444A (zh) * | 2014-07-28 | 2014-10-22 | 中国科学院自动化研究所 | 一种基于文本信息的波形拼接语音合成方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018072543A1 (zh) * | 2016-10-17 | 2018-04-26 | 腾讯科技(深圳)有限公司 | 模型生成方法、语音合成方法及装置 |
US10832652B2 (en) | 2016-10-17 | 2020-11-10 | Tencent Technology (Shenzhen) Company Limited | Model generating method, and speech synthesis method and apparatus |
CN107731219A (zh) * | 2017-09-06 | 2018-02-23 | 百度在线网络技术(北京)有限公司 | 语音合成处理方法、装置及设备 |
CN107731219B (zh) * | 2017-09-06 | 2021-07-20 | 百度在线网络技术(北京)有限公司 | 语音合成处理方法、装置及设备 |
CN107507619A (zh) * | 2017-09-11 | 2017-12-22 | 厦门美图之家科技有限公司 | 语音转换方法、装置、电子设备及可读存储介质 |
CN107507619B (zh) * | 2017-09-11 | 2021-08-20 | 厦门美图之家科技有限公司 | 语音转换方法、装置、电子设备及可读存储介质 |
CN109346056A (zh) * | 2018-09-20 | 2019-02-15 | 中国科学院自动化研究所 | 基于深度度量网络的语音合成方法及装置 |
CN110047462A (zh) * | 2019-01-31 | 2019-07-23 | 北京捷通华声科技股份有限公司 | 一种语音合成方法、装置和电子设备 |
CN110047462B (zh) * | 2019-01-31 | 2021-08-13 | 北京捷通华声科技股份有限公司 | 一种语音合成方法、装置和电子设备 |
CN111599339A (zh) * | 2020-05-19 | 2020-08-28 | 苏州奇梦者网络科技有限公司 | 具有高自然度的语音拼接合成方法、系统、设备及介质 |
CN111599339B (zh) * | 2020-05-19 | 2023-08-22 | 苏州奇梦者网络科技有限公司 | 具有高自然度的语音拼接合成方法、系统、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104112444B (zh) | 一种基于文本信息的波形拼接语音合成方法 | |
CN104575488A (zh) | 一种基于文本信息的波形拼接语音合成方法 | |
CN103531196B (zh) | 一种波形拼接语音合成的选音方法 | |
CN102664003B (zh) | 基于谐波加噪声模型的残差激励信号合成及语音转换方法 | |
CN104681036B (zh) | 一种语言音频的检测系统及方法 | |
CN103700370B (zh) | 一种广播电视语音识别系统方法及系统 | |
CN101178896B (zh) | 基于声学统计模型的单元挑选语音合成方法 | |
CN104780388B (zh) | 一种视频数据的切分方法和装置 | |
CN102568476B (zh) | 基于自组织特征映射网络聚类和径向基网络的语音转换法 | |
CN104538024A (zh) | 语音合成方法、装置及设备 | |
CN105374350B (zh) | 语音标注方法及装置 | |
CN1835075B (zh) | 一种结合自然样本挑选与声学参数建模的语音合成方法 | |
CN102184731A (zh) | 一种韵律类和音质类参数相结合的情感语音转换方法 | |
CN103377651B (zh) | 语音自动合成装置及方法 | |
Latorre et al. | Speech factorization for HMM-TTS based on cluster adaptive training. | |
Xie et al. | Sequence error (SE) minimization training of neural network for voice conversion. | |
CN104103268B (zh) | 一种语料库处理方法、装置及语音合成系统 | |
CN102385859A (zh) | 参数语音合成方法和系统 | |
CN101710488A (zh) | 语音合成方法及装置 | |
CN101226742A (zh) | 基于情感补偿的声纹识别方法 | |
CN109346056A (zh) | 基于深度度量网络的语音合成方法及装置 | |
CN105206264B (zh) | 语音合成方法和装置 | |
CN105654942A (zh) | 一种基于统计参数的疑问句、感叹句的语音合成方法 | |
CN104916282A (zh) | 一种语音合成的方法和装置 | |
Inanoglu et al. | A system for transforming the emotion in speech: combining data-driven conversion techniques for prosody and voice quality. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20150429 |