CN104320255A - 生成账户认证数据的方法、账户认证的方法以及装置 - Google Patents
生成账户认证数据的方法、账户认证的方法以及装置 Download PDFInfo
- Publication number
- CN104320255A CN104320255A CN201410521384.1A CN201410521384A CN104320255A CN 104320255 A CN104320255 A CN 104320255A CN 201410521384 A CN201410521384 A CN 201410521384A CN 104320255 A CN104320255 A CN 104320255A
- Authority
- CN
- China
- Prior art keywords
- vocal print
- print feature
- account
- data
- account authentication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
本发明提供一种生成账户认证数据的方法、账户认证的方法以及装置。所述生成账户认证数据的方法包括:分别接收至少两人的录音数据;根据所述录音数据,分别提取每个人的声纹特征;根据所述每个人的声纹特征,生成账户认证数据;将所述账户认证数据与指定账户关联保存。所述方法和装置解决了账户认证数据过于简单的问题;此外,在账户认证时根据至少两人的声纹特征和预存的当前账户的声纹特征认证数据,对当前账户进行认证,适用于更多的账户认证的应用场景,并提高了账户的安全性。
Description
技术领域
本发明涉及信息安全技术,尤其涉及一种生成账户认证数据的方法、账户认证的方法以及装置。
背景技术
在传统的生成账户认证数据的方法及账户认证的方法中,一般在账户注册时,由用户设置并手工键入用户名和密码,系统将所述密码作为账户认证数据,与所述用户名关联并存入服务器中;当用户登录系统时,系统根据登录用户键入的用户名与密码,对用户账户进行认证。
随着账户认证数据的多元化的发展,账户认证数据已经不仅限于文本密码的形式,目前已经出现通过语音密码作为账户认证数据,并通过用户的录音进行账户认证的方法。具体地,在账户注册时接收用户的录音,提取所述录音的声纹特征,并将所述声纹特征作为账户认证数据,与用户的账号关联并存入服务器中;当用户登录系统时,根据登录用户的录音以及服务器中存储的与用户账号关联的声纹特征,通过后台的语音识别系统校验账户是否认证成功。
然而,现有的通过语音密码作为账户认证数据,并通过用户的录音进行账户认证的方法,都是基于单人的录音提取的声纹密码作为账户认证数据,并通过单人的录音进行账户认证,这种账户认证数据过于简单,应用场景单一,安全级别也较低。当一个账户属于多人共同账户,并且需要多人共同参与语音验证才能保证账户安全时,现有技术不能满足这种应用场景。
发明内容
本发明目的在于,提供一种生成账户认证数据的方法、账户认证的方法以及装置,解决现有技术中账户认证数据简单、应用场景单一、账户安全性较低的问题。
根据本发明的一方面,本发明提供一种生成账户认证数据的方法,包括:分别接收至少两人的录音数据;根据录音数据,分别提取每个人的声纹特征;根据每个人的声纹特征,生成账户认证数据;将账户认证数据与指定账户关联保存。
根据本发明的另一方面,本发明提供一种账户认证的方法,包括:接收当前账户的信息;分别接收至少两人的录音数据;根据每个人的录音数据,分别提取每个人的声纹特征;根据每个人的声纹特征和预存的当前账户的声纹特征认证数据,对当前账户进行认证。
根据本发明的另一方面,本发明提供一种生成账户认证数据的装置,包括:第一录音接收单元,用于分别接收至少两人的录音数据;第一声纹特征提取单元,用于根据所述录音数据,分别提取每个人的声纹特征;账户认证数据生成单元,用于根据所述每个人的声纹特征,生成账户认证数据;账户认证数据保存单元,用于将所述账户认证数据与指定账户关联保存。
根据本发明的另一方面,本发明提供一种账户认证的装置,包括:账户信息接收单元,用于接收当前账户的信息;第二录音接收单元,用于分别接收至少两人的录音数据;第二声纹特征提取单元,用于根据每个人的录音数据,分别提取每个人的声纹特征;账户认证单元,用于根据所述每个人的声纹特征和预存的当前账户的声纹特征认证数据,对所述当前账户进行认证。
本发明提供的生成账户认证数据的方法、账户认证的方法以及装置,通过根据至少两人的声纹特征,生成账户认证数据,解决了账户认证数据过于简单的问题。此外,在账户认证时根据至少两人的声纹特征和预存的当前账户的声纹特征认证数据,对当前账户进行认证,适用于更多的账户认证的应用场景,并提高了账户的安全性。
附图说明
图1为本发明示例性实施例的生成账户认证数据的方法的流程图;
图2为本发明示例性实施例的账户认证的方法的流程图;
图3为本发明示例性实施例的生成账户认证数据的装置的逻辑框图;
图4为本发明示例性实施例的账户认证的装置的逻辑框图。
具体实施方式
本发明提出了一种基于多人录音数据来生成账户认证数据、进行账户认证的构思,在用户进行账户注册时,分别接收至少两人的录音数据,根据所述录音数据分别提取每个人的声纹特征,根据每个人的声纹特征生成账户认证数据,然后将所述账户认证数据与指定账户关联保存。在用户登录时,接收当前登录账户的信息,分别接收至少两人的录音数据,然后根据每个人的所述录音数据,分别提取每个人的声纹特征,再根据所述每个人的声纹特征和预存的当前账户的声纹特征认证数据,对所述当前账户进行认证。
本发明提供的生成账户认证数据的方法、账户认证的方法以及装置,通过根据至少两人的声纹特征,生成账户认证数据,解决了账户认证数据过于简单的问题。并在账户认证时根据至少两人的声纹特征和预存的当前账户的声纹特征认证数据,对当前账户进行认证,适用于更多的账户认证的应用场景,并提高了账户的安全性。
下面结合附图对本发明实施例的生成账户认证数据的方法、账户认证的方法以及装置进行详细描述。
图1是示出本发明示例性实施例的生成账户认证数据的方法的流程图。
参照图1,在步骤S110,分别接收至少两人的录音数据。根据本发明的优选实施例,在步骤S110中,分别接收由用户设置的人数的录音数据,录音人数可以由用户根据实际情况添加或减少,从而增加了应用的灵活性,适用于更多的应用场景。
在步骤S120,根据录音数据,分别提取每个人的声纹特征。其中,声纹特征可以包括LPCC(线性预测倒谱系数)特征、MFCC(美尔频率倒谱系数)特征等。
在步骤S130,根据每个人的声纹特征,生成账户认证数据。
根据本发明的可选实施例,在步骤S130中,可以根据每个人的声纹特征,得到至少两人的声纹特征的线性组合,生成联合声纹特征,以此联合声纹特征作为账户认证数据。
在步骤S140,将所述账户认证数据与指定账户关联保存。与步骤S130的可选实施例对应地,在步骤S140中,可以将步骤S130生成的联合声纹特征保存在当前注册账户的一个数据项中。根据本发明的另一可选实施例,在步骤S140中,也可以将每个人的声纹特征分别保存在当前注册账户的至少两个数据项中,数据项的个数可以与录音的人数相对应。
根据本发明的可选实施例,如果录音人数为两人,还可以对两人的录音数据进行性别检测,如果所述两人的录音数据的性别检测结果相同,则提示用户注册失败。通过该可选实施例,可以适用于专门针对情侣、夫妻等异性关系的两人的共同账户的账户认证数据的生成,以增加该场景下校验的严密性。
图2是示出本发明示例性实施例的账户认证的方法的流程图。
参照图2,在步骤S210,接收当前账户的信息。例如,接收当前账户的账号。
在步骤S220,分别接收至少两人的录音数据。步骤S220的处理可参考图1中步骤S110的处理,在此不再赘述。
在步骤S230,根据每个人的所述录音数据,分别提取每个人的声纹特征。步骤S230的处理可参考图1中步骤S120的处理,在此不再赘述。
需要说明的是,步骤S210也可以在步骤S220~步骤S230之间任一步骤的之前或之后执行。
在步骤S240,根据所述每个人的声纹特征和预存的当前账户的声纹特征认证数据,对所述当前账户进行认证。其中,声纹特征认证数据包括:一个至少两人的声纹特征的线性组合的联合声纹特征,所述联合声纹特征保存于所述当前账户的一个数据项中;或者,至少两个单人的声纹特征,所述至少两个单人的声纹特征分别保存在所述当前账户的至少两个数据项中。
根据本发明的可选实施例,在步骤S240中,对每个人的声纹特征进行线性组合,生成待认证联合声纹特征,并且如果所述待认证联合声纹特征与预存的当前账户的声纹特征认证数据匹配,则账户认证成功,否则认证失败。
根据本发明的另一可选实施例,在步骤S240中,将每人的声纹特征分别与预存的当前账户的声纹特征认证数据的每个单人的声纹特征进行匹配,如果所述每人的声纹特征都与所述声纹特征认证数据的每个单人的声纹特征匹配,则账户认证成功,否则认证失败。
图3是示出本发明示例性实施例的生成账户认证数据的装置的逻辑框图。
参照图3,本发明的生成账户认证数据的装置包括:第一录音接收单元310、第一声纹特征提取单元320、账户认证数据生成单元330以及账户认证数据保存单元340。
第一录音接收单元310用于分别接收至少两人的录音数据。根据本发明的优选实施例,第一录音接收单元310还用于分别接收由用户设置的人数的录音数据,录音人数可以由用户根据实际情况添加或减少,从而增加了应用的灵活性,适用于更多的应用场景。
第一声纹特征提取单元320用于根据录音数据,分别提取每个人的声纹特征。其中,声纹特征可以包括LPCC(线性预测倒谱系数)特征、MFCC(美尔频率倒谱系数)特征等。
账户认证数据生成单元330用于根据每个人的声纹特征,生成账户认证数据。根据本发明的可选实施例,账户认证数据生成单元330可以根据每个人的声纹特征,得到至少两人的声纹特征的线性组合,生成联合声纹特征,以此联合声纹特征作为账户认证数据。
账户认证数据保存单元340用于将账户认证数据与指定账户关联保存。与账户认证数据生成单元330的可选实施例对应,账户认证数据保存单元340可以将数据生成单元330生成的联合声纹特征保存在当前注册账户的一个数据项中。根据本发明的另一可选实施例,账户认证数据保存单元340还可以将所述每个人的声纹特征分别保存在当前注册账户的至少两个数据项中。
根据本发明的可选实施例,本发明的生成账户认证数据的装置还可以包括:性别检测单元(图中未示出),用于如果录音人数为两人,则对两人的录音数据进行性别检测,如果两人的录音数据的性别检测结果相同,则提示用户注册失败。通过该可选实施例,可以适用于专门针对情侣、夫妻等异性关系的两人的共同账户的账户认证数据的生成,以增加该场景下校验的严密性。
图4是示出本发明示例性实施例的账户认证的装置的逻辑框图。
参照图4,本发明的账户认证的装置包括:账户信息接收单元410、第二录音接收单元420、第二声纹特征提取单元430以及账户认证单元440。
账户信息接收单元410用于接收当前账户的信息。例如,接收当前账户的账号。
第二录音接收单元420用于分别接收至少两人的录音数据。第二录音接收单元420的处理可以参考第一录音接收单元310的处理,在此不再赘述。
第二声纹特征提取单元430用于根据每个人的所述录音数据,分别提取每个人的声纹特征。第二声纹特征提取单元430的处理可以参考第一声纹特征提取单元320的处理,在此不再赘述。
账户认证单元440用于根据所述每个人的声纹特征和预存的当前账户的声纹特征认证数据,对所述当前账户进行认证。其中,所述声纹特征认证数据包括:一个至少两人的声纹特征的线性组合的联合声纹特征,所述联合声纹特征保存于所述当前账户的一个数据项中;或者,至少两个单人的声纹特征,所述至少两个单人的声纹特征分别保存在所述当前账户的至少两个数据项中。
根据本发明的可选实施例,账户认证单元440包括:联合声纹特征生成单元(图中未示出),用于对第二声纹特征提取单元430提取的每个人的声纹特征进行线性组合,生成待认证联合声纹特征;账户认证子单元(图中未示出),用于如果所述待认证联合声纹特征与声纹特征认证数据匹配,则账户认证成功,否则认证失败。
根据本发明的另一可选实施例,账户认证单元440将第二声纹特征提取单元430提取的每人的声纹特征分别与声纹特征认证数据的每个单人的声纹特征进行匹配,如果所述每人的声纹特征都与所述声纹特征认证数据的每个单人的声纹特征匹配,则账户认证成功,否则认证失败。
根据上述实施例的生成账户认证数据的方法、账户认证的方法以及装置,通过根据至少两人的声纹特征,生成账户认证数据,解决了账户认证数据过于简单的问题。并在账户认证时根据至少两人的声纹特征和预存的当前账户的声纹特征认证数据,对当前账户进行认证,适用于更多的账户认证的应用场景,并提高了账户的安全性。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (20)
1.一种生成账户认证数据的方法,其特征在于,所述方法包括:
分别接收至少两人的录音数据;
根据所述录音数据,分别提取每个人的声纹特征;
根据所述每个人的声纹特征,生成账户认证数据;
将所述账户认证数据与指定账户关联保存。
2.根据权利要求1所述的方法,其特征在于,所述根据所述每个人的声纹特征,生成账户认证数据包括:
根据所述每个人的声纹特征,得到所述至少两人的声纹特征的线性组合,生成联合声纹特征。
3.根据权利要求2所述的方法,其特征在于,所述将所述账户认证数据与指定账户关联保存包括:
将所述联合声纹特征保存在当前注册账户的一个数据项中。
4.根据权利要求1所述的方法,其特征在于,所述将所述账户认证数据与指定账户关联保存包括:
将所述每个人的声纹特征分别保存在当前注册账户的至少两个数据项中。
5.根据权利要求1-4任一项权利要求所述的方法,其特征在于,所述分别接收至少两人的录音数据包括:分别接收由用户设置的人数的录音数据。
6.根据权利要求5所述的方法,其特征在于,所述的方法还包括:如果所述人数为两人,则对两人的录音数据进行性别检测,如果所述两人的录音数据的性别检测结果相同,则提示用户注册失败。
7.一种账户认证的方法,其特征在于,所述方法包括:
接收当前账户的信息;
分别接收至少两人的录音数据;
根据每个人的所述录音数据,分别提取每个人的声纹特征;
根据所述每个人的声纹特征和预存的当前账户的声纹特征认证数据,对所述当前账户进行认证。
8.根据权利要求7所述的方法,其特征在于,所述声纹特征认证数据包括:
一个至少两人的声纹特征的线性组合的联合声纹特征,所述联合声纹特征保存于所述当前账户的一个数据项中;或者,
至少两个单人的声纹特征,所述至少两个单人的声纹特征分别保存在所述当前账户的至少两个数据项中。
9.根据权利要求8所述的方法,其特征在于,所述根据所述每个人的声纹特征和预存的当前账户的声纹特征认证数据,对所述当前账户进行认证包括:
对所述每个人的声纹特征进行线性组合,生成待认证联合声纹特征,并且
如果所述待认证联合声纹特征与所述声纹特征认证数据匹配,则账户认证成功,否则认证失败。
10.根据权利要求8所述的方法,其特征在于,所述根据所述每个人的声纹特征和预存的当前账户的声纹特征认证数据,对所述当前账户进行认证包括:
将所述每人的声纹特征分别与所述声纹特征认证数据的每个单人的声纹特征进行匹配,
如果所述每个单人的声纹特征都与所述声纹特征认证数据的每个单人的声纹特征匹配,则账户认证成功,否则认证失败。
11.一种生成账户认证数据的装置,其特征在于,所述装置包括:
第一录音接收单元,用于分别接收至少两人的录音数据;
第一声纹特征提取单元,用于根据所述录音数据,分别提取每个人的声纹特征;
账户认证数据生成单元,用于根据所述每个人的声纹特征,生成账户认证数据;
账户认证数据保存单元,用于将所述账户认证数据与指定账户关联保存。
12.根据权利要求11所述的装置,其特征在于,所述户认证数据生成单元根据所述每个人的声纹特征,得到所述至少两人的声纹特征的线性组合,生成联合声纹特征。
13.根据权利要求12所述的装置,其特征在于,所述账户认证数据保存单元将所述联合声纹特征保存在当前注册账户的一个数据项中。
14.根据权利要求11所述的装置,其特征在于,所述账户认证数据保存单元将所述每个人的声纹特征分别保存在当前注册账户的至少两个数据项中。
15.根据权利要求11-14任一项权利要求所述的装置,其特征在于,所述第一录音接收单元还用于分别接收由用户设置的人数的录音数据。
16.根据权利要求15所述的装置,其特征在于,所述的装置还包括:性别检测单元,用于如果所述人数为两人,则对两人的录音数据进行性别检测,如果所述两人的录音数据的性别检测结果相同,则提示用户注册失败。
17.一种账户认证的装置,其特征在于,所述装置包括:
账户信息接收单元,用于接收当前账户的信息;
第二录音接收单元,用于分别接收至少两人的录音数据;
第二声纹特征提取单元,用于根据每个人的所述录音数据,分别提取每个人的声纹特征;
账户认证单元,用于根据所述每个人的声纹特征和预存的当前账户的声纹特征认证数据,对所述当前账户进行认证。
18.根据权利要求17所述的装置,其特征在于,所述声纹特征认证数据包括:
一个至少两人的声纹特征的线性组合的联合声纹特征,所述联合声纹特征保存于所述当前账户的一个数据项中;或者,
至少两个单人的声纹特征,所述至少两个单人的声纹特征分别保存在所述当前账户的至少两个数据项中。
19.根据权利要求18所述的装置,其特征在于,所述账户认证单元包括:
联合声纹特征生成单元,用于对所述每个人的声纹特征进行线性组合,生成待认证联合声纹特征;
账户认证子单元,用于如果所述待认证联合声纹特征与所述声纹特征认证数据匹配,则账户认证成功,否则认证失败。
20.根据权利要求18所述的装置,其特征在于,所述账户认证单元将所述每人的声纹特征分别与所述声纹特征认证数据的每个单人的声纹特征进行匹配,
如果所述每个单人的声纹特征都与所述声纹特征认证数据的每个单人的声纹特征匹配,则账户认证成功,否则认证失败。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410521384.1A CN104320255A (zh) | 2014-09-30 | 2014-09-30 | 生成账户认证数据的方法、账户认证的方法以及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410521384.1A CN104320255A (zh) | 2014-09-30 | 2014-09-30 | 生成账户认证数据的方法、账户认证的方法以及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104320255A true CN104320255A (zh) | 2015-01-28 |
Family
ID=52375430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410521384.1A Pending CN104320255A (zh) | 2014-09-30 | 2014-09-30 | 生成账户认证数据的方法、账户认证的方法以及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104320255A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830604A (zh) * | 2018-05-17 | 2018-11-16 | 东莞市华睿电子科技有限公司 | 一种基于声音验证的交易支付方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101051464A (zh) * | 2006-04-06 | 2007-10-10 | 株式会社东芝 | 说话人认证的注册和验证方法及装置 |
US20090171660A1 (en) * | 2007-12-20 | 2009-07-02 | Kabushiki Kaisha Toshiba | Method and apparatus for verification of speaker authentification and system for speaker authentication |
CN102568478A (zh) * | 2012-02-07 | 2012-07-11 | 合一网络技术(北京)有限公司 | 一种基于语音识别的视频播放控制方法和系统 |
CN102760434A (zh) * | 2012-07-09 | 2012-10-31 | 华为终端有限公司 | 一种声纹特征模型更新方法及终端 |
CN102779508A (zh) * | 2012-03-31 | 2012-11-14 | 安徽科大讯飞信息科技股份有限公司 | 语音库生成设备及其方法、语音合成系统及其方法 |
CN103546622A (zh) * | 2012-07-12 | 2014-01-29 | 百度在线网络技术(北京)有限公司 | 基于声纹的识别登录控制方法、装置及系统 |
-
2014
- 2014-09-30 CN CN201410521384.1A patent/CN104320255A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101051464A (zh) * | 2006-04-06 | 2007-10-10 | 株式会社东芝 | 说话人认证的注册和验证方法及装置 |
US20090171660A1 (en) * | 2007-12-20 | 2009-07-02 | Kabushiki Kaisha Toshiba | Method and apparatus for verification of speaker authentification and system for speaker authentication |
CN102568478A (zh) * | 2012-02-07 | 2012-07-11 | 合一网络技术(北京)有限公司 | 一种基于语音识别的视频播放控制方法和系统 |
CN102779508A (zh) * | 2012-03-31 | 2012-11-14 | 安徽科大讯飞信息科技股份有限公司 | 语音库生成设备及其方法、语音合成系统及其方法 |
CN102760434A (zh) * | 2012-07-09 | 2012-10-31 | 华为终端有限公司 | 一种声纹特征模型更新方法及终端 |
CN103546622A (zh) * | 2012-07-12 | 2014-01-29 | 百度在线网络技术(北京)有限公司 | 基于声纹的识别登录控制方法、装置及系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830604A (zh) * | 2018-05-17 | 2018-11-16 | 东莞市华睿电子科技有限公司 | 一种基于声音验证的交易支付方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106782572B (zh) | 语音密码的认证方法及系统 | |
CN105069874B (zh) | 一种移动互联网声纹门禁系统及其实现方法 | |
CN106373575B (zh) | 一种用户声纹模型构建方法、装置及系统 | |
US8234494B1 (en) | Speaker-verification digital signatures | |
CN104158664A (zh) | 一种身份认证方法及系统 | |
EP3248188B1 (en) | Authentication method | |
US20160014120A1 (en) | Method, server, client and system for verifying verification codes | |
US20140343943A1 (en) | Systems, Computer Medium and Computer-Implemented Methods for Authenticating Users Using Voice Streams | |
CN109802942B (zh) | 一种隐私保护的声纹认证方法 | |
CN102543084A (zh) | 在线声纹认证系统及其实现方法 | |
CN104717069B (zh) | 基于面部识别的电子交易认证方法 | |
KR20160126986A (ko) | 성문 검증 방법 및 장치, 저장 매체 및 기기 | |
CN103973453A (zh) | 声纹密钥生成方法、装置及基于声纹密钥登录方法、系统 | |
CN103024706A (zh) | 基于手机短信的多因子双向动态身份认证装置和方法 | |
CN104901808A (zh) | 基于时间型动态口令的声纹认证系统及方法 | |
CN105227557A (zh) | 一种帐号处理方法及装置 | |
CN106100846B (zh) | 声纹注册、认证方法及装置 | |
CN107395580B (zh) | 一种数据校验方法及装置 | |
CN104320255A (zh) | 生成账户认证数据的方法、账户认证的方法以及装置 | |
WO2017028250A1 (zh) | 用语音和指纹验证账号登录的方法和移动终端 | |
CN107454044A (zh) | 一种电子书阅读权限保护方法及系统 | |
CN204465555U (zh) | 基于时间型动态口令的声纹认证装置 | |
Gaubitch | How voice ageing impacts biometric effectiveness | |
WO2017028138A1 (zh) | 用数字和指纹验证账号登录的方法和移动终端 | |
CN110443935A (zh) | 一种基于多模块认证的多功能安全锁系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150128 |