CN105654955A - 语音识别方法及装置 - Google Patents
语音识别方法及装置 Download PDFInfo
- Publication number
- CN105654955A CN105654955A CN201610156615.2A CN201610156615A CN105654955A CN 105654955 A CN105654955 A CN 105654955A CN 201610156615 A CN201610156615 A CN 201610156615A CN 105654955 A CN105654955 A CN 105654955A
- Authority
- CN
- China
- Prior art keywords
- speech signal
- signal
- frequency
- model
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000013507 mapping Methods 0.000 claims abstract description 11
- 230000000630 rising effect Effects 0.000 claims description 45
- 230000014509 gene expression Effects 0.000 claims description 20
- 230000003203 everyday effect Effects 0.000 claims description 19
- 239000000203 mixture Substances 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000005728 strengthening Methods 0.000 description 2
- 230000002354 daily effect Effects 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/14—Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例提供一种语音识别方法及装置,包括:获取第一声学模型,所述第一声学模型表示输入的语音信号与预设状态的映射关系,所述预设状态为与所述语音信号对应的文本的基本组成元素;接收第一语音信号;根据所述第一语音信号及第二声学模型确定所述预设状态的概率值;所述第二声学模型是根据输入的第二语音信号及所述第一声学模型确定得到的,所述第一语音信号及所述第二语音信号是由相同的用户输入的;所述语音信号包括所述第一语音信号及所述第二语音信号;根据预设的语言模型及词典将所述第一语音信号对应的所述预设状态的概率值解码为第一文本。本发明实施例提供的语音识别方法及装置,可以提高对特定用户输入的语音的识别精确度。
Description
技术领域
本发明实施例涉及信息技术领域,尤其涉及一种语音识别方法及装置。
背景技术
语音识别技术是机器通过识别和理解过程将人发出的声音、字节或短语转换为相应的文字或符号,或者给出响应的一种信息技术。随着信息技术的飞速发展,语音识别技术已经广泛地应用于人们的日常生活中。例如:使用终端设备时,采用语音识别技术,用户可以通过输入语音的方式方便地在终端设备中输入信息。
现有的语音识别技术采用的语音识别方法有多种,例如:模型匹配法、概率模型法等。目前业界通常采用的是概率模型法语音识别技术。概率模型法语音识别技术,是通过云端对大量的不同用户输入的语音进行声学训练,得到一个通用的声学模型,根据所述通用的声学模型及语言模型将待识别的语音信号解码为文本输出。
但是,由于现有技术中的语音识别方法采用的是对大量不同用户的输入语音进行训练得到的通用声学模型,当针对特定用户输入的语音进行识别时,识别结果不够精准。
发明内容
本发明实施例提供一种语音识别方法及装置,用以解决现有技术中的语音识别方法针对特定用户输入的语音进行识别时,识别结果不够精准的问题。
第一方面,本发明实施例提供一种语音识别方法。该方法包括:语音识别装置获取用于表示输入的语音信号与预设状态的映射关系的第一声学模型,其中,预设状态表示与语音信号对应的文本的基本组成元素。语音信号包括第一语音信号及第二语音信号。语音识别装置接收用户输入的第一语音信号后,根据第一语音信号及第二声学模型确定预设状态的概率值。其中,所述第二声学模型是语音识别装置根据相同用户输入的第二语音信号及第一声学模型确定得到的。语音识别装置内预设语言模型及词典,其中,语言模型用于表示预设状态与语音信号对应的文本之间映射关系的语言模型,词典中包括组成所述文本的词语的集合。语音识别装置根据预设的语言模型及词典将第一语音信号对应的预设状态的概率值解码为第一文本。
本发明实施提供的语音识别方法,根据用户输入的第二语音信号及第一声学模型确定第二声学模型,使得所述第二声学模型与所述用户发音特征更加匹配,根据所述第二声学模型可以更准确地确定所述用户输入的第一语音信号对应的预设状态的概率值,将所述预设状态的概率值解码为文本时,可以得到更准确的语音识别结果。
一种可能的实施方式中,该方法还包括:语音识别装置根据第二语音信号及第一声学模型确定第二声学模型。语音识别装置先根据第二语音信号及第一声学模型,计算得到第二语音信号对应的预设状态的实际概率值;然后根据第二语音信号对应的预设状态的实际概率值确定第二语音信号对应的状态的近似概率值;最后根据第二语音信号、第二语音信号对应的各个状态的实际概率值和近似概率值,以及第一声学模型,计算得到第二声学模型。
通过上述可能的实施方式,根据近似概率值与实际概率值之间的差值对第一声学模型进行更新计算,可以对第二语音信号转换为预设状态过程中产生的误差进行修正,从而得到更加精确的针对该用户进行语音识别的第二声学模型,使得语音识别装置在使用所述第二声学模型对用户输入的语音进行识别时,能够得到更加精确的识别结果。
一种可能的实施方式中,所述第二语音信号还包括噪声信号,所述噪声信号的分贝值低于第一预设阈值。
通过上述可能的实施方式,当所述噪声信号的分贝值小于所述第一预设阈值时,可以认为所述第二语音信号是用户在安静的环境下输入的。由于所述第二声学模型是根据安静环境下输入的所述第二语音信号确定得到的,可以使得所述第二语音信号中的用户发音特征可以更容易地被识别到,提升了语音识别的精准度。
一种可能的实施方式中,该方法还包括:语音识别装置根据第二语音信号确定代表用户的发音特征的第一频率;然后提取第一语音信号的信号特征值;并放大第一语音信号在所述第一频率上的信号特征值和第一语音信号在第二频率上的信号特征值,或者,仅放大第一语音信号在第一频率上的信号特征值,或者,仅缩小第一语音信号在与所述第一频率不同的第二频率上的信号特征值。
一种可能的实施方式中,语音识别装置通过以下方式确定代表用户的发音特征的第一频率:语音识别装置将第二语音信号转化为频域信号;并计算频域信号中出现的各个频率在频域信号的所有频率中出现的概率值;从所述计算得到的各频率的概率值中确定大于第二预设阈值的概率值对应的频率作为代表所述用户的发音特征的第一频率。
通过上述可能的实施方式,当第二语音信号的一个或多个频率在所有频率中的出现概率大于第二预设阈值时,可以认为这一个或多个频率上的语音信号特征可以代表用户的发音特征,通过增强述第一语音信息中由用户输入的语音信号的强度,减弱第一语音信息中的噪音部分的强度,使得语音识别装置更容易识别出该用户的语音特征,对该用户的语音识别结果更加准确。
一种可能的实施方式中,所述词典中还包括与词语对应的识别概率值,该方法还包括:语音识别装置根据所述第二语音信号,确定所述词典中的用户常用词语;并在所述词典中增大所述用户常用词语对应的识别概率值,得到更新后的词典;语音识别装置根据语言模型及更新后的词典将第一语音信号对应的状态的概率值解码为第一文本。
一种可能的实施方式中,语音识别装置通过以下方式确定所述词典中的用户常用词语:语音识别装置对第二语音信号进行识别,获得与第二语音信号对应的第二文本。然后统计第二文本中每个词语在所有第二文本中的出现频率;确定出现频率大于第三预设阈值的文本为所述用户常用词语。通过确定所述第二语音信号中的用户常用词语,可以确定出用户的发音习惯,从而增大用户常用词语的识别概率,可以使得对所述用户输入的第一语音信号进行识别时得出与用户发音习惯最为匹配的语音识别结果。
一种可能的实施方式中,本发明实施例语音识别方法还包括:语音识别装置检测语音识别装置上的语音输入端输入的语音信号的强度,并确定信号强度最高的语音信号作为需要识别的第一语音信号。
通过上述实施方式,当语音识别装置上有多个语音输入端时,可以选择输入信号质量最好的输入端采集到的信号作为需要识别的语音信号,从而提高语音识别的精准度。
第二方面,本发明实施例还提供一种语音识别装置,包括:
用于获取表示输入的语音信号与预设状态的映射关系的第一声学模型的获取模块,预设状态为与语音信号对应的文本的基本组成元素,语音信号包括第一语音信号及第二语音信号;用于接收用户输入的第一语音信号的接收模块;以及用于根据所述第一语音信号及第二声学模型确定所述预设状态的概率值的处理模块。其中,所述第二声学模型是由处理模块根据相同的用户输入第二语音信号及第一声学模型确定得到的;语音识别装置内预设语言模型及词典,其中,语言模型用于表示预设状态与语音信号对应的文本之间映射关系的语言模型,词典中包括组成所述文本的词语的集合。所述处理模块还用于,根据预设的语言模型及词典将第一语音信号对应的预设状态的概率值解码为第一文本。
本发明实施例提供的语音识别装置,根据用户输入的第二语音信号及第一声学模型确定第二声学模型,使得所述第二声学模型与所述用户发音特征更加匹配,根据所述第二声学模型可以更准确地确定所述用户输入的第一语音信号对应的预设状态的概率值,将所述预设状态的概率值解码为文本时,可以得到更准确的语音识别结果。
一种可能的实施方式中,所述处理模块还用于根据第二语音信号及第一声学模型计算得到第二声学模型。
一种可能的实施方式中,所述处理模块具体用于根据第二语音信号及第一声学模型,计算得到第二语音信号对应的预设状态的实际概率值;然后根据第二语音信号对应的预设状态的实际概率值确定第二语音信号对应的状态的近似概率值;再根据第二语音信号、第二语音信号对应的各个状态的实际概率值和近似概率值,以及第一声学模型,计算得到第二声学模型。
一种可能的实施方式中,所述第二语音信号中还包括噪声信号,所述噪声信号的分贝值低于第一预设阈值。当噪声信号的分贝值低于第一预设阈值时,可以认为第二语音信号是在安静环境下输入的。
一种可能的实施方式中,处理模块还用于根据用户输入的第二语音信号,确定代表用户的发音特征的第一频率;然后提取所述第一语音信号的信号特征值;并放大所述第一语音信号在所述第一频率上的信号特征值,和第一语音信号在第二频率上的信号特征值,或者,仅放大第一语音信号在第一频率上的信号特征值,或者,仅缩小第一语音信号在与所述第一频率不同的第二频率上的信号特征值。
一种可能的实施方式中,所述处理模块,具体用于将第二语音信号转化为频域信号;并计算频域信号中出现的各个频率在频域信号的所有频率中出现的概率值;从所述计算得到的各频率的概率值中确定大于第二预设阈值的概率值对应的频率作为代表所述用户的发音特征的第一频率。
一种可能的实施方式中,词典中还包括与词语对应的识别概率值,所述处理模块,还用于根据所述第二语音信号,确定所述词典中的用户常用词语;在所述词典中增大所述用户常用词语对应的识别概率值,得到更新后的词典;所述处理模块具体用于,根据所述语言模型及所述更新后的词典将所述第一语音信号对应的状态的概率值解码为所述第一文本。
一种可能的实施方式中,所述处理模块具体用于:对所述第二语音信号进行识别,获得所述第二语音信号对应的第二文本;统计第二文本中每个词语在第二文本中的出现频率;确定出现频率大于第三预设阈值的所述文本为所述用户常用词语。
一种可能的实施方式中,本发明实施例语音识别装置还包括检测模块,用于检测语音识别装置上的语音输入端输入的语音信号的强度,并确定信号强度最高的语音信号作为需要识别的第一语音信号。
上述第二方面的各个可能的实施方式所提供的语音识别装置,其有益效果可以参见上述第一方面各个可能的实施方式所提供的语义识别方法所带来的有益效果,在此不再赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例语音识别装置的框架结构示意图;
图2为本发明实施例语音识别方法的流程示意图;
图3为本发明实施例语音识别方法的另一流程示意图;
图4为本发明实施例根据第一声学模型将输入的语音信号转化为多个预设状态的概率值的过程示意图;
图5为本发明另一实施例语音识别装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种语音识别方法及装置,用于针对特定用户输入的语音进行识别,提高语音识别的精确度,尤其当用于噪音环境中输入语音时,提高语音识别的精确度。
图1为本发明实施例语音识别装置的框架结构示意图。
请参阅图1,本发明实施例语音识别装置包括处理器110、接收器120、存储器130、语音识别芯片140及总线150,所述处理器110、所述接收器120、所述存储器130及所述语音识别芯片140通过所述总线150连接。所述接收器120用于接收输入的语音信号,所述存储器130用于存储输入的语音信号数据及语音识别过程中产生的数据,所述语音识别芯片140用于对输入的语音信号进行识别。所述语音识别芯片140具体包括:寄存器141、存储控制模块142、处理控制模块143、缓存器144及处理引擎145。所述寄存器141用于存储计算资源,所述存储控制模块142用于对数据的存储管理过程进行控制,所述处理控制模块143用于对所述语音识别芯片的数据处理过程进行控制,所述数据缓存模块144用于缓存语音识别过程中产生的数据,所述处理引擎145用于对输入的语音信号进行处理,将所述输入的语音信号识别为文本。具体地,所述语音识别装置可以为计算机或移动终端设备,例如,智能手机、个人数字助理或车载设备等。
本发明实施例语音识别方法具体用于,在根据云端采集的大量不同用户输入的语音信号进行声学训练得到的通用声学模型的基础上,根据收集到的特定用户输入的语音信号数据,不断对所述通用声学模型进行更新,得到个性化的声学模型,再根据所述个性化声学模型,对所述用户输入的语音信号进行识别,从而提高语音识别的精准度。
图2为本发明实施例语音识别方法的流程示意图。图3为本发明实施例语音识别方法的另一流程示意图。
本发明实施例语音识别方法是通过图1所示的语音识别装置来实现的。请参阅图2及图3,本发明实施例语音识别方法包括:
S101:获取模块获取第一声学模型,所述第一声学模型表示输入的语音信号与预设状态的映射关系,所述预设状态为与所述语音信号对应的文本的基本组成元素。
当用户输入一条语音信号时,处理模块将所述语音信号切分为多个单位语音信号,并将所述单位语音信号转化为语音向量。例如,可以将所述语音音频切分为多个长度为10毫秒(ms)的单位语音信号。所述声学模型中设置有多个所述预设状态,所述预设状态的数量及内容由所述第一声学模型的网络结构确定。所述声学模型用于将输入的所述语音向量转化为所述预设状态的概率值,根据所述预设状态的概率值可以确定输入的单位语音信号对应的预设状态。具体地,在具体实现过程中,可以设置多个单位语音信号(例如5个)组成的语音向量对应一个预设状态,多个预设状态对应一个音素,多个音素对应一个字,根据多个字可以组成具有具体文意的文本。也就是说,所述预设状态是语音识别过程中用来组成文本的基本单位。
具体地,当所述语音识别装置根据本发明实施例语音识别装置第一次进行语音识别时,获取到的所述第一声学模型是云端根据大量不同用户输入的语音信号进行声学训练得到的通用声学模型。
S102:接收模块接收输入的第一语音信号。
具体地,所述接收器为终端设备的音频输入端,例如麦克,或其它可以采集语音信号的元器件。所述第一语音信号为所述语音识别装置当前需要识别的语音信号。
S103:处理模块根据所述第一语音信号及第二声学模型确定所述预设状态的概率值;所述第二声学模型是根据第二语音信号及第一声学模型确定得到的;所述第一语音信号及所述第二语音信号是由相同的用户输入的,所述语音信号包括所述第一语音信号及所述第二语音信号。
具体地,所述第二语音信号包括所述用户输入的历史语音信号,在所述步骤S103之前,所述接收器接收所述用户输入的所述第二语音信号,并将所述第二语音信号存入所述终端设备的用户语音信息数据库中。所述数据库中包括所述第二语音信号的原始语音音频所述第二语音信号的向量表达,以及将所述第二语音信号从时域信号转换为频域信号后所得到的所述用户的发音特征的频段信息。
所述根据所述第二语音信号及所述第一声学模型确定所述第二声学模型,包括:
S1031:根据所述第二语音信号及所述第一声学模型,计算得到所述第二语音信号对应的预设状态的实际概率值;
图4为本发明实施例根据第一声学模型将输入的语音信号转化为多个预设状态的概率值的过程示意图。
请参阅图4,具体地,所述第一声学模型为网络结构,输入端为所述第二语音信号对应的语音向量,输出端为根据所述语音向量得到的所述预设状态的概率值,从输入端到输出端之间包括N层隐藏端点,N的数值由所述第一声学模型的网络结构决定。
下面以N=2为例,对所述根据所述第一声学模型将输入的语音信号从向量表达转化为多个预设状态的概率值的过程进行说明。
所述根据所述第一声学模型将输入的语音信号转化为多个预设状态的概率值的过程包括:
根据所述第二语音信号对应的语音向量的第i个值xi计算得到第一层隐藏端点的第j个中间变量yj;yj=f(zj);zj=∑Wijxi;
根据第一层隐藏端点的第j个中间变量yj计算得到第二层隐藏端点的第k个中间变量yk;yk=f(zk);zk=∑Wjkyj;当N大于2时,可以在该步骤的基础上继续计算下一层隐藏端点的中间变量;
根据所述第二层隐藏端点的中间变量yk计算得到第l个状态的实际概率值yl;yl=f(zl);zl=∑Wldyk;
其中,Wld表示所述第一声学模型的参数,所述i,j,k及l的值均由根据声学训练获得的所述第一声学模型的网络结构决定,所述函数f可以是任意的非线性函数,当所述语音信号经过声学训练得到所述第一声学模型时,所述函数f即可被确定下来。例如,一种常用的函数形式可以为y=1/(1+e^(-x))。
根据上述过程,即可计算得出与所述输入的语音向量对应的所有预设状态的概率值。
S1032:根据所述第二语音信号的语音向量对应的预设状态的实际概率值确定所述第二语音信号对应的状态的近似概率值。
具体地,将步骤S1021计算得出的,所有预设状态的实际概率值中数值最大的概率值对应的预设状态的近似概率值设置为1,其它所有预设状态的近似概率值设置为0。
S1033:根据所述第二语音信号的语音向量对应的各个预设状态的实际概率值和近似概率值,以及所述第一声学模型,计算得到所述第二声学模型。
具体地,所述计算过程为:
1)根据步骤S1021及步骤S1022计算得出的所述第二语音信号的语音向量对应的各个预设状态的实际概率值yl和近似概率值tl,确定预设状态概率值误差函数E,其中E=0.5(yl-tl)2;
2)计算误差函数E相对于步骤S1021中求得的各个变量的偏导数
3)根据所述偏导数更新所述第一声学模型中的所有参数Wkl,Wjk,Wij的值,得到新的声学模型参数
4)根据所述新的声学模型参数即可确定所述第二声学模型。
具体地,所述第一声学模型的初始参数是根据云端获取的大量不同用户输入的语音信号进行声学训练后确定的。在具体实现过程中,所述接收器每一次接收到所述用户输入的所述第二语音信号之后,即可根据上述步骤更新一次所述第一声学模型的参数,并根据更新后的所述新的声学模型参数确定所述第二声学模型。
可选地,所述语音识别装置也可以将所述用户在不同时间输入的多条所述第二语音信号存储于所述用户语音数据库中,并在设定的时间根据所述多条第二语音信号执行所述第一声学模型参数的更新,确定所述第二声学模型参数。
可选地,所述第二语音信号还包括噪声信号,所述噪声信号的分贝值低于第一预设阈值。具体地,当所述噪声信号的分贝值小于所述第一预设阈值时,可以认为所述第二语音信号是用户在安静的环境下输入的。由于所述第二声学模型是根据安静环境下输入的所述第二语音信号确定得到的,可以使得所述第二语音信号中的用户发音特征可以更容易地被识别到,提升了语音识别的精准度。可选地,所述第一预设阈值为200分贝,或者为其它能够实现提高语音识别度的噪音分贝数值。
S104:根据预设的语言模型及词典将所述第一语音信号对应的预设状态的概率值解码为第一文本;所述语言模型表示所述预设状态与所述语音信号对应的文本之间的映射关系,所述词典包括所述文本的集合,所述词典包括组成所述文本的词语的集合,所述文本包括所述第一文本。
具体地,所述语言模型以所述文本的概率值的形式表示具体的预设状态与具体的文本之间的关系。根据所述第一语音信号对应的预设状态的概率值可以确定处所述第一语音信号对应的具体的预设状态。例如,设所述预设状态有9004个,若其中第30个预设状态的概率值为1,其它的概率值为0,则确定所述第30个预设状态为所述第一语音信号对应的预设状态。如果所述第30个预设状态的具体内容为a,则所述第一语音信号对应的内容即为a。根据所述语音模型,可以确定出所述词典中与所述预设状态对应的文本的概率值,根据所述文本的概率值即可确定出最终要输出的所述第一文本。
为了进一步提高对所述用户输入的语音信号的识别精准度,避免噪声干扰,所述根据第二声学模型确定所述第一语音信号对应的预设状态的概率值之前,还包括:
所述处理模块根据所述第二语音信号,确定代表用户的发音特征的第一频率;所述第二语音信号包括所述用户输入的语音信号;
具体地,所述处理模块通过快速傅里叶变换,将所述第二语音信号从时域信号转化为频域信号,并加入到所述用户语音数据库中;
从所述用户语音数据库中提取用户发音特征的频率信息,计算所述频域信号中出现的各个频率在所述频域信号的所有频率中出现的概率值;
确定大于第二预设阈值的所述概率值对应的频率,为代表所述用户的发音特征的所述第一频率。也就是说,出现概率较高的一个或多个频率可以用于代表所述用户的发音特征。
确定了代表用户发音特征的所述第一频率后,所述处理模块提取所述第一语音信号的信号特征值,即所述第一语音信号的信号幅度;
放大所述第一语音信号在所述第一频率上的信号特征值,和/或缩小所述第一语音信号在第二频率上的信号特征值,所述第二频率与所述第一频率不相同。具体地,所述第一频率可以认为是用户发音频率,所述第二频率可以认为是噪音频率。
例如,将所述第一语音信号在所述第一频率上的信号幅度乘以大于1的系数,将所述第一语音信号在所述第二频率上的信号幅度乘以小于1的系数,这样,即可以实现增强所述第一语音信号中由用户输入的语音信号的强度,减弱所述第一语音信息中的噪音部分的强度,使得本发明实施例的语音识别方法能够在噪声背景下获得更高的语音识别度。
可选地,由于终端设备的用户相对固定,为了根据用户表达习惯进一步提高语音识别的精准度,所述词典中还包括与所述词语对应的识别概率值,在步骤S104之前,所述方法还包括:
处理模块根据所述用户语音数据库中存储的所述第二语音信号,确定所述词典中的用户常用词语。
具体地,语音识别模块对所述第二语音信号进行识别,获得所述第二语音信号对应的第二文本。
在此,对所述第二语音信号进行识别,可以根据现有的语音识别方法进行识别,也可以根据本发明实施例语音识别方法进行识别。
处理模块统计所述第二文本中每个词语的出现频率,确定出现频率大于第三预设阈值的所述词语为所述用户常用词语,并在所述词典中增大所述用户常用词语对应的识别概率值,得到更新后的词典。则,将所述第一语音信号对应的预设状态的概率值解码为第一文本时,即可以根据所述语言模型及所述更新后的词典将所述第一语音信号对应的状态的概率值解码为所述第一文本,从而针对特定用户进一步提高语音识别的精准度。
进一步地,本发明实施例语音识别方法还包括:语音识别装置检测语音输入端输入的语音信号的强度,并确定信号强度最高的语音信号作为需要识别的第一语音信号。
通过上述实施方式,当语音识别装置上有多个语音输入端时,可以选择输入信号质量最好的输入端采集到的信号作为需要识别的语音信号,从而提高语音识别的精准度。
本发明实施例提供的语音识别方法,根据用户输入的第二语音信号及第一声学模型确定第二声学模型,使得所述第二声学模型与所述用户发音特征更加匹配,根据所述第二声学模型可以更准确地确定所述用户输入的第一语音信号对应的预设状态的概率值,将所述预设状态的概率值解码为文本时,可以得到更准确的语音识别结果。
图5为本发明另一实施例语音识别装置的结构示意图。
请参阅图5,本发明另一实施例语音识别装置包括获取模块510、接收模块520及处理模块530。
所述获取模块510,用于获取第一声学模型,所述第一声学模型表示输入的语音信号与预设状态的映射关系,所述预设状态为与所述语音信号对应的文本的基本组成元素;
具体地,所述获取模块510的功能可以由图1中的处理器110来实现。
所述接收模块520,用于接收第一语音信号,所述第一语音信号包括第一语音信号;
具体地,所述接收模块520的功能可以由图1中的接收器120来实现。
所述处理模块530,用于根据所述第一语音信号及第二声学模型确定所述预设状态的概率值;所述第二声学模型是根据第二语音信号及所述第一声学模型确定得到的;所述第二语音信号包括第二语音信号,所述第一语音信号及所述第二语音信号是由相同的用户输入的;所述语音信号包括所述第一语音信号及所述第二语音信号;
所述处理模块530还用于,根据预设的语言模型及词典将所述第一语音信号对应的预设状态的概率值解码为第一文本;所述语言模型表示所述预设状态与所述语音信号对应的文本之间的映射关系,所述词典包括所述文本的集合,所述文本的集合中包括所述第一文本。
具体地,所述处理模块530的功能可以由图1中的所述语音识别140的处理引擎145来实现。
本发明实施例语音识别装置,根据用户输入的第二语音信号及第一声学模型确定第二声学模型,使得所述第二声学模型与所述用户发音特征更加匹配,根据所述第二声学模型可以更准确地确定所述用户输入的第一语音信号对应的预设状态的概率值,将所述预设状态的概率值解码为文本时,可以得到更准确的语音识别结果。
具体地,本发明实施例语音识别装置用于实现上述方法实施例提供的语音识别方法,具体实现方式及技术效果与方法实施例类似,在此不再赘述。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机、手机或其他便携装置的可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同第一声学模型;而这些修改或者第一声学模型,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (16)
1.一种语音识别方法,其特征在于,包括:
获取第一声学模型,所述第一声学模型表示输入的语音信号与预设状态的映射关系,所述预设状态为与所述语音信号对应的文本的基本组成元素;
接收第一语音信号;
根据所述第一语音信号及第二声学模型确定所述预设状态的概率值;所述第二声学模型是根据输入的第二语音信号及所述第一声学模型确定得到的,所述第一语音信号及所述第二语音信号是由相同的用户输入的;所述语音信号包括所述第一语音信号及所述第二语音信号;
根据预设的语言模型及词典将所述第一语音信号对应的所述预设状态的概率值解码为第一文本;所述语言模型表示所述预设状态与所述语音信号对应的文本之间的映射关系,所述词典包括组成所述文本的词语的集合,所述文本包括所述第一文本。
2.根据权利要求1所述的方法,其特征在于,所述根据第二声学模型确定所述第一语音信号对应的状态概率值之前,还包括:
根据所述第二语音信号及所述第一声学模型确定所述第二声学模型。
3.根据权利要求2所述的方法,其特征在于,所述根据用户输入的所述第二语音信号及所述第一声学模型确定所述第二声学模型,包括:
根据所述第二语音信号及所述第一声学模型,计算得到所述第二语音信号对应的预设状态的实际概率值;
根据所述第二语音信号对应的预设状态的实际概率值确定所述第二语音信号对应的状态的近似概率值;
根据所述第二语音信号、所述第二语音信号对应的各个状态的实际概率值和近似概率值,以及所述第一声学模型,计算得到所述第二声学模型。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述第二语音信号还包括噪声信号,所述噪声信号的分贝值低于第一预设阈值。
5.根据权利要求1-3任一项所述的方法,其特征在于,所述根据第二声学模型确定所述第一语音信号对应的预设状态的概率值之前,还包括:
根据所述第二语音信号,确定代表用户的发音特征的第一频率;
提取所述第一语音信号的信号特征值;
放大所述第一语音信号在所述第一频率上的信号特征值,和/或缩小所述第一语音信号在第二频率上的信号特征值,所述第二频率与所述第一频率不相同。
6.根据权利要求5所述的方法,其特征在于,所述根据所述第二语音信号,确定代表用户的发音特征的第一频率,包括:
将所述第二语音信号转化为频域信号;
计算所述频域信号中出现的各个频率在所述频域信号的所有频率中出现的概率值;
确定大于第二预设阈值的所述概率值对应的频率,为代表所述用户的发音特征的所述第一频率。
7.根据权利要求1-3任一项所述的方法,其特征在于,所述词典中还包括与所述词语对应的识别概率值,所述方法还包括:
根据所述第二语音信号,确定所述词典中的用户常用词语;
在所述词典中增大所述用户常用词语对应的识别概率值,得到更新后的词典;
所述根据预设的语言模型及词典将所述第一语音信号对应的预设状态的概率值解码为第一文本,包括:
根据所述语言模型及所述更新后的词典将所述第一语音信号对应的状态的概率值解码为所述第一文本。
8.根据权利要求7所述的方法,其特征在于,所述根据所述第二语音信号,确定所述词典中的用户常用词语,包括:
对所述第二语音信号进行识别,获得所述第二语音信号对应的第二文本;
统计所述第二文本中每个词语在所述第二文本中的出现频率;
确定出现频率大于第三预设阈值的所述词语为所述用户常用词语词语。
9.一种语音识别装置,其特征在于,包括:
获取模块,用于获取第一声学模型,所述第一声学模型表示输入的语音信号与预设状态的映射关系,所述预设状态为与所述语音信号对应的文本的基本组成元素;
接收模块,用于接收第一语音信号;
处理模块,用于根据所述第一语音信号及第二声学模型确定所述预设状态的概率值;所述第二声学模型是根据第二语音信号及所述第一声学模型确定得到的;所述第一语音信号及所述第二语音信号是由相同的用户输入的;所述语音信号包括所述第一语音信号及所述第二语音信号;
所述处理模块还用于,根据预设的语言模型及词典将所述第一语音信号对应的预设状态的概率值解码为第一文本;所述语言模型表示所述预设状态与所述语音信号对应的文本之间的映射关系,所述词典包括组成所述文本的词语的集合,所述文本包括所述第一文本。
10.根据权利要求9所述的装置,其特征在于,所述处理模块,还用于:
根据所述第二语音信号及所述第一声学模型确定所述第二声学模型。
11.根据权利要求10所述的装置,其特征在于,所述处理模块,具体用于:
根据所述第二语音信号及所述第一声学模型,计算得到所述第二语音信号对应的预设状态的实际概率值;
根据所述第二语音信号对应的预设状态的实际概率值确定所述第二语音信号对应的状态的近似概率值;
根据所述第二语音信号、所述第二语音信号对应的各个状态的实际概率值和近似概率值,以及所述第一声学模型,计算得到所述第二声学模型。
12.根据权利要求9-11任一项所述的装置,其特征在于,所述第二语音信号还包括噪声信号,所述噪声信号的分贝值低于第一预设阈值。
13.根据权利要求9-11任一项所述的装置,其特征在于,所述处理模块,还用于:
根据所述第二语音信号,确定代表用户的发音特征的第一频率;
提取所述第一语音信号的信号特征值;
放大所述第一语音信号在所述第一频率上的信号特征值,和/或缩小所述第一语音信号在第二频率上的信号特征值,所述第二频率与所述第一频率不相同。
14.根据权利要求13所述的装置,其特征在于,所述处理模块,具体用于:
将所述第二语音信号转化为频域信号;
计算所述频域信号中出现的各个频率在所述频域信号的所有频率中出现的概率值;
确定大于第二预设阈值的所述概率值对应的频率,为代表所述用户的发音特征的所述第一频率。
15.根据权利要求9-11任一项所述的装置,其特征在于,所述词典中还包括与所述词语对应的识别概率值,所述处理模块,还用于:
根据所述第二语音信号,确定所述词典中的用户常用词语;
在所述词典中增大所述用户常用词语对应的识别概率值,得到更新后的词典;
所述处理模块具体用于,根据所述语言模型及所述更新后的词典将所述第一语音信号对应的状态的概率值解码为所述第一文本。
16.根据权利要求15所述的装置,其特征在于,所述处理模块,具体用于:
对所述第二语音信号进行识别,获得所述第二语音信号对应的第二文本;
统计所述第二文本中每个词语的出现频率;
确定出现频率大于第三预设阈值的所述词语为所述用户常用词语。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610156615.2A CN105654955B (zh) | 2016-03-18 | 2016-03-18 | 语音识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610156615.2A CN105654955B (zh) | 2016-03-18 | 2016-03-18 | 语音识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105654955A true CN105654955A (zh) | 2016-06-08 |
CN105654955B CN105654955B (zh) | 2019-11-12 |
Family
ID=56494937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610156615.2A Active CN105654955B (zh) | 2016-03-18 | 2016-03-18 | 语音识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105654955B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109489803A (zh) * | 2018-10-17 | 2019-03-19 | 浙江大学医学院附属邵逸夫医院 | 一种环境噪音智能分析与提醒装置 |
CN109741749A (zh) * | 2018-04-19 | 2019-05-10 | 北京字节跳动网络技术有限公司 | 一种语音识别的方法和终端设备 |
CN110930985A (zh) * | 2019-12-05 | 2020-03-27 | 携程计算机技术(上海)有限公司 | 电话语音识别模型、方法、系统、设备及介质 |
CN111402870A (zh) * | 2019-01-02 | 2020-07-10 | 中国移动通信有限公司研究院 | 一种语音识别方法、装置及设备 |
CN111724808A (zh) * | 2019-03-18 | 2020-09-29 | Oppo广东移动通信有限公司 | 音频信号处理方法、装置、终端及存储介质 |
CN113436614A (zh) * | 2021-07-02 | 2021-09-24 | 科大讯飞股份有限公司 | 语音识别方法、装置、设备、系统及存储介质 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000056063A (ko) * | 1999-02-12 | 2000-09-15 | 서평원 | 에치 엠 엠을 이용한 음성 인식장치 및 방법 |
CN1457021A (zh) * | 2003-06-09 | 2003-11-19 | 王慧东 | 基于神经网络的信息识别处理方法 |
CN101175122A (zh) * | 2006-11-01 | 2008-05-07 | 中兴通讯股份有限公司 | 通信网语音增强通道的选配方法 |
CN101814291A (zh) * | 2009-02-20 | 2010-08-25 | 北京中星微电子有限公司 | 在时域提高语音信号信噪比的方法和装置 |
CN102280106A (zh) * | 2010-06-12 | 2011-12-14 | 三星电子株式会社 | 用于移动通信终端的语音网络搜索方法及其装置 |
CN102623010A (zh) * | 2012-02-29 | 2012-08-01 | 北京百度网讯科技有限公司 | 一种建立语言模型的方法、语音识别的方法及其装置 |
CN103049792A (zh) * | 2011-11-26 | 2013-04-17 | 微软公司 | 深层神经网络的辨别预训练 |
CN103117060A (zh) * | 2013-01-18 | 2013-05-22 | 中国科学院声学研究所 | 用于语音识别的声学模型的建模方法、建模系统 |
CN103187052A (zh) * | 2011-12-29 | 2013-07-03 | 北京百度网讯科技有限公司 | 一种建立用于语音识别的语言模型的方法及装置 |
CN103632667A (zh) * | 2013-11-25 | 2014-03-12 | 华为技术有限公司 | 声学模型优化方法、装置及语音唤醒方法、装置和终端 |
CN103885938A (zh) * | 2014-04-14 | 2014-06-25 | 东南大学 | 基于用户反馈的行业拼写错误检查方法 |
CN103903619A (zh) * | 2012-12-28 | 2014-07-02 | 安徽科大讯飞信息科技股份有限公司 | 一种提高语音识别准确率的方法及系统 |
US20140257803A1 (en) * | 2013-03-06 | 2014-09-11 | Microsoft Corporation | Conservatively adapting a deep neural network in a recognition system |
CN104427068A (zh) * | 2013-09-06 | 2015-03-18 | 中兴通讯股份有限公司 | 一种语音通话方法及装置 |
CN104508739A (zh) * | 2012-06-21 | 2015-04-08 | 谷歌公司 | 动态语言模型 |
CN104882141A (zh) * | 2015-03-03 | 2015-09-02 | 盐城工学院 | 一种基于时延神经网络和隐马尔可夫模型的串口语音控制投影系统 |
-
2016
- 2016-03-18 CN CN201610156615.2A patent/CN105654955B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000056063A (ko) * | 1999-02-12 | 2000-09-15 | 서평원 | 에치 엠 엠을 이용한 음성 인식장치 및 방법 |
CN1457021A (zh) * | 2003-06-09 | 2003-11-19 | 王慧东 | 基于神经网络的信息识别处理方法 |
CN101175122A (zh) * | 2006-11-01 | 2008-05-07 | 中兴通讯股份有限公司 | 通信网语音增强通道的选配方法 |
CN101814291A (zh) * | 2009-02-20 | 2010-08-25 | 北京中星微电子有限公司 | 在时域提高语音信号信噪比的方法和装置 |
CN102280106A (zh) * | 2010-06-12 | 2011-12-14 | 三星电子株式会社 | 用于移动通信终端的语音网络搜索方法及其装置 |
CN103049792A (zh) * | 2011-11-26 | 2013-04-17 | 微软公司 | 深层神经网络的辨别预训练 |
CN103187052A (zh) * | 2011-12-29 | 2013-07-03 | 北京百度网讯科技有限公司 | 一种建立用于语音识别的语言模型的方法及装置 |
CN102623010A (zh) * | 2012-02-29 | 2012-08-01 | 北京百度网讯科技有限公司 | 一种建立语言模型的方法、语音识别的方法及其装置 |
CN104508739A (zh) * | 2012-06-21 | 2015-04-08 | 谷歌公司 | 动态语言模型 |
CN103903619A (zh) * | 2012-12-28 | 2014-07-02 | 安徽科大讯飞信息科技股份有限公司 | 一种提高语音识别准确率的方法及系统 |
CN103117060A (zh) * | 2013-01-18 | 2013-05-22 | 中国科学院声学研究所 | 用于语音识别的声学模型的建模方法、建模系统 |
US20140257803A1 (en) * | 2013-03-06 | 2014-09-11 | Microsoft Corporation | Conservatively adapting a deep neural network in a recognition system |
CN104427068A (zh) * | 2013-09-06 | 2015-03-18 | 中兴通讯股份有限公司 | 一种语音通话方法及装置 |
CN103632667A (zh) * | 2013-11-25 | 2014-03-12 | 华为技术有限公司 | 声学模型优化方法、装置及语音唤醒方法、装置和终端 |
CN103885938A (zh) * | 2014-04-14 | 2014-06-25 | 东南大学 | 基于用户反馈的行业拼写错误检查方法 |
CN104882141A (zh) * | 2015-03-03 | 2015-09-02 | 盐城工学院 | 一种基于时延神经网络和隐马尔可夫模型的串口语音控制投影系统 |
Non-Patent Citations (8)
Title |
---|
T. LALITH KUMAR: "Speech Recognition Using Neural Networks", 《2009 INTERNATIONAL CONFERENCE ON SIGNAL PROCESSING SYSTEMS》 * |
WU-FENG: "A Method to Combine HMM and BPNN on Speech Recognition", 《2007 INTERNATIONAL CONFERENCE ON MACHINE LEARNING AND CYBERNETICS》 * |
周盼: "基于深层神经网络的语音识别声学建模研究", 《中国博士学位论文全文数据库信息科技辑》 * |
唐军: "基于HMM与小波神经网络的语音识别系统研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
彭荻: "语音识别系统的声学建模研究", 《中国优秀硕士学位论文全文数据库》 * |
彭靓: "基于HMM和神经网络的语音识别", 《计算机光盘软件与应用》 * |
田丽: "基于小波神经网络的语音识别的研究", 《中国优秀博硕士学位论文全文数据库 (硕士)信息科技辑》 * |
陈元: "基于BP神经网络的语音识别技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109741749A (zh) * | 2018-04-19 | 2019-05-10 | 北京字节跳动网络技术有限公司 | 一种语音识别的方法和终端设备 |
CN109489803A (zh) * | 2018-10-17 | 2019-03-19 | 浙江大学医学院附属邵逸夫医院 | 一种环境噪音智能分析与提醒装置 |
CN109489803B (zh) * | 2018-10-17 | 2020-09-01 | 浙江大学医学院附属邵逸夫医院 | 一种环境噪音智能分析与提醒装置 |
CN111402870A (zh) * | 2019-01-02 | 2020-07-10 | 中国移动通信有限公司研究院 | 一种语音识别方法、装置及设备 |
CN111402870B (zh) * | 2019-01-02 | 2023-08-15 | 中国移动通信有限公司研究院 | 一种语音识别方法、装置及设备 |
CN111724808A (zh) * | 2019-03-18 | 2020-09-29 | Oppo广东移动通信有限公司 | 音频信号处理方法、装置、终端及存储介质 |
CN110930985A (zh) * | 2019-12-05 | 2020-03-27 | 携程计算机技术(上海)有限公司 | 电话语音识别模型、方法、系统、设备及介质 |
CN110930985B (zh) * | 2019-12-05 | 2024-02-06 | 携程计算机技术(上海)有限公司 | 电话语音识别模型、方法、系统、设备及介质 |
CN113436614A (zh) * | 2021-07-02 | 2021-09-24 | 科大讯飞股份有限公司 | 语音识别方法、装置、设备、系统及存储介质 |
CN113436614B (zh) * | 2021-07-02 | 2024-02-13 | 中国科学技术大学 | 语音识别方法、装置、设备、系统及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN105654955B (zh) | 2019-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105654955A (zh) | 语音识别方法及装置 | |
KR101330328B1 (ko) | 음성 인식 방법 및 이를 위한 시스템 | |
CN110428842A (zh) | 语音模型训练方法、装置、设备及计算机可读存储介质 | |
CN110782872A (zh) | 基于深度卷积循环神经网络的语种识别方法及装置 | |
US20220076674A1 (en) | Cross-device voiceprint recognition | |
CN110277088B (zh) | 智能语音识别方法、装置及计算机可读存储介质 | |
CN105489221A (zh) | 一种语音识别方法及装置 | |
CN105788592A (zh) | 一种音频分类方法及装置 | |
US10224030B1 (en) | Dynamic gazetteers for personalized entity recognition | |
KR20120054845A (ko) | 로봇의 음성인식방법 | |
CN110019741B (zh) | 问答系统答案匹配方法、装置、设备及可读存储介质 | |
CN106504768A (zh) | 基于人工智能的电话拨测音频分类方法及装置 | |
CN110570853A (zh) | 基于语音数据的意图识别方法和装置 | |
Yu | Research on speech recognition technology and its application | |
CN115062143A (zh) | 语音识别与分类方法、装置、设备、冰箱及存储介质 | |
CN106875936A (zh) | 语音识别方法及装置 | |
KR20180012639A (ko) | 음성 인식 방법, 음성 인식 장치, 음성 인식 장치를 포함하는 기기, 음성 인식 방법을 수행하기 위한 프로그램을 저장하는 저장 매체, 및 변환 모델을 생성하는 방법 | |
Gupta et al. | Speech feature extraction and recognition using genetic algorithm | |
CN111798846A (zh) | 语音命令词识别方法、装置、会议终端及会议终端系统 | |
CN107910005A (zh) | 交互文本的目标业务定位方法及装置 | |
CN105469801A (zh) | 一种修复输入语音的方法及其装置 | |
CN114360514A (zh) | 语音识别方法、装置、设备、介质及产品 | |
CN111640423B (zh) | 一种词边界估计方法、装置及电子设备 | |
JP2010032865A (ja) | 音声認識装置、音声認識システムおよびプログラム | |
CN109119073A (zh) | 基于多源识别的语音识别方法、系统、音箱及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210423 Address after: Unit 3401, unit a, building 6, Shenye Zhongcheng, No. 8089, Hongli West Road, Donghai community, Xiangmihu street, Futian District, Shenzhen, Guangdong 518040 Patentee after: Honor Device Co.,Ltd. Address before: 518129 Bantian HUAWEI headquarters office building, Longgang District, Guangdong, Shenzhen Patentee before: HUAWEI TECHNOLOGIES Co.,Ltd. |