CN108682420A - 一种音视频通话方言识别方法及终端设备 - Google Patents

一种音视频通话方言识别方法及终端设备 Download PDF

Info

Publication number
CN108682420A
CN108682420A CN201810456906.2A CN201810456906A CN108682420A CN 108682420 A CN108682420 A CN 108682420A CN 201810456906 A CN201810456906 A CN 201810456906A CN 108682420 A CN108682420 A CN 108682420A
Authority
CN
China
Prior art keywords
voice data
words
voice
pronunciation
dialect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810456906.2A
Other languages
English (en)
Other versions
CN108682420B (zh
Inventor
张辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201810456906.2A priority Critical patent/CN108682420B/zh
Priority to PCT/CN2018/097145 priority patent/WO2019218467A1/zh
Publication of CN108682420A publication Critical patent/CN108682420A/zh
Application granted granted Critical
Publication of CN108682420B publication Critical patent/CN108682420B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明提供了一种音视频通话方言识别方法及终端设备,适用于数据处理技术领域,该方法包括:采集通话过程中用户的语音数据,并确定出语音数据的方言种类;将语音数据划分为多个语音数据段;获取方言种类对应的发音词典以及语言模型,基于发音词典对语音数据段进行语音识别,确定出语音数据对应的多个候选文字序列;基于语言模型对多个候选文字序列进行分析,以从多个候选文字序列筛选出与语音数据匹配度最高的文字序列,并将文字序列发送至通话对端终端设备进行显示。本发明实施例可以实现对音视频通话过程中对方言的准确识别翻译,能够保证即使在听不懂方言的情况下通话双方也能获知通话内容,保证音视频通话的正常进行。

Description

一种音视频通话方言识别方法及终端设备
技术领域
本发明属于数据处理技术领域,尤其涉及音视频通话方言识别方法及终端设备。
背景技术
现有的音视频通话软件在进行音视频通话时,仅能听到通话双方的声音,当通话双方中有人使用方言时,若另一方不懂其使用的方言,则会使得音视频通话过程出现语言障碍,从而使得通话双方无法正常进行音视频通话。因此,现有技术无法在音视频过程中实现对方言的准确识别翻译,以保证音视频通话的正常进行。
发明内容
有鉴于此,本发明实施例提供了一种音视频通话方言识别方法及终端设备,以解决现有技术中无法在音视频过程中实现对方言的准确识别翻译,以保证音视频通话的正常进行的问题。
本发明实施例的第一方面提供了一种音视频通话方言识别方法,包括:
采集通话过程中用户的语音数据,并确定出所述语音数据的方言种类;
将所述语音数据划分为多个语音数据段,所述语音数据段与组成所述语音数据的每个字词一一对应;
获取所述方言种类对应的发音词典以及语言模型,基于所述发音词典对所述语音数据段进行语音识别,确定出所述语音数据对应的多个候选文字序列,所述发音词典中记录有字词对应的方言发音数据,所述语言模型中存储有所述方言种类的语法规则数据;
基于所述语言模型对所述多个候选文字序列进行分析,以从所述多个候选文字序列筛选出与所述语音数据匹配度最高的文字序列,并将所述文字序列发送至通话对端终端设备进行显示。
本发明实施例的第二方面提供了一种音视频通话方言识别终端设备,所述音视频通话方言识别终端设备包括存储器、处理器,所述存储器上存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如下步骤。
采集通话过程中用户的语音数据,并确定出所述语音数据的方言种类;
将所述语音数据划分为多个语音数据段,所述语音数据段与组成所述语音数据的每个字词一一对应;
获取所述方言种类对应的发音词典以及语言模型,基于所述发音词典对所述语音数据段进行语音识别,确定出所述语音数据对应的多个候选文字序列,所述发音词典中记录有字词对应的方言发音数据,所述语言模型中存储有所述方言种类的语法规则数据;
基于所述语言模型对所述多个候选文字序列进行分析,以从所述多个候选文字序列筛选出与所述语音数据匹配度最高的文字序列,并将所述文字序列发送至通话对端终端设备进行显示。
本发明实施例的第三方面提供了一种计算机可读存储介质,包括:存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上所述的音视频通话方言识别方法的步骤。
本发明实施例与现有技术相比存在的有益效果是:本发明实施例中通过对用户的语音数据进行采集与字词层面的语音数据段划分,从而确定出了用户语音数据中每个字词对应的语音数据段,再利用用户方言对应的发音词典以及语言模型来对语音数据段进行语音识别和文字序列筛选,从而保证了最终得到的文字序列是与用户语音数据最为匹配的识别结果,进而保证了对用户方言的准确识别。最后将识别出的文字序列发送到音视频通话对端终端设备进行显示,从而使得通话对象即使听不懂用户的方言,依然可以通过显示的文字来获知通话内容。因此,本发明实施例可以实现对音视频通话过程中对方言的准确识别翻译,能够保证即使在听不懂方言的情况下通话双方也能获知通话内容,保证音视频通话的正常进行。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的音视频通话方言识别方法的实现流程示意图;
图2是本发明实施例二提供的音视频通话方言识别方法的实现流程示意图;
图3是本发明实施例三提供的音视频通话方言识别方法的实现流程示意图;
图4是本发明实施例四提供的音视频通话方言识别方法的实现流程示意图;
图5是本发明实施例五提供的音视频通话方言识别方法的实现流程示意图;
图6是本发明实施例六提供的音视频通话方言识别装置的结构示意图;
图7是本发明实施例七提供的音视频通话方言识别终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
图1示出了本发明实施例一提供的音视频通话方言识别方法的实现流程图,详述如下:
S101,采集通话过程中用户的语音数据,并确定出语音数据的方言种类。
其中,对方言种类的识别,既可以是用户手动选定的,也可以是采用语种识别技术来完成对方言的识别。考虑到当前实际情况中方言种类较多,语种识别技术实现难度较大,且语种识别所占用的处理器资源较多,因此优选地,可将所有支持识别翻译的方言种类提供给用户查看,并由用户手动选取方言种类。
S102,将语音数据划分为多个语音数据段,语音数据段与组成语音数据的每个字词一一对应。
在获取到语音数据之后,需要对语音数据进行语音识别,而为了实现对语音数据的识别首先需要对语音数据进行划分,确定出每个字词对应的起止时间,以实现在字词层面上将语音数据划分为每个字词一一对应的语音数据段,使得后续能够根据发音词典查询出每个语音数据段对应的具体字词及转换的概率。
其中,对语音数据进行字词层面的语音数据段划分方法,具体可由技术人员根据实际需求设定,包含但不限于如使用动态规划算法等传统的语音分析算法来实现,或者使用神经网络来自适应的将语音数据从字词层面进行学习划分,如使用联结主义时间分类器(Connectionist Temporal Classification,CTC)模型,来实现将语音数据从字词层面的数据段划分。
S103,获取方言种类对应的发音词典以及语言模型,基于发音词典对语音数据段进行语音识别,确定出语音数据对应的多个候选文字序列,发音词典中记录有字词对应的方言发音数据,语言模型中存储有方言种类的语法规则数据。
发音词典用来存储每个字词对应的方言发音,以供语音识别时查询使用。实际情况中,正如汉语中的多音字现象,方言中一个字词也可能具有多种不同的发音,因此在发音词典中,每个字词对应着一个或多个方言发音。其中,本发明实施例中的发音词典,既可以是由技术人员预先对大量用户进行字词方言发音录制后得到,也可以是由用户自行录制自己对字词的方言发音数据后得到。语言模型,用于存储方言的语法规则,以对语言识别得到文字序列进行语法校验,判断与语音数据的匹配度,其中,语言模型中的语法规则,既可以是直接由技术人员手动设定的,如汉字中的主谓宾等语法规则,也可以是是基于大量文本训练后得到的方言本身的语言规律,以得到对应的语法规则。
由于字词发音会存在较多的相同或相似的发音情况,因此在根据语音数据段进行语音识别时,每个语音数据段可能会被识别出有多个相似的方言发音,即每个语音数据段可能有着对应的多个候选文字,如汉语中的发音“zhang”,可以同时对应着:张、长以及章等字词,因此在识别时,可能会将几个字词都识别为候选文字。因此,本发明实施例在对语音数据段进行识别时,会得到与语音数据对应的由候选文字组成的多个候选文字序列,如汉语中“zhang da”,可能被识别为:长大、张大、胀大以及张达等候选文字序列。
S104,基于语言模型对多个候选文字序列进行分析,以从多个候选文字序列筛选出与语音数据匹配度最高的文字序列,并将文字序列发送至通话对端终端设备进行显示。
在得到多个候选文字序列后,可以基于链式法则,将候选文字序列拆分为其中每个字词的概率之积,再基于语音数据段与候选文字的转换概率,以及根据语法规则得到的候选文字的连续概率等,得到每个字词出现在前一个字词之后的概率,以得出每个候选文字序列对应的文字序列概率(即与语音数据的匹配度)。由于现有技术中利用语言模型来进行候选文字序列概率计算筛选的方法已经较为成熟,因此,本发明实施例中不再对其中具体详细的步骤进行赘述。
作为本发明的一个优选实施例,考虑到仅仅根据语法规则,可能会导致对一些词性相同且发音相同或相近的字词识别准确率较低的情况发生,如汉语中的“人才”和“人材”,仅仅根据简单的语法规则可能难以准确区分开来,因此,本发明实施例中还可以在语言模型处理并筛选出几个概率相近的最大匹配度的候选文字序列后,再对这些候选文字序列进行语义分析,以确定出最佳的文字序列。
本发明实施例中通过对用户的语音数据进行采集与字词层面的语音数据段划分,从而确定出了用户语音数据中每个字词对应的语音数据段,再利用用户方言对应的发音词典以及语言模型来对语音数据段进行语音识别和文字序列筛选,从而保证了最终得到的文字序列是与用户语音数据最为匹配的识别结果,进而保证了对用户方言的准确识别。最后将识别出的文字序列发送到音视频通话对端终端设备进行显示,从而使得通话对象即使听不懂用户的方言,依然可以通过显示的文字来获知通话内容。因此,本发明实施例可以实现对音视频通话过程中对方言的准确识别翻译,能够保证即使在听不懂方言的情况下通话双方也能获知通话内容,保证音视频通话的正常进行。
实际应用中,汉语、英语等常用语种,其使用人群数量多,发音的标准化程度高,因此在进行识别时直接基于其通用的发音标准来进行语音识别,即可实现高准确率的识别,如直接根据汉语拼音和英语音标来进行语音识别。但对于方言而言,由于其使用人数较少且较少有统一的发音标准,基本都是一代代人口口相传下来的,因此,即使是同一种方言,不同地方的人的发音也可能存在极大地差别。因此方言语音识别时,难以像常用语种一样直接设置一个发音标准就可以保证对语音识别的准确率,但在进行语音识别时,又必须在发音词典中设置字词对应的方言发音,由此可知,方言语音识别的准确与否,与发音词典中存储的字词的方言发音数据的准确与否存在着直接关联。
因此,作为本发明实施例二,如图2所示,为了提高对语音识别的准确率,本发明实施例二会在得到识别出的文字序列后,利用文字序列和对应的语音数据,来对发音词典进行更新,详述如下:
S201,对语音数据以及文字序列进行分析,确定出文字序列中每个字词在语音数据中分别对应的语音数据段。
由于得到的文字序列理论上都是对当前用户的语音数据识别翻译的正确结果,因此,其中每个字词的语音数据段对当前用户而言都极具参考意义,相对直接预设一个非统一标准的方言发音数据而言,这些字词的语音数据段中的字词发音,更能满足当前用户的个人特点,因此,若以这些语音数据段为标准来更新发音词典中字词的方言发音数据,可以极大程度上提升对用户个人的语音识别准确率。
S202,基于分析结果,对发音词典中组成文字序列的每个字词对应的方言发音数据进行更新。
其中,本发明实施例未对更新的具体方法进行限定,可由技术人员自行选取设置,包括但不限于如将字词对应的语音数据段,直接作为其对应的方言发音数据,并与发音词典中原本存储的字词的方言发音数据一并存储(即像多音字一样,把字词对应的多个方言发音数据同时关联存储),此时,发音词典中字词对应的方言发音数据量会随着用户的使用而日益增大,对用户的语音识别率也会日益增强。优选地,为了防止一并存储导致的方言发音数据量过大的问题,可以在每次存储后,对已存储的同一个字词对应的多个方言发音数据进行相似度计算,并将其中相似度过大的方言发音数据进行去重,并保留其中的一个即可。
作为本发明的一个优选实施例,为了提升对发音词典更新的准确率,在S201之前,还可以为用户提供一些文字修改功能,使得在得到存在错误的文字序列后,能够及时纠正错误,保证最终用于更新发音词典的文字序列的准确率,以保证对发音词典更新的准确率,具体可参考本发明实施例四以及本发明实施例五相关说明。
在本发明实施例中,通过在得到识别出的用户语音数据的文字序列之后,及时对发音词典进行更新,从而使得发音词典能更加适用于用户个人的语音识别,提高了对用户方言识别的准确率,保证了发音词典的实时准确有效。
作为本发明实施例三,如图3所示,为了提高对语音识别的准确率,本发明实施例三为用户提供了发音词典设置功能,使得用户可以自行对发音词典中每个字词的方言发音数据进行设置更新,以使得发音词典能进一步地满足用户个人的实际情况,详述如下:
S301,若接收到用户输入的发音修改指令,在发音词典中确定出发音修改指令所指示修改的待修改发音字词。
当用户需要对发音词典进行设置的时候,需要首先确定好到底是要修改哪些字词的方言发音数据,即先确定哪些是待修改发音字词。在确定好之后,向音视频设备输入相应的发音修改指令即可。
S302,从采集到的用户的语音数据中,提取出待修改发音字词对应的用户发音数据,并基于用户发音数据对待修改发音字词对应的方言发音数据进行更新。
在接收到用户输入的发音修改指令,并确定出待修改发音字词之后,接收用户对待修改发音字词的发音数据,并对待修改发音字词的方言发音数据进行更新。其中,具体的更新方法此处不予限定,可参考本发明实施例二中的相关说明。
由于用户自行录制的字词的发音数据,相对预设的通用发音数据更加符合用户的实际情况,以此为基准来进行语音识别,可以极大地改善由于方言无标准发音导致的识别准确率不高的问题,满足用户的个性化特点,使得对用户方言识别率得到了极大的保障,提高了发音词典的准确性。
作为本发明实施例四,如图4所示,为了提高对语音识别的准确率,本发明实施例四会在得到识别出的文字序列后,自动识别用户是否需要对文字序列进行修改,并会基于修改后的文字序列和对应的语音数据来对发音词典进行更新,详述如下:
S401,采集通话过程中用户的语音数据,将语音数据划分为多个语音数据段,并基于发音词典以及语言模型对语音数据段进行分析,确定出语音数据对应的匹配度最高的文字序列。
此处与本发明实施例一的操作相同,此处不予赘述。
S402,根据当前采集到的语音数据的语音数据段的数量以及语音数据的时长,和上一次采集到的语音数据的语音数据段的数量以及语音数据的时长,计算并判断当前语音数据与上一次语音数据的语速的差值是否大于预设语速阈值,并判断当前语音数据对应的文字序列与上一次语音数据对应的文字序列的相似度是否大于预设相似度阈值。
其中,语速=语音数据段的数量/语音数据的时长,考虑到实际生活中,当人们发现说话对方没有听清楚或者没有理解自己的话的时候,都会降低自己的语速重复一遍。因此,为了方便用户的使用,同时提高发音字典的准确性,本发明实施例中会通过用户的语速和相对上一句话的文字序列内容,来自动识别用户是否需要对上一句话进行修改,并利用修改的内容对发音词典进行针对性的更新。其中语速阈值和相似度阈值,均可由技术人员根据实际情况设定。
S403,若语速的差值大于语速阈值,且相似度大于相似度阈值,确定出当前语音数据对应的文字序列中存在差异的字词,并从语音数据中提取出存在差异的字词对应的语音数据段,再基于提取出的语音数据段,对存在差异的字词对应的方言发音数据进行更新。
当语速明显下降且说话内容的重复度较高时,说明用户在对上一句话进行修改,其中文字序列中存在差异的字词即为所需修改的内容。实际应用中,正是由于对语音数据的识别存在了误差所以才需要进行修改,因此,存在差异的字词识别出错的概率相对较大,针对这些识别出错概率较大的字词的方言发音数据进行更新,可以极大地提升发音词典的准确性,提升对语音识别的准确性。其中,具体的更新方法此处不予限定,可参考本发明实施例二中的相关说明。
作为本发明实施例五,如图5所示,为了提高对语音识别的准确率,本发明实施例五会在得到识别出的文字序列后,为用户提供对文字序列的手动修改功能,并会基于修改后的文字序列和对应的语音数据来对发音词典进行更新,详述如下:
S501,接收用户输入的文字修改指令。
S502,在文字序列中确定出文字修改指令所指示修改的待修改字词,并用文字修改指令中指示的标准字词替换待修改字词。
为了方便用户在语音识别出错时对出错的文字序列进行修改,本发明实施例中,为用户提供了手动修改的功能,用户只要在得到文字序列识别结果后,选定文字序列中需要修改的待修改发音字词,输入相应的用于替换待修改字词的标准字词,并点击确认修改即可生成相应的文字修改指令,本发明实施例即可实现自动将待修改字词替换为标准字词的功能。例如,当识别结果为“我像吃蛋糕”时,用户只需要手动选定待修改字词“像”,并输入标准字词“想”,再点击确认修改,即可生成文字修改指令,音视频设备在接收到文字修改指令时,再对文字序列进行相应的修改。
S503,从语音数据中提取出待修改字词对应的语音数据段,以对标准字词对应的方言发音数据进行更新。
由于只有一定出错了用户才会修改,且输入的标准字词必定是准确百分百的字词,即待修改字词对应的语音数据段,实际是标准字词的用户语音数据段,因此基于此对标准字词对应的方言发音数据进行更新,可以极大地提升发音词典的准确性,提升对语音识别的准确性。其中,具体的更新方法此处不予限定,可参考本发明实施例二中的相关说明。
作为本发明的一个优选实施例,在用户进行多次音视频通话之后,还包括:
对在用户的通话过程中产生的文字序列进行记录,并将记录的文字序列作为训练样本数据,对语言模型进行训练更新。
由于语言模型中的语法规则,都是根据技术人员的经验或者是根据大多数方言使用者的语言习惯设置的,但由于方言本身使用人数就少语法的标准化程度相对也较弱,因此,预先设置的语法规则不一定能很好地适用于用户个人的情况。为了提升语言模型的有效性,使得语言模型能更加吻合用户的实际语言习惯,本发明实施例中会基于用户真实的语音识别的文字序列结果,来对语言模型进行更新训练。其中,由于对模型的训练,需要较多的样本数据,因此,本发明实施例只有在用户多次音视频通话,得到了较多的文字序列识别结果之后,才会对语言模型进行训练更新。如在用户经过了20次音视频通话之后,对着20次音视频通话得到的文字序列结果,来进行深度学习,分析出其中的语法结构,以得到对应的语法规则,从而实现对语言模型的训练更新。
本发明实施例中通过对用户的语音数据进行采集与字词层面的语音数据段划分,从而确定出了用户语音数据中每个字词对应的语音数据段,再利用用户方言对应的发音词典以及语言模型来对语音数据段进行语音识别和文字序列筛选,从而保证了最终得到的文字序列是与用户语音数据最为匹配的识别结果,进而保证了对用户方言的准确识别。最后将识别出的文字序列发送到音视频通话对端终端设备进行显示,从而使得通话对象即使听不懂用户的方言,依然可以通过显示的文字来获知通话内容。
同时,本发明实施例还为用户提供对识别出的文字序列的手动及自动修改,并基于正常识别得到的文字序列,或者修改后得到的文字序列,对发音词典进行更新,并对语言模型进行更新训练,从而使得本发明实施例中的发音词典和语言模型能够随着用户的使用,越发负荷用户的个性化特点,满足用户个人需求,从而使得本发明实施例中的发音词典和语言模型对用户的方言语音识别准确率,随着用户的使用而愈发上升,为对用户方言的准确识别翻译提供了有力的保障。其用户还可以自行设置或修改发音词典,从而使得对发音词典的修改效率越发提高,使得发音词典能更加满足用户的实际个人需求。因此,本发明实施例可以实现对音视频通话过程中对方言的准确识别翻译,能够保证即使在听不懂方言的情况下通话双方也能获知通话内容,保证音视频通话的正常进行。
对应于上文实施例的方法,图6示出了本发明实施例提供的音视频通话方言识别装置的结构框图,为了便于说明,仅示出了与本发明实施例相关的部分。图6示例的音视频通话方言识别装置可以是前述实施例一提供的音视频通话方言识别方法的执行主体。
参照图6,该音视频通话方言识别装置包括:
语音采集模块61,用于采集通话过程中用户的语音数据,并确定出所述语音数据的方言种类。
数据段划分模块62,用于将所述语音数据划分为多个语音数据段,所述语音数据段与组成所述语音数据的每个字词一一对应。
语音识别模块63,用于获取所述方言种类对应的发音词典以及语言模型,基于所述发音词典对所述语音数据段进行语音识别,确定出所述语音数据对应的多个候选文字序列,所述发音词典中记录有字词对应的方言发音数据,所述语言模型中存储有所述方言种类的语法规则数据。
文字筛选模块64,用于基于所述语言模型对所述多个候选文字序列进行分析,以从所述多个候选文字序列筛选出与所述语音数据匹配度最高的文字序列,并将所述文字序列发送至通话对端终端设备进行显示。
进一步地,该音视频通话方言识别装置,还包括:
对所述语音数据以及所述文字序列进行分析,确定出所述文字序列中每个字词在所述语音数据中分别对应的语音数据段。
基于分析结果,对所述发音词典中组成所述文字序列的每个字词对应的所述方言发音数据进行更新。
进一步地,该音视频通话方言识别装置,还包括:
若接收到用户输入的发音修改指令,在所述发音词典中确定出所述发音修改指令所指示修改的待修改发音字词。
从采集到的用户的语音数据中,提取出所述待修改发音字词对应的用户发音数据,并基于所述用户发音数据对所述待修改发音字词对应的所述方言发音数据进行更新。
进一步地,该音视频通话方言识别装置,还包括:
接收用户输入的文字修改指令。
在所述文字序列中确定出所述文字修改指令所指示修改的待修改字词,并用所述文字修改指令中指示的标准字词替换所述待修改字词。
从所述语音数据中提取出所述待修改字词对应的语音数据段,以对所述标准字词对应的所述方言发音数据进行更新。
进一步地,该音视频通话方言识别装置,还包括:
对在用户的通话过程中产生的文字序列进行记录,并将记录的所述文字序列作为训练样本数据,对所述语言模型进行训练更新。
本发明实施例提供的音视频通话方言识别装置中各模块实现各自功能的过程,具体可参考前述图1所示实施例一的描述,此处不再赘述。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
还应理解的是,虽然术语“第一”、“第二”等在文本中在一些本发明实施例中用来描述各种元素,但是这些元素不应该受到这些术语的限制。这些术语只是用来将一个元素与另一元素区分开。例如,第一接触可以被命名为第二接触,并且类似地,第二接触可以被命名为第一接触,而不背离各种所描述的实施例的范围。第一接触和第二接触都是接触,但是它们不是同一接触。
图7是本发明一实施例提供的音视频通话方言识别终端设备的示意图。如图7所示,该实施例的音视频通话方言识别终端设备7包括:处理器70、存储器71,所述存储器71中存储有可在所述处理器70上运行的计算机程序72。所述处理器70执行所述计算机程序72时实现上述各个音视频通话方言识别方法实施例中的步骤,例如图1所示的步骤101至104。或者,所述处理器70执行所述计算机程序72时实现上述各装置实施例中各模块/单元的功能,例如图6所示模块61至64的功能。
所述音视频通话方言识别终端设备7可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述音视频通话方言识别终端设备可包括,但不仅限于,处理器70、存储器71。本领域技术人员可以理解,图7仅仅是音视频通话方言识别终端设备7的示例,并不构成对音视频通话方言识别终端设备7的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述音视频通话方言识别终端设备还可以包括输入发送设备、网络接入设备、总线等。
所称处理器70可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器71可以是所述音视频通话方言识别终端设备7的内部存储单元,例如音视频通话方言识别终端设备7的硬盘或内存。所述存储器71也可以是所述音视频通话方言识别终端设备7的外部存储设备,例如所述音视频通话方言识别终端设备7上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器71还可以既包括所述音视频通话方言识别终端设备7的内部存储单元也包括外部存储设备。所述存储器71用于存储所述计算机程序以及所述音视频通话方言识别终端设备所需的其他程序和数据。所述存储器71还可以用于暂时地存储已经发送或者将要发送的数据。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使对应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种音视频通话方言识别方法,其特征在于,包括:
采集通话过程中用户的语音数据,并确定出所述语音数据的方言种类;
将所述语音数据划分为多个语音数据段,所述语音数据段与组成所述语音数据的每个字词一一对应;
获取所述方言种类对应的发音词典以及语言模型,基于所述发音词典对所述语音数据段进行语音识别,确定出所述语音数据对应的多个候选文字序列,所述发音词典中记录有字词对应的方言发音数据,所述语言模型中存储有所述方言种类的语法规则数据;
基于所述语言模型对所述多个候选文字序列进行分析,以从所述多个候选文字序列筛选出与所述语音数据匹配度最高的文字序列,并将所述文字序列发送至通话对端终端设备进行显示。
2.如权利要求1所述的音视频通话方言识别方法,其特征在于,还包括:
对所述语音数据以及所述文字序列进行分析,确定出所述文字序列中每个字词在所述语音数据中分别对应的语音数据段;
基于分析结果,对所述发音词典中组成所述文字序列的每个字词对应的所述方言发音数据进行更新。
3.如权利要求1所述的音视频通话方言识别方法,其特征在于,还包括:
若接收到用户输入的发音修改指令,在所述发音词典中确定出所述发音修改指令所指示修改的待修改发音字词;
从采集到的用户的语音数据中,提取出所述待修改发音字词对应的用户发音数据,并基于所述用户发音数据对所述待修改发音字词对应的所述方言发音数据进行更新。
4.如权利要求1所述的音视频通话方言识别方法,其特征在于,还包括:
接收用户输入的文字修改指令;
在所述文字序列中确定出所述文字修改指令所指示修改的待修改字词,并用所述文字修改指令中指示的标准字词替换所述待修改字词;
从所述语音数据中提取出所述待修改字词对应的语音数据段,以对所述标准字词对应的所述方言发音数据进行更新。
5.如权利要求1所述的音视频通话方言识别方法,其特征在于,还包括:
对在用户的通话过程中产生的文字序列进行记录,并将记录的所述文字序列作为训练样本数据,对所述语言模型进行训练更新。
6.一种音视频通话方言识别终端设备,其特征在于,所述音视频通话方言识别处理终端设备包括存储器、处理器,所述存储器上存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如下步骤:
采集通话过程中用户的语音数据,并确定出所述语音数据的方言种类;
将所述语音数据划分为多个语音数据段,所述语音数据段与组成所述语音数据的每个字词一一对应;
获取所述方言种类对应的发音词典以及语言模型,基于所述发音词典对所述语音数据段进行语音识别,确定出所述语音数据对应的多个候选文字序列,所述发音词典中记录有字词对应的方言发音数据,所述语言模型中存储有所述方言种类的语法规则数据;
基于所述语言模型对所述多个候选文字序列进行分析,以从所述多个候选文字序列筛选出与所述语音数据匹配度最高的文字序列,并将所述文字序列发送至通话对端终端设备进行显示。
7.如权利要求6所述音视频通话方言识别终端设备,其特征在于,所述处理器执行所述计算机程序时还实现如下步骤:
对所述语音数据以及所述文字序列进行分析,确定出所述文字序列中每个字词在所述语音数据中分别对应的语音数据段;
基于分析结果,对所述发音词典中组成所述文字序列的每个字词对应的所述方言发音数据进行更新。
8.如权利要求6所述音视频通话方言识别终端设备,其特征在于,所述处理器执行所述计算机程序时还实现如下步骤:
若接收到用户输入的发音修改指令,在所述发音词典中确定出所述发音修改指令所指示修改的待修改发音字词;
从采集到的用户的语音数据中,提取出所述待修改发音字词对应的用户发音数据,并基于所述用户发音数据对所述待修改发音字词对应的所述方言发音数据进行更新。
9.如权利要求6所述音视频通话方言识别终端设备,其特征在于,所述处理器执行所述计算机程序时还实现如下步骤:
接收用户输入的文字修改指令;
在所述文字序列中确定出所述文字修改指令所指示修改的待修改字词,并用所述文字修改指令中指示的标准字词替换所述待修改字词;
从所述语音数据中提取出所述待修改字词对应的语音数据段,以对所述标准字词对应的所述方言发音数据进行更新。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述方法的步骤。
CN201810456906.2A 2018-05-14 2018-05-14 一种音视频通话方言识别方法及终端设备 Active CN108682420B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810456906.2A CN108682420B (zh) 2018-05-14 2018-05-14 一种音视频通话方言识别方法及终端设备
PCT/CN2018/097145 WO2019218467A1 (zh) 2018-05-14 2018-07-26 一种音视频通话方言识别方法、装置、终端设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810456906.2A CN108682420B (zh) 2018-05-14 2018-05-14 一种音视频通话方言识别方法及终端设备

Publications (2)

Publication Number Publication Date
CN108682420A true CN108682420A (zh) 2018-10-19
CN108682420B CN108682420B (zh) 2023-07-07

Family

ID=63805007

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810456906.2A Active CN108682420B (zh) 2018-05-14 2018-05-14 一种音视频通话方言识别方法及终端设备

Country Status (2)

Country Link
CN (1) CN108682420B (zh)
WO (1) WO2019218467A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109448699A (zh) * 2018-12-15 2019-03-08 深圳壹账通智能科技有限公司 语音转换文本方法、装置、计算机设备及存储介质
CN110047467A (zh) * 2019-05-08 2019-07-23 广州小鹏汽车科技有限公司 语音识别方法、装置、存储介质及控制终端
CN110211565A (zh) * 2019-05-06 2019-09-06 平安科技(深圳)有限公司 方言识别方法、装置及计算机可读存储介质
CN110517664A (zh) * 2019-09-10 2019-11-29 科大讯飞股份有限公司 多方言识别方法、装置、设备及可读存储介质
CN110827803A (zh) * 2019-11-11 2020-02-21 广州国音智能科技有限公司 方言发音词典的构建方法、装置、设备及可读存储介质
CN111326144A (zh) * 2020-02-28 2020-06-23 网易(杭州)网络有限公司 语音数据处理方法、装置、介质和计算设备
WO2021000068A1 (zh) * 2019-06-29 2021-01-07 播闪机械人有限公司 一种非母语人士使用的语音识别方法及装置
CN112652309A (zh) * 2020-12-21 2021-04-13 科大讯飞股份有限公司 一种方言语音转换方法、装置、设备及存储介质
CN113053362A (zh) * 2021-03-30 2021-06-29 建信金融科技有限责任公司 语音识别的方法、装置、设备和计算机可读介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111460214B (zh) * 2020-04-02 2024-04-19 北京字节跳动网络技术有限公司 分类模型训练方法、音频分类方法、装置、介质及设备
CN112905247A (zh) * 2021-01-25 2021-06-04 斑马网络技术有限公司 自动检测并切换语言的方法及装置、终端设备、存储介质
CN113641836A (zh) * 2021-08-20 2021-11-12 安徽淘云科技股份有限公司 一种展示方法及其相关设备
CN114708860B (zh) * 2022-05-10 2024-10-11 平安科技(深圳)有限公司 语音命令识别方法、装置、计算机设备及计算机可读介质
CN117690416B (zh) * 2024-02-02 2024-04-12 江西科技学院 一种人工智能交互方法及人工智能交互系统

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1419184A (zh) * 2001-11-13 2003-05-21 微软公司 用于调试与语言模型一起使用的类实体词典的方法和设备
CN1841496A (zh) * 2005-03-31 2006-10-04 株式会社东芝 测量语速的方法和装置以及录音设备
US20070239455A1 (en) * 2006-04-07 2007-10-11 Motorola, Inc. Method and system for managing pronunciation dictionaries in a speech application
JP2008262120A (ja) * 2007-04-13 2008-10-30 Nippon Hoso Kyokai <Nhk> 発話評価装置及び発話評価プログラム
US20080319754A1 (en) * 2007-06-25 2008-12-25 Fujitsu Limited Text-to-speech apparatus
CN103187052A (zh) * 2011-12-29 2013-07-03 北京百度网讯科技有限公司 一种建立用于语音识别的语言模型的方法及装置
CN103578471A (zh) * 2013-10-18 2014-02-12 威盛电子股份有限公司 语音辨识方法及其电子装置
CN103680498A (zh) * 2012-09-26 2014-03-26 华为技术有限公司 一种语音识别方法和设备
CN103903615A (zh) * 2014-03-10 2014-07-02 联想(北京)有限公司 一种信息处理方法及电子设备
CN106384593A (zh) * 2016-09-05 2017-02-08 北京金山软件有限公司 一种语音信息转换、信息生成方法及装置
CN106448675A (zh) * 2016-10-21 2017-02-22 科大讯飞股份有限公司 识别文本修正方法及系统
CN106531182A (zh) * 2016-12-16 2017-03-22 上海斐讯数据通信技术有限公司 一种语言学习系统
CN106935239A (zh) * 2015-12-29 2017-07-07 阿里巴巴集团控股有限公司 一种发音词典的构建方法及装置
CN107068144A (zh) * 2016-01-08 2017-08-18 王道平 一种语音识别中便于人工修改文字的方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103455530A (zh) * 2012-10-25 2013-12-18 河南省佰腾电子科技有限公司 随身携带式创建个性化语音对应文本文字数据库的装置
CN103578464B (zh) * 2013-10-18 2017-01-11 威盛电子股份有限公司 语言模型的建立方法、语音辨识方法及电子装置
CN105573988A (zh) * 2015-04-28 2016-05-11 宇龙计算机通信科技(深圳)有限公司 一种语音转换的方法及终端
US10062385B2 (en) * 2016-09-30 2018-08-28 International Business Machines Corporation Automatic speech-to-text engine selection
CN106356065A (zh) * 2016-10-31 2017-01-25 努比亚技术有限公司 一种移动终端及语音转换方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1419184A (zh) * 2001-11-13 2003-05-21 微软公司 用于调试与语言模型一起使用的类实体词典的方法和设备
CN1841496A (zh) * 2005-03-31 2006-10-04 株式会社东芝 测量语速的方法和装置以及录音设备
US20070239455A1 (en) * 2006-04-07 2007-10-11 Motorola, Inc. Method and system for managing pronunciation dictionaries in a speech application
JP2008262120A (ja) * 2007-04-13 2008-10-30 Nippon Hoso Kyokai <Nhk> 発話評価装置及び発話評価プログラム
US20080319754A1 (en) * 2007-06-25 2008-12-25 Fujitsu Limited Text-to-speech apparatus
CN103187052A (zh) * 2011-12-29 2013-07-03 北京百度网讯科技有限公司 一种建立用于语音识别的语言模型的方法及装置
CN103680498A (zh) * 2012-09-26 2014-03-26 华为技术有限公司 一种语音识别方法和设备
CN103578471A (zh) * 2013-10-18 2014-02-12 威盛电子股份有限公司 语音辨识方法及其电子装置
CN103903615A (zh) * 2014-03-10 2014-07-02 联想(北京)有限公司 一种信息处理方法及电子设备
CN106935239A (zh) * 2015-12-29 2017-07-07 阿里巴巴集团控股有限公司 一种发音词典的构建方法及装置
CN107068144A (zh) * 2016-01-08 2017-08-18 王道平 一种语音识别中便于人工修改文字的方法
CN106384593A (zh) * 2016-09-05 2017-02-08 北京金山软件有限公司 一种语音信息转换、信息生成方法及装置
CN106448675A (zh) * 2016-10-21 2017-02-22 科大讯飞股份有限公司 识别文本修正方法及系统
CN106531182A (zh) * 2016-12-16 2017-03-22 上海斐讯数据通信技术有限公司 一种语言学习系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
RUI HAN: "Scrolling text processing for motion compensated frame interpolation", 《2012 PICTURE CODING SYMPOSIUM》, pages 198 *
赵力, 机械工业出版社 *
陆明明: "基于词格的语音文档检索技术研究", 《中国优秀硕士学位论文全文数据库》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109448699A (zh) * 2018-12-15 2019-03-08 深圳壹账通智能科技有限公司 语音转换文本方法、装置、计算机设备及存储介质
CN110211565A (zh) * 2019-05-06 2019-09-06 平安科技(深圳)有限公司 方言识别方法、装置及计算机可读存储介质
CN110047467A (zh) * 2019-05-08 2019-07-23 广州小鹏汽车科技有限公司 语音识别方法、装置、存储介质及控制终端
CN110047467B (zh) * 2019-05-08 2021-09-03 广州小鹏汽车科技有限公司 语音识别方法、装置、存储介质及控制终端
WO2021000068A1 (zh) * 2019-06-29 2021-01-07 播闪机械人有限公司 一种非母语人士使用的语音识别方法及装置
CN110517664A (zh) * 2019-09-10 2019-11-29 科大讯飞股份有限公司 多方言识别方法、装置、设备及可读存储介质
CN110827803A (zh) * 2019-11-11 2020-02-21 广州国音智能科技有限公司 方言发音词典的构建方法、装置、设备及可读存储介质
CN111326144A (zh) * 2020-02-28 2020-06-23 网易(杭州)网络有限公司 语音数据处理方法、装置、介质和计算设备
CN111326144B (zh) * 2020-02-28 2023-03-03 网易(杭州)网络有限公司 语音数据处理方法、装置、介质和计算设备
CN112652309A (zh) * 2020-12-21 2021-04-13 科大讯飞股份有限公司 一种方言语音转换方法、装置、设备及存储介质
CN113053362A (zh) * 2021-03-30 2021-06-29 建信金融科技有限责任公司 语音识别的方法、装置、设备和计算机可读介质

Also Published As

Publication number Publication date
CN108682420B (zh) 2023-07-07
WO2019218467A1 (zh) 2019-11-21

Similar Documents

Publication Publication Date Title
CN108682420A (zh) 一种音视频通话方言识别方法及终端设备
CN108847241B (zh) 将会议语音识别为文本的方法、电子设备及存储介质
CN110444198B (zh) 检索方法、装置、计算机设备和存储介质
US10192545B2 (en) Language modeling based on spoken and unspeakable corpuses
CN108831439B (zh) 语音识别方法、装置、设备和系统
US11282524B2 (en) Text-to-speech modeling
US20180314689A1 (en) Multi-lingual virtual personal assistant
CN110110041A (zh) 错词纠正方法、装置、计算机装置及存储介质
EP3405912A1 (en) Analyzing textual data
CN110942763B (zh) 语音识别方法及装置
CN111710337B (zh) 语音数据的处理方法、装置、计算机可读介质及电子设备
CN111783471B (zh) 自然语言的语义识别方法、装置、设备及存储介质
CN112579733B (zh) 规则匹配方法、规则匹配装置、存储介质及电子设备
JP2020004382A (ja) 音声対話方法及び装置
CN107274903A (zh) 文本处理方法和装置、用于文本处理的装置
CN114639386A (zh) 文本纠错及文本纠错词库构建方法
CN116414959A (zh) 数字人的互动控制方法、装置、电子设备和存储介质
CN113436614A (zh) 语音识别方法、装置、设备、系统及存储介质
CN114299930A (zh) 端到端语音识别模型处理方法、语音识别方法及相关装置
CN117272977A (zh) 人物描写语句的识别方法、装置、电子设备及存储介质
CN112818096A (zh) 对话生成方法及其装置
CN117216206A (zh) 会话处理方法、装置、电子设备及存储介质
CN114783405B (zh) 一种语音合成方法、装置、电子设备及存储介质
CN111680514A (zh) 信息处理和模型训练方法、装置、设备及存储介质
CN114925159A (zh) 用户情感分析模型训练方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant