CN109583359A - 表述内容识别方法、装置、电子设备、机器可读存储介质 - Google Patents

表述内容识别方法、装置、电子设备、机器可读存储介质 Download PDF

Info

Publication number
CN109583359A
CN109583359A CN201811415009.3A CN201811415009A CN109583359A CN 109583359 A CN109583359 A CN 109583359A CN 201811415009 A CN201811415009 A CN 201811415009A CN 109583359 A CN109583359 A CN 109583359A
Authority
CN
China
Prior art keywords
text
recognition result
image
data
acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811415009.3A
Other languages
English (en)
Other versions
CN109583359B (zh
Inventor
冯瑞丰
雷艳兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN201811415009.3A priority Critical patent/CN109583359B/zh
Publication of CN109583359A publication Critical patent/CN109583359A/zh
Application granted granted Critical
Publication of CN109583359B publication Critical patent/CN109583359B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开是关于一种表述内容识别方法、装置、电子设备、机器可读存储介质。一种表述内容识别方法,包括:在用户表述过程中,对所述用户语音以及表述部位图像进行采集;对采集的语音数据以及图像数据分别进行识别;基于所述语音数据的识别结果和所述图像数据的识别结果,确定用户表述的内容。可见,本实施例中利用语音数据和图像数据确定出用户表述的内容,克服嘈杂环境对语音识别结果的影响,有利于提高识别结果的准确度,提升用户的使用体验。

Description

表述内容识别方法、装置、电子设备、机器可读存储介质
技术领域
本公开涉及控制技术领域,尤其涉及一种表述内容识别方法、装置、电子设备、机器可读存储介质。
背景技术
目前,语音识别技术得到的迅速发展,开始应用于工业、家电、通信、汽车电子、医疗、家庭服务、消费电子产品等各个领域。现有的语音设备上设置有麦克风阵列,通过麦克风阵列进行拾音,然后语音设备中处理器对语音数据进行降噪、语音识别以及自然语音处理,从而得到用户表述的内容。
然而,当语音设备放置在嘈杂环境下或者用户有发音障碍时,语音设备识别用户表述内容的准确率大大降低,甚至无法有效识别出用户的表述内容。
发明内容
本公开提供一种表述内容识别方法、装置、电子设备、机器可读存储介质,以解决相关技术的不足。
根据本公开实施例的第一方面,提供一种表述内容识别方法,包括:
在用户表述过程中,对所述用户语音以及表述部位图像进行采集;
对采集的语音数据以及图像数据分别进行识别;
基于所述语音数据的识别结果和所述图像数据的识别结果,确定用户表述的内容。
可选地,所述表述部位包括:口部;对采集的图像数据进行识别,包括:
对采集的图像中口部进行识别定位;
采用第一预设算法对采集图像中的口型变化进行唇语分析,得到识别的文字;或者,将采集图像中的口型与预设口型数据库中的口型数据进行匹配,得到识别的文字。
可选地,所述表述部位包括:手部;对采集的图像数据进行识别,包括:
对采集的图像中手部进行识别定位;
采用第二预设算法对采集图像中的手势变化进行手语分析,得到识别的文字;或者,将采集图像中的手势与预设手势动作数据库中的手势数据进行匹配,得到识别的文字。
可选地,所述表述部位包括:口部和手部;对采集的图像数据进行识别,包括:
对采集的图像中口部和手部分别进行识别定位;
采用第一预设算法对采集图像中的口型变化进行唇语分析,或者,将采集图像中的口型与预设口型数据库中的口型数据进行匹配,得到基于口部图像数据识别的第一文字;
采用第二预设算法对采集图像中的手势变化进行手语分析,或者,将采集图像中的手势与预设手势动作数据库中的手势数据进行匹配,得到基于手部图像数据识别的第二文字;
根据所述第一文字的识别准确率和所述第二文字的识别准确率,对所述第一文字和所述第二文字进行合成处理,得到识别的文字。
可选地,基于所述语音数据的识别结果和所述图像数据的识别结果,确定用户表述的内容,包括:
分别获取所述语音数据的识别结果和所述图像数据的识别结果的识别准确率;
将识别准确率较高的识别结果确定为识别出的表述内容。
可选地,基于所述语音数据的识别结果和所述图像数据的识别结果,确定用户表述的内容,包括:
定位基准识别结果中的文字缺失区域;
将辅助识别结果中与文字缺失区域对应区域的文字填充至所述文字缺失区域;
将填充后的基准识别结果确定为识别出的表述内容;
其中,基准识别结果为所述语音数据的识别结果和所述图像数据的识别结果中的一种,则另一种为辅助识别结果;文字缺失区域包括识别结果中识别准确率低于预设值或者无法识别出的文字对应的区域。
根据本公开实施例的第二方面,提供一种表述内容识别装置,包括:
数据采集模块,用于在用户表述过程中,对所述用户语音以及表述部位图像进行采集;
数据识别模块,用于对采集的语音数据以及图像数据分别进行识别;
内容确定模块,用于基于所述语音数据的识别结果和所述图像数据的识别结果,确定用户表述的内容。
可选地,所述表述部位包括:口部;所述数据识别模块包括:
口部定位单元,用于对采集的图像中口部进行识别定位;
口语识别单元,用于采用第一预设算法对采集图像中的口型变化进行唇语分析,得到识别的文字;或者,将采集图像中的口型与预设口型数据库中的口型数据进行匹配,得到识别的文字。
可选地,所述表述部位包括:手部;所述数据识别模块包括:
手部定位单元,用于对采集的图像中手部进行识别定位;
手势识别单元,用于采用第二预设算法对采集图像中的手势变化进行手语分析,得到识别的文字;或者,将采集图像中的手势与预设手势动作数据库中的手势数据进行匹配,得到识别的文字。
可选地,所述表述部位包括:口部和手部;所述数据识别模块包括:
口部和手部定位单元,用于对采集的图像中口部和手部分别进行识别定位;
口型识别单元,用于采用第一预设算法对采集图像中的口型变化进行唇语分析,或者,将采集图像中的口型与预设口型数据库中的口型数据进行匹配,得到基于口部图像数据识别的第一文字;
手势识别单元,用于采用第二预设算法对采集图像中的手势变化进行手语分析,或者,将采集图像中的手势与预设手势动作数据库中的手势数据进行匹配,得到基于手部图像数据识别的第二文字;
文字合成单元,用于根据所述第一文字的识别准确率和所述第二文字的识别准确率,对所述第一文字和所述第二文字进行合成处理,得到识别的文字。
可选地,所述内容确定模块包括:
准确率获取单元,用于分别获取所述语音数据的识别结果和所述图像数据的识别结果的识别准确率;
内容确定单元,用于将识别准确率较高的识别结果确定为识别出的表述内容。
可选地,所述内容确定模块包括:
区域定位单元,用于定位基准识别结果中的文字缺失区域;
区域填充单元,用于将辅助识别结果中与文字缺失区域对应区域的文字填充至所述文字缺失区域;
内容确定单元,用于将填充后的基准识别结果确定为识别出的表述内容;
其中,基准识别结果为所述语音数据的识别结果和所述图像数据的识别结果中的一种,则另一种为辅助识别结果;文字缺失区域包括识别结果中识别准确率低于预设值或者无法识别出的文字对应的区域。
根据本公开实施例的第三方面,提供一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器被配置为执行所述存储器中的可执行指令以实现:
在用户表述过程中,对所述用户语音以及表述部位图像进行采集;
对采集的语音数据以及图像数据分别进行识别;
基于所述语音数据的识别结果和所述图像数据的识别结果,确定用户表述的内容。
根据本公开实施例的第四方面,提供一种机器可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现第一方面所述的方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开实施例中通过采集用户表述过程中其语音以及表述部位图像,可以得到语音数据以及图像数据。然后,对语音数据以及图像数据进行识别,可以得到语音数据的识别结果以及图像数据的识别结果。之后,基于语音数据的识别结果和图像数据的识别结果,可以确定出用户表述的内容。可见,本实施例中利用语音数据和图像数据确定出用户表述的内容,克服嘈杂环境对语音识别结果的影响,有利于提高识别结果的准确度,提升用户的使用体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种应用场景图;
图2是根据一示例性实施例示出的一种表述内容识别方法的流程示意图;
图3是根据一示例性实施例示出的表述部位为口部时得到识别文字的流程示意图;
图4是根据一示例性实施例示出的表述部位为手部时得到识别文字的流程示意图;
图5是根据一示例性实施例示出的表述部位为口部和手部时得到识别文字的流程示意图;
图6是根据一示例性实施例示出的基于识别准确率确定表述内容的流程示意图;
图7是根据一示例性实施例示出的基于文字填充方式确定表述内容的流程示意图;
图8~图13是根据一示例性实施例示出的一种表述内容识别装置的框图;
图14是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置例子。
考虑到在嘈杂环境下或者用户有发音障碍时,语音设备识别用户表述内容的准确率会大大降低,甚至无法有效识别出用户的表述内容的问题,本公开实施例提供了一种表述内容识别方法,可以应用于具有语音采集和图像采集的电子设备,例如,智能音箱、智能手机、个人计算机等,后续以智能音箱为例进行描述。
需要说明的是,本实施例中图像模组可以独立于或者集成于智能音箱,为方便说明,后续以图像模组集成在智能音箱内为例进行说明。
为满足智能音箱的需求,可以通过调整智能音箱中麦克风阵列和图像模组的朝向、分辨率以及功能等参数,从而得到一个目标区域。该目标区域是指麦克风阵列的工作区域和图像模组的工作区域的重叠区域。
其中,智能音箱中麦克风阵列工作区域为其可以在安静状态下采集到语音数据的区域,以及图像模组的工作区域为其可以采集到满足分辨率要求的图像数据的区域。
另需要说明的是,本实施例中预先设置目标区域的目的在于,避免智能音箱采集不到语音数据或者图像数据的情况,从而可以充分利于语音数据和图像数据。
图1是根据一示例性实施例示出的一种应用场景图,参见图1,一种表述内容识别方法,其构思在于,利用语音数据和表述部位的图像数据来确定用户表述的内容。由于嘈杂环境仅会影响语音数据,但不会影响图像数据,因此有利于提升表述内容识别结果的准确度。
图2是根据一示例性实施例示出的一种表述内容识别方法的流程示意图,参见图2,一种表述内容识别方法,包括步骤201~步骤203,其中:
201,在用户表述过程中,对所述用户语音以及表述部位图像进行采集。
本实施例中,用户可以进入目标区域,然后面向智能音箱口头表述以及利用表述部位表述。其中,表述部位可以为口部和/或手部。
在用户表述过程中,麦克风阵列可以采集用户语音,得到语音数据。以及,图像模组可以定位用户的表述部位,然后采集表述部位的图像,得到图像数据。
可理解的是,语音数据和图像数据可以存储到本地存储器、缓存或者云端等。当然,语音数据和图像数据还可以直接发送给智能音箱的处理器。技术人员可以根据具体场景选择合适的存储方式,在此不作限定。
202,对采集的语音数据以及图像数据分别进行识别。
本实施例中,智能音箱的处理器可以直接接收语音数据和图像数据,还可以从云端、缓存或本地存储器读取语音数据和图像数据。
然后,处理器分别对语音数据和图像数据进行识别,包括:
语音数据识别:首先,处理器可以对语音数据进行预处理,预处理可以包括滤波、预加重和端点检测等操作。然后,处理器可以通过如采样、信号分割、线性预测编码等处理提取语音数据的特征数据,特征数据可以包括随时间变化的语音特征。之后,处理器调用预先设置的声学模型对特征数据进行识别,得到识别结果,其中语音数据的识别结果可以为一文本序列。
需要说明的是,处理器还可以采用相关技术中的其他语音识别方法对语音数据进行识别,在能够得到识别结果的情况下,相应方案落入本申请的保护范围。
图像数据识别:首先,处理器可以对图像数据中每一帧图像进行预处理,例如图像增强。然后,处理器对图像数据进行分割,将图像分割成一些互不重叠而又具有各自特征的子区域,一个子区域作为一个像元图像。之后,处理器调用预先设置的图像识别模型,例如神经网络、图像模板匹配等,获取每个像元图像的图像特征,从而可以得到整个图像的图像特征。由于图像数据为表述部位图像,因此一帧图像的识别结果可以为表述部位的形状,例如口型、手形。再者,处理器结合多帧表述部位图像中表述部位的形状可以确定出表述部位的动作,例如口型变化和手势。最后,处理器可以根据预设算法对表述部位的动作进行分析。基于上述图像数据识别过程,处理器对表述部位图像的识别过程包括:
参见图3,若表述部位为口部,则处理器对采集的图像中口部进行识别定位(对应步骤301)。然后,处理器采用第一预设算法对采集图像中的口型变化进行唇语分析,得到识别的文字;或者,处理器将采集图像中的口型与预设口型数据库中的口型数据进行匹配,得到识别的文字(对应步骤302)。
需要说明的是,第一预设算法可以预先设置并基于大量口型图像训练得到,例如第一预设算法可以为神经网络算法。当然技术人员还可以根据场景选择其他算法来实现第一预设算法的功能,在能够得到识别文字的情况下,相应方案落入本申请的保护范围。
另需要说明的是,预设口型数据库包括基于大量口型图像统计得到的文字与口型的对应关系,或者唇语与文字的对应关系。
参见图4,若表述部位为手部,则处理器对采集的图像中手部进行识别定位(对应步骤401)。然后,处理器采用第二预设算法对采集图像中的手势变化进行手语分析,得到识别的文字;或者,将采集图像中的手势与预设手势动作数据库中的手势数据进行匹配,得到识别的文字(对应步骤402)。
需要说明的是,第二预设算法可以预先设置并基于大量手势图像训练得到,例如第二预设算法可以为神经网络算法。当然技术人员还可以根据场景选择其他算法来实现第二预设算法的功能,在能够得到识别文字的情况下,相应方案落入本申请的保护范围。
另需要说明的是,预设口型数据库包括基于大量手势图像统计得到的文字与口型的对应关系,或者手语模板与文字的对应关系。
参见图5,若表述部位为口部和手部,则处理器对采集的图像中口部和手部分别进行识别定位(对应步骤501)。然后处理器采用第一预设算法对采集图像中的口型变化进行唇语分析,或者,将采集图像中的口型与预设口型数据库中的口型数据进行匹配,得到基于口部图像数据识别的第一文字(对应步骤502)。以及,处理器采用第二预设算法对采集图像中的手势变化进行手语分析,或者,将采集图像中的手势与预设手势动作数据库中的手势数据进行匹配,得到基于手部图像数据识别的第二文字(对应步骤503)。最后,处理器根据第一文字的识别准确率和第二文字的识别准确率,对第一文字和第二文字进行合成处理,得到识别的文字(对应步骤504)。
需要说明的是,第一预设算法在识别出口型变化对应的文字后,可以输出一个口型与文字的匹配度,即识别准确度。以及,口型与预设口型数据库在匹配后得到第一文字,还可以得到一个匹配度,即识别准确度。识别准确率的确定方式可以参考相关技术中的方法,在此不作限定。
另需要说明的是,第二预设算法的识别出手势变化对应的文字后,可以输出一个手势与文字的匹配度,即识别准确度。以及,手势与预设手势动作数据库在匹配后得到第二文字,还可以得到一个匹配度,即识别准确度。识别准确率的确定方式可以参考相关技术中的方法,在此不作限定。
进一步地,步骤504中对第一文字和第二文字的合成处理操作,可以实施为将第一文字和第二文字识别准确度最高的作为合成后的识别文字;还可以实施为将第一文字和第二文字分别拆分处理,例如,将第一文字中的每个字或者词和第二文字中对应位置的字或者词中,准确度较高的字或者词作为对应位置的字或者词;也可以实施为确定第一文字或第二文字中识别准确率低于一定阈值或者无法识别的字或者词,使用另一文字中对应位置的字或者词代替该确定出的字或者词。
还需要说明的是,步骤502和步骤503的顺序不作限定,步骤502可先于、后于步骤503执行,或者步骤502和步骤503同时执行。
203,基于所述语音数据的识别结果和所述图像数据的识别结果,确定用户表述的内容。
本实施例中,处理器可以基于语音数据的识别结果和图像数据的识别结果确定出表述的内容,可以包括以下方式:
方式一,参见图6,处理器可以分别获取语音数据的识别结果和图像数据的识别结果的识别准确率(对应步骤601)。然后,处理器将识别准确率较高的识别结果确定为识别出的表述内容(对应步骤602)。
例如,处理器基于语音数据的识别结果为“我想吃西餐,识别准确度为85%”,基于图像数据的识别结果为“我想吃大餐,识别准确度为90%”。由于图像数据的识别结果的识别准确度更高,则处理器将基于图像数据的识别结果确定为识别出的表述内容,即用户表述内容为“我想吃大餐”。
方式二,参见图7,处理器定位基准识别结果中的文字缺失区域(对应步骤701)。然后,处理器将辅助识别结果中与文字缺失区域对应区域的文字填充至文字缺失区域(对应步骤702)。之后,处理器将将填充后的基准识别结果确定为识别出的表述内容(对应步骤703)。其中,基准识别结果为语音数据的识别结果和图像数据的识别结果中的一种,则另一种为辅助识别结果;文字缺失区域包括识别结果中识别准确率低于预设值或者无法识别出的文字对应的区域。
例如,处理器基于语音数据的识别结果为“我想吃XX餐”,且该识别结果为基准识别结果,且基于图像数据的识别结果为辅助识别结果。该基准识别结果中的文字缺失区域为“XX”。由于辅助识别结果为“我想吃大餐”,则文字缺失区域对应的文字为“大”,则将该文字“大”填充到基准识别结果中,得到填充后的基准识别结果为“我想吃大餐”,并且处理器将填充后的基准识别结果为“我想吃大餐”确定为识别出的表述内容。
至此,本公开实施例中通过采集用户表述过程中其语音以及表述部位图像,可以得到语音数据以及图像数据。然后,对语音数据以及图像数据进行识别,可以得到语音数据的识别结果以及图像数据的识别结果。之后,基于语音数据的识别结果和图像数据的识别结果,可以确定出用户表述的内容。可见,本实施例中利用语音数据和图像数据确定出用户表述的内容,克服嘈杂环境对语音识别结果的影响,有利于提高识别结果的准确度,提升用户的使用体验。
本公开实施例还提供了一种表述内容识别装置,图8是根据一示例性实施例示出的一种表述内容识别装置的框图。参见图8,一种表述内容识别装置800包括:
数据采集模块801,用于在用户表述过程中,对所述用户语音以及表述部位图像进行采集;
数据识别模块802,用于对采集的语音数据以及图像数据分别进行识别;
内容确定模块803,用于基于所述语音数据的识别结果和所述图像数据的识别结果,确定用户表述的内容。
本公开实施例中通过采集用户表述过程中其语音以及表述部位图像,可以得到语音数据以及图像数据。然后,对语音数据以及图像数据进行识别,可以得到语音数据的识别结果以及图像数据的识别结果。之后,基于语音数据的识别结果和图像数据的识别结果,可以确定出用户表述的内容。可见,本实施例中利用语音数据和图像数据确定出用户表述的内容,克服嘈杂环境对语音识别结果的影响,有利于提高识别结果的准确度,提升用户的使用体验。
在一些实施例中,图9是根据一示例性实施例示出的一种表述内容识别装置的框图,在图8所示一种表述内容识别装置的基础上,参见图9,所述表述部位包括:口部;所述数据识别模块802包括:
口部定位单元901,用于对采集的图像中口部进行识别定位;
口语识别单元902,用于采用第一预设算法对采集图像中的口型变化进行唇语分析,得到识别的文字;或者,将采集图像中的口型与预设口型数据库中的口型数据进行匹配,得到识别的文字。
在一些实施例中,图10是根据一示例性实施例示出的一种表述内容识别装置的框图,在图8所示一种表述内容识别装置的基础上,参见图10,所述表述部位包括:手部;所述数据识别模块802包括:
手部定位单元1001,用于对采集的图像中手部进行识别定位;
手势识别单元1002,用于采用第二预设算法对采集图像中的手势变化进行手语分析,得到识别的文字;或者,将采集图像中的手势与预设手势动作数据库中的手势数据进行匹配,得到识别的文字。
在一些实施例中,图11是根据一示例性实施例示出的一种表述内容识别装置的框图,在图8所示一种表述内容识别装置的基础上,参见图11,所述表述部位包括:口部和手部;所述数据识别模块802包括:
口部和手部定位单元1101,用于对采集的图像中口部和手部分别进行识别定位;
口型识别单元1102,用于采用第一预设算法对采集图像中的口型变化进行唇语分析,或者,将采集图像中的口型与预设口型数据库中的口型数据进行匹配,得到基于口部图像数据识别的第一文字;
手势识别单元1103,用于采用第二预设算法对采集图像中的手势变化进行手语分析,或者,将采集图像中的手势与预设手势动作数据库中的手势数据进行匹配,得到基于手部图像数据识别的第二文字;
文字合成单元1104,用于根据所述第一文字的识别准确率和所述第二文字的识别准确率,对所述第一文字和所述第二文字进行合成处理,得到识别的文字。
在一些实施例中,图12是根据一示例性实施例示出的一种表述内容识别装置的框图,在图8~图12所示一种表述内容识别装置的基础上,参见图12,所述内容确定模块803包括:
准确率获取单元1201,用于分别获取所述语音数据的识别结果和所述图像数据的识别结果的识别准确率;
内容确定单元1202,用于将识别准确率较高的识别结果确定为识别出的表述内容。
在一些实施例中,图13是根据一示例性实施例示出的一种表述内容识别装置的框图,在图8~图12所示一种表述内容识别装置的基础上,参见图13,所述内容确定模块803包括:
区域定位单元1301,用于定位基准识别结果中的文字缺失区域;
区域填充单元1302,用于将辅助识别结果中与文字缺失区域对应区域的文字填充至所述文字缺失区域;
内容确定单元1303,用于将填充后的基准识别结果确定为识别出的表述内容;
其中,基准识别结果为所述语音数据的识别结果和所述图像数据的识别结果中的一种,则另一种为辅助识别结果;文字缺失区域包括识别结果中识别准确率低于预设值或者无法识别出的文字对应的区域。
图14是根据一示例性实施例示出的一种电子设备的框图。例如,电子设备1400可以是智能手机,计算机,数字广播终端,平板设备,医疗设备,健身设备,个人数字助理等。
参照图14,电子设备1400可以包括以下一个或多个组件:处理组件1402,存储器1404,电源组件1406,多媒体组件1408,音频组件1404,输入/输出(I/O)的接口1412,传感器组件1414,通信组件1416,以及图像采集组件1418。
处理组件1402通常电子设备1400的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件1402可以包括一个或多个处理器1420来执行指令。此外,处理组件1402可以包括一个或多个模块,便于处理组件1402和其他组件之间的交互。例如,处理组件1402可以包括多媒体模块,以方便多媒体组件1408和处理组件1402之间的交互。在进行交互时,处理器1420可以从存储器1404中读取可执行指令,以实现图1~图7所示表述内容识别方法的步骤。
存储器1404被配置为存储各种类型的数据以支持在电子设备1400的操作。这些数据的示例包括用于在电子设备1400上操作的任何应用指令或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。
存储器1404可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件1406为电子设备1400的各种组件提供电力。电源组件1406可以包括电源管理系统,一个或多个电源,及其他与为电子设备1400生成、管理和分配电力相关联的组件。
多媒体组件1408包括在所述电子设备1400和目标对象之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示屏(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自目标对象的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或操作相关的持续时间和压力。
音频组件1404被配置为输出和/或输入音频信号。例如,音频组件1404包括一个麦克风(MIC),当电子设备1400处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1404或经由通信组件1416发送。在一些实施例中,音频组件1404还包括一个扬声器,用于输出音频信号。
I/O接口1412为处理组件1402和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。
传感器组件1414包括一个或多个传感器,用于为电子设备1400提供各个方面的状态评估。例如,传感器组件1414可以检测到电子设备1400的打开/关闭状态,组件的相对定位,例如所述组件为电子设备1400的显示屏和小键盘,传感器组件1414还可以检测电子设备1400或一个组件的位置改变,目标对象与电子设备1400接触的存在或不存在,电子设备1400方位或加速/减速和电子设备1400的温度变化。本实施例中,传感器组件1414还可以包括背盖中的点阵列,用于感知用户的操作。
通信组件1416被配置为便于电子设备1400和其他设备之间有线或无线方式的通信。电子设备1400可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件1416经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件1416还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
需要说明的是,在电子设备1400还配置有输入组件(图中未示出)时,该通信组件1416可以无线连接输入组件与电子设备1400。
在示例性实施例中,电子设备1400可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1404,上述指令可由电子设备1400的处理器1420执行,以实现图1~图7所示表述内容识别方法的步骤。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (14)

1.一种表述内容识别方法,其特征在于,包括:
在用户表述过程中,对所述用户语音以及表述部位图像进行采集;
对采集的语音数据以及图像数据分别进行识别;
基于所述语音数据的识别结果和所述图像数据的识别结果,确定用户表述的内容。
2.根据权利要求1所述的表述内容识别方法,其特征在于,所述表述部位包括:口部;
对采集的图像数据进行识别,包括:
对采集的图像中口部进行识别定位;
采用第一预设算法对采集图像中的口型变化进行唇语分析,得到识别的文字;或者,将采集图像中的口型与预设口型数据库中的口型数据进行匹配,得到识别的文字。
3.根据权利要求1所述的表述内容识别方法,其特征在于,所述表述部位包括:手部;
对采集的图像数据进行识别,包括:
对采集的图像中手部进行识别定位;
采用第二预设算法对采集图像中的手势变化进行手语分析,得到识别的文字;或者,将采集图像中的手势与预设手势动作数据库中的手势数据进行匹配,得到识别的文字。
4.根据权利要求1所述的表述内容识别方法,其特征在于,所述表述部位包括:口部和手部;
对采集的图像数据进行识别,包括:
对采集的图像中口部和手部分别进行识别定位;
采用第一预设算法对采集图像中的口型变化进行唇语分析,或者,将采集图像中的口型与预设口型数据库中的口型数据进行匹配,得到基于口部图像数据识别的第一文字;
采用第二预设算法对采集图像中的手势变化进行手语分析,或者,将采集图像中的手势与预设手势动作数据库中的手势数据进行匹配,得到基于手部图像数据识别的第二文字;
根据所述第一文字的识别准确率和所述第二文字的识别准确率,对所述第一文字和所述第二文字进行合成处理,得到识别的文字。
5.根据权利要求1-4任一项所述的表述内容识别方法,其特征在于,基于所述语音数据的识别结果和所述图像数据的识别结果,确定用户表述的内容,包括:
分别获取所述语音数据的识别结果和所述图像数据的识别结果的识别准确率;
将识别准确率较高的识别结果确定为识别出的表述内容。
6.根据权利要求1-4任一项所述的表述内容识别方法,其特征在于,基于所述语音数据的识别结果和所述图像数据的识别结果,确定用户表述的内容,包括:
定位基准识别结果中的文字缺失区域;
将辅助识别结果中与文字缺失区域对应区域的文字填充至所述文字缺失区域;
将填充后的基准识别结果确定为识别出的表述内容;
其中,基准识别结果为所述语音数据的识别结果和所述图像数据的识别结果中的一种,则另一种为辅助识别结果;文字缺失区域包括识别结果中识别准确率低于预设值或者无法识别出的文字对应的区域。
7.一种表述内容识别装置,其特征在于,包括:
数据采集模块,用于在用户表述过程中,对所述用户语音以及表述部位图像进行采集;
数据识别模块,用于对采集的语音数据以及图像数据分别进行识别;
内容确定模块,用于基于所述语音数据的识别结果和所述图像数据的识别结果,确定用户表述的内容。
8.根据权利要求7所述的表述内容识别装置,其特征在于,所述表述部位包括:口部;所述数据识别模块包括:
口部定位单元,用于对采集的图像中口部进行识别定位;
口语识别单元,用于采用第一预设算法对采集图像中的口型变化进行唇语分析,得到识别的文字;或者,将采集图像中的口型与预设口型数据库中的口型数据进行匹配,得到识别的文字。
9.根据权利要求7所述的表述内容识别装置,其特征在于,所述表述部位包括:手部;所述数据识别模块包括:
手部定位单元,用于对采集的图像中手部进行识别定位;
手势识别单元,用于采用第二预设算法对采集图像中的手势变化进行手语分析,得到识别的文字;或者,将采集图像中的手势与预设手势动作数据库中的手势数据进行匹配,得到识别的文字。
10.根据权利要求7所述的表述内容识别装置,其特征在于,所述表述部位包括:口部和手部;所述数据识别模块包括:
口部和手部定位单元,用于对采集的图像中口部和手部分别进行识别定位;
口型识别单元,用于采用第一预设算法对采集图像中的口型变化进行唇语分析,或者,将采集图像中的口型与预设口型数据库中的口型数据进行匹配,得到基于口部图像数据识别的第一文字;
手势识别单元,用于采用第二预设算法对采集图像中的手势变化进行手语分析,或者,将采集图像中的手势与预设手势动作数据库中的手势数据进行匹配,得到基于手部图像数据识别的第二文字;
文字合成单元,用于根据所述第一文字的识别准确率和所述第二文字的识别准确率,对所述第一文字和所述第二文字进行合成处理,得到识别的文字。
11.根据权利要求7-10任一项所述的表述内容识别装置,其特征在于,所述内容确定模块包括:
准确率获取单元,用于分别获取所述语音数据的识别结果和所述图像数据的识别结果的识别准确率;
内容确定单元,用于将识别准确率较高的识别结果确定为识别出的表述内容。
12.根据权利要求7-10任一项所述的表述内容识别装置,其特征在于,所述内容确定模块包括:
区域定位单元,用于定位基准识别结果中的文字缺失区域;
区域填充单元,用于将辅助识别结果中与文字缺失区域对应区域的文字填充至所述文字缺失区域;
内容确定单元,用于将填充后的基准识别结果确定为识别出的表述内容;
其中,基准识别结果为所述语音数据的识别结果和所述图像数据的识别结果中的一种,则另一种为辅助识别结果;文字缺失区域包括识别结果中识别准确率低于预设值或者无法识别出的文字对应的区域。
13.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器被配置为执行所述存储器中的可执行指令以实现:
在用户表述过程中,对所述用户语音以及表述部位图像进行采集;
对采集的语音数据以及图像数据分别进行识别;
基于所述语音数据的识别结果和所述图像数据的识别结果,确定用户表述的内容。
14.一种机器可读存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1~6任一项所述的方法的步骤。
CN201811415009.3A 2018-11-26 2018-11-26 表述内容识别方法、装置、电子设备、机器可读存储介质 Active CN109583359B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811415009.3A CN109583359B (zh) 2018-11-26 2018-11-26 表述内容识别方法、装置、电子设备、机器可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811415009.3A CN109583359B (zh) 2018-11-26 2018-11-26 表述内容识别方法、装置、电子设备、机器可读存储介质

Publications (2)

Publication Number Publication Date
CN109583359A true CN109583359A (zh) 2019-04-05
CN109583359B CN109583359B (zh) 2023-10-24

Family

ID=65923996

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811415009.3A Active CN109583359B (zh) 2018-11-26 2018-11-26 表述内容识别方法、装置、电子设备、机器可读存储介质

Country Status (1)

Country Link
CN (1) CN109583359B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112087653A (zh) * 2020-09-18 2020-12-15 北京搜狗科技发展有限公司 一种数据处理方法、装置和电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105100482A (zh) * 2015-07-30 2015-11-25 努比亚技术有限公司 一种实现手语识别的移动终端、系统及其通话实现方法
CN106157956A (zh) * 2015-03-24 2016-11-23 中兴通讯股份有限公司 语音识别的方法及装置
CN106446861A (zh) * 2016-09-28 2017-02-22 辽宁石油化工大学 一种手语识别系统、装置及方法
CN107992812A (zh) * 2017-11-27 2018-05-04 北京搜狗科技发展有限公司 一种唇语识别方法及装置
WO2018113650A1 (zh) * 2016-12-21 2018-06-28 深圳市掌网科技股份有限公司 一种虚拟现实语言交互系统与方法
CN108268835A (zh) * 2017-12-28 2018-07-10 努比亚技术有限公司 手语翻译方法、移动终端及计算机可读存储介质
CN108346427A (zh) * 2018-02-05 2018-07-31 广东小天才科技有限公司 一种语音识别方法、装置、设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157956A (zh) * 2015-03-24 2016-11-23 中兴通讯股份有限公司 语音识别的方法及装置
CN105100482A (zh) * 2015-07-30 2015-11-25 努比亚技术有限公司 一种实现手语识别的移动终端、系统及其通话实现方法
CN106446861A (zh) * 2016-09-28 2017-02-22 辽宁石油化工大学 一种手语识别系统、装置及方法
WO2018113650A1 (zh) * 2016-12-21 2018-06-28 深圳市掌网科技股份有限公司 一种虚拟现实语言交互系统与方法
CN107992812A (zh) * 2017-11-27 2018-05-04 北京搜狗科技发展有限公司 一种唇语识别方法及装置
CN108268835A (zh) * 2017-12-28 2018-07-10 努比亚技术有限公司 手语翻译方法、移动终端及计算机可读存储介质
CN108346427A (zh) * 2018-02-05 2018-07-31 广东小天才科技有限公司 一种语音识别方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
叶凌峡: "语音识别系统中增加图像识别技术的设计", 《电子技术应用》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112087653A (zh) * 2020-09-18 2020-12-15 北京搜狗科技发展有限公司 一种数据处理方法、装置和电子设备

Also Published As

Publication number Publication date
CN109583359B (zh) 2023-10-24

Similar Documents

Publication Publication Date Title
CN103529934B (zh) 用于处理多个输入的方法和装置
US20220310095A1 (en) Speech Detection Method, Prediction Model Training Method, Apparatus, Device, and Medium
CN104753766B (zh) 表情发送方法及装置
CN106651955A (zh) 图片中目标物的定位方法及装置
CN107515925A (zh) 音乐播放方法及装置
CN106650575A (zh) 人脸检测方法及装置
CN105138962A (zh) 图像显示方法及装置
KR20100062207A (ko) 화상통화 중 애니메이션 효과 제공 방법 및 장치
CN110992989B (zh) 语音采集方法、装置及计算机可读存储介质
CN104281432A (zh) 调节音效的方法及装置
CN105282345A (zh) 通话音量的调节方法和装置
CN104461348B (zh) 信息选取方法及装置
WO2020249038A1 (zh) 音频流的处理方法、装置、移动终端及存储介质
CN108038102A (zh) 表情图像的推荐方法、装置、终端及存储介质
CN106792448A (zh) 蓝牙连接方法和装置、系统
CN104408404A (zh) 人脸识别方法及装置
CN106802808A (zh) 悬浮按钮控制方法及装置
CN113033245A (zh) 一种功能调节方法、装置、存储介质及电子设备
EP4170440A1 (en) Home device control method, terminal device, and computer-readable storage medium
CN105528765A (zh) 处理图像的方法及装置
CN107529699A (zh) 电子设备控制方法及装置
CN106331509A (zh) 一种拍照方法及移动终端
CN104484867A (zh) 图片处理方法及装置
CN105094297A (zh) 显示内容的缩放方法及装置
CN104902318B (zh) 播放控制方法及终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant