CN106504751A - 自适应唇语交互方法以及交互装置 - Google Patents
自适应唇语交互方法以及交互装置 Download PDFInfo
- Publication number
- CN106504751A CN106504751A CN201611075470.XA CN201611075470A CN106504751A CN 106504751 A CN106504751 A CN 106504751A CN 201611075470 A CN201611075470 A CN 201611075470A CN 106504751 A CN106504751 A CN 106504751A
- Authority
- CN
- China
- Prior art keywords
- image
- lip
- target body
- depth
- body object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 230000006978 adaptation Effects 0.000 title claims abstract description 34
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 27
- 239000000284 extract Substances 0.000 claims abstract description 31
- 230000004927 fusion Effects 0.000 claims abstract description 25
- 230000001815 facial effect Effects 0.000 claims description 112
- 238000001514 detection method Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000003672 processing method Methods 0.000 claims description 6
- 230000003993 interaction Effects 0.000 description 11
- 241000406668 Loxodonta cyclotis Species 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 239000000654 additive Substances 0.000 description 3
- 230000000996 additive effect Effects 0.000 description 3
- 238000005267 amalgamation Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000000392 somatic effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种自适应唇语交互方法以及交互装置,自适应唇语交互方法包括:获取目标人体对象的深度图像以及目标人体对象的红外图像或彩色图像;分别从深度图像以及红外图像或彩色图像中获取目标人体对象的唇部区域图像;从唇部区域图像提取唇部特征,并将从深度图像以及红外图像或从深度图像以及彩色图像中提取的唇部特征融合处理后进行唇语识别;将唇语识别的结果转化成对应的操作指令,并根据所述操作指令进行交互。上述方式,不容易受到环境如光线强弱的影响,能够有效提高图像识别的命中率,进一步提高唇语识别的命中率,最终可有效改善交互的执行率和操作准确率。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种自适应唇语交互方法以及交互装置。
背景技术
在人工智能领域已经图像处理领域,利用目标的图像信息可以实现很多功能比如用来分析用户的表情或动作信息等等。图像获取和识别一直是较为热门的研究话题,涉及到用户日常生活以及科学研究的多个方面。
例如,可通过对用户面部进行识别如唇语进行识别的技术能提高体感交互、语音识别的准确率,从而进一步地带来更加舒适的交互体验。
但是现有技术中,唇语识别一般是基于彩色相机来获取用户的面部信息,这种方式容易受到环境的影响,如光线太强或太弱都会直接影响到图像获取的精度,导致识率很低,最终导致交互的成功率并不高。
发明内容
本发明主要解决的技术问题是提供一种自适应唇语交互方法以及交互装置,能够有效提高通过唇语识别来进行交互的成功率。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种自适应唇语交互方法,所述自适应唇语交互方法包括:
获取目标人体对象的深度图像以及所述目标人体对象的红外图像或彩色图像;
分别从所述深度图像以及所述红外图像或彩色图像中获取所述目标人体对象的唇部区域图像;
从所述唇部区域图像提取唇部特征,并将从所述深度图像以及所述红外图像或从所述深度图像以及所述彩色图像中提取的所述唇部特征融合处理后进行唇语识别;
将所述唇语识别的结果转化成对应的操作指令,并根据所述操作指令进行交互。
其中,所述获取目标人体对象的深度图像以及所述目标人体对象的红外图像或彩色图像的步骤包括:
检测所述目标人体对象所处环境的光线强度;
根据所述光线强度确定获取所述目标人体对象的深度图像以及红外图像,或所述目标人体对象的深度图像以及彩色图像。
其中,所述根据所述光线强度确定获取所述目标人体对象的深度图像以及红外图像,或所述目标人体对象的深度图像以及彩色图像的步骤具体包括:
判断所述光线强度是否超过预设光线阈值;
如果所述光线强度超过所述预设光线阈值,则获取所述目标人体对象的深度图像以及彩色图像;如果所述光线强度未超过所述预设光线阈值,则获取所述目标人体对象的深度图像以及红外图像。
其中,所述分别从所述深度图像以及所述红外图像或彩色图像中获取所述目标人体对象的唇部区域图像的步骤包括:
对所述深度图像进行分割得到所述深度图像中所述目标人体对象的人脸图像;
根据所述深度图像与所述红外图像或所述彩色图像的位置对应关系,提取所述彩色图像或所述红外图像与所述深度图像中人脸图像对应位置的区域图像,作为所述红外图像或所述彩色图像中所述目标人体对象的人脸图像;
从两种所述人脸图像中分别获取所述目标人体对象的唇部区域图像。
其中,所述对所述深度图像进行分割得到所述深度图像中所述目标人体对象的人脸图像的步骤具体包括:
根据深度特征信息判断所述深度图像信息中是否包括所述目标人体对象的鼻尖;
在所述深度图像信息中包括所述目标人体对象的鼻尖时,检测所述鼻尖两侧是否存在椭圆的人脸轮廓区域;
如果存在所述人脸轮廓区域,获取包括所述鼻尖以及人脸轮廓的区域图像作为所述目标人体对象的人脸图像。
其中,所述分别从所述深度图像以及所述红外图像或彩色图像中获取所述目标人体对象的唇部区域图像步骤包括:
从所述红外图像或所述彩色图像中提取所述红外图像或所述彩色图像中所述目标人体对象的人脸图像;
根据所述红外图像或所述彩色图像与所述目标人体对象的深度图像的位置对应关系,获取所述深度图像中所述目标人体对象的人脸图像;
从两种所述人脸图像中分别获取所述目标人体对象的唇部区域图像。
其中,所述从两种所述人脸图像中分别获取所述目标人体对象的唇部区域图像的步骤包括:
提取所述人脸图像中的所述鼻尖下方的区域作为唇部区域图像。
其中,所述从所述唇部区域图像提取唇部特征,并将从所述深度图像以及所述红外图像或从所述深度图像以及所述彩色图像中提取的所述唇部特征融合处理后进行唇语识别的步骤具体包括:
通过外观轮廓提取方法或轮廓特征提取方法中的至少一种从所述深度图像以及所述红外图像或所述深度图像以及所述彩色图像的唇部区域图像中提取唇部特征;
将分别从所述深度图像的唇部区域图像中提取到唇部特征以及所述红外图像或所述彩色图像的唇部区域图像中提取到唇部特征进行融合处理;
将处理后的唇部特征与设定识别模型数据库中的识别信息进行比对,得到所述唇部特征对应的唇语识别结果。
其中,所述将分别从所述深度图像的唇部区域图像中提取到唇部特征以及所述红外图像或所述彩色图像的唇部区域图像中提取到唇部特征进行融合处理的步骤具体包括:
将所述深度图像的唇部区域图像中提取到的唇部特征以及所述红外图像或所述彩色图像的唇部区域图像中提取到的唇部特征直接组合,或将所述深度图像中提取到的唇部特征以及所述红外图像或彩色图像提取到的唇部特征按照预设权重进行加权处理后进行组合,以进行融合处理;
所述从所述唇部区域图像提取唇部特征,并将从所述深度图像以及所述红外图像或从所述深度图像以及所述彩色图像中提取的所述唇部特征融合处理后进行唇语识别的步骤之后还包括:
通过边缘检测或阈值分割的图像处理方法从所述唇部区域图像中获取所述目标人体对象的双唇图像。
为解决上述技术问题,本发明采用的另一个技术方案是:提供一种自适应唇语的交互装置,
所述交互装置包括:图像获取模块、唇部区域图像确定模块、唇语识别模块以及交互模块,
所述图像获取模块用于获取目标人体对象的深度图像以及所述目标人体对象的红外图像或彩色图像;
所述唇部区域图像确定模块用于分别从所述深度图像以及所述红外图像或彩色图像中获取所述目标人体对象的唇部区域图像;
所述唇语识别模块用于从所述唇部区域图像提取唇部特征,并将从所述深度图像以及所述红外图像或从所述深度图像以及所述彩色图像中提取的所述唇部特征融合处理后进行唇语识别;
所述交互模块用于将所述唇语识别的结果转化成对应的操作指令,并根据所述操作指令进行交互。
本发明的有益效果是:区别于现有技术的情况,本实施方式的自适应唇语交互方法,首先获取目标人体对象的深度图像以及彩色图像或红外图像;分别从所述深度图像以及所述红外图像或彩色图像中获取所述目标人体对象的唇部区域图像;从所述唇部区域图像提取唇部特征,并将从所述深度图像以及所述红外图像或从所述深度图像以及所述彩色图像中提取的所述唇部特征融合处理后进行唇语识别,将所述唇语识别的结果转化成对应的操作指令,并根据所述操作指令进行交互。上述通过获取深度图像以及彩色图像或红外图像的方式,,相对于传统直接通过彩色相机获取图像信息的方式,不容易受到环境如光线强弱的影响,能够有效提高图像识别的命中率,提高唇语识别的命中率,且通过将彩色图像中的唇部特征与红外图像或彩色图像中的唇部特征进行融合的方式进行唇语识别,进一步地提高了唇语识别的命中率,最终可有效改善交互的执行率和操作准确率,有利于唇语识别应用于交互技术中的推广。
附图说明
图1是本发明自适应唇语交互方法一实施方式的流程示意图;
图2是本发明自适应唇语交互方法另一实施方式的流程示意图;
图3是本发明自适应唇语交互方法再一实施方式的流程示意图;
图4是本发明自适应唇语交互装置一实施方式的结构示意图;
图5是本发明自适应唇语交互装置另一实施方式的结构示意图。
具体实施方式
参阅图1,图1是本发明自适应唇语交互方法一实施方式的流程示意图。如图1所示,本实施方式的交互方法包括如下步骤:
101:获取目标人体对象的深度图像以及所述目标人体对象的红外图像或彩色图像。
唇语识别主要是通过对目标人体对象的嘴唇的特征信息进行提取,通过该特征信息以对目标人体对象要表达的指令或语音进行识别的过程。
通过唇语识别来实现交互由于其具有操作简单方便,因此得到了广泛应用。
由于目标人体对象的深度图像包含更加准确且丰富的目标人体对象的图像信息,且受光线影响较小,因此,本实施方式中首先获取目标人体对象的深度图像以及目标人体对象的红外图像或彩色图像。
其中,该深度图像信息包括深度相片以及视频中的至少一种。
在具体的实施方式中,根据当前环境的实际光线强度选择采集目标人体对象的深度图像以及红外图像,或者目标人体对象的深度图像以及彩色图像。
具体地,首先对当前环境的光线进行采集,确定当前光线的光线强度,并将该采集到的光线强度与预设的光线阈值进行比较,判断当前的光线强度是否超过该光线预设阈值。
如果该当前的光线强度超过了该预设光线阈值,即当前环境光线相对较亮,此时采集该目标人体对象的深度图像以及彩色图像。如果当前的光线强度未超过该预设光线阈值,即当前环境光线相对较弱,由于红外光线的图像受环境光线强度的影响较小,此时采集该目标人体对象的深度图像以及红外图像。
具体地,该深度图像可通过深度相机来获取,在其他实施方式中,也可以通过其他方法来获取,例如可通过通过双目视觉的方法或基于结构光的方法来获取该深度图像信息,还可以通过基于TOF的方法来获取该深度图像信息等,在此不做限定,只要能够获取或通过计算得到该目标人体图像的深度图像信息的方法都属于本实施方式包含的范围。
具体地,基于双目视觉的方法是以模仿目标人体对象的双眼为原理,按照预先设定的位置放置两台相机,通过该两台相机同步采集该目标人体对象的第一图像以及该目标人体对象的第二图像。再通过预定算法,对该第一图像和第二图像进行处理,根据处理结果计算得到该目标人体对象的深度图像信息。其中,该第一目标图像和第二目标图像为彩色图像。因此,也可以直接采集到该目标人体对象的彩色图像。通过本实施方式的获取到的深度图像以及彩色图像的精度高,但是计算量相对较大。
如果通过该方法获取目标人体对象的深度图像和红外图像时,可以通过添加红外光源以及红外相机的方式来获取该目标人体对象的红外图像。
基于结构光获取深度图像信息的方法是首先确定待获取的目标人体对象所处的目标区域,对目标区域投射结构光图案,其中,该结构光图案为随机排列的散斑图案,再通过红外相机获取该目标区域内的目标对象的结构光红外图像。
在得到目标对象的结构光红外图像后,再从该红外结构光红外图像中采集该目标对象的散斑红外图像,将该目标对象的散斑红外图像与参考散斑图像按照预定算法进行图像数据计算,获取目标对象上散斑红外图像的各个散斑点相对于参考散斑点相对于参考散斑图像的移动距离。最后根据该移动距离、参考散斑图像与红外相机的距离以及用于采集图像的红外相机以及红外摄像机之间的相对间隔值,利用三角法得到散斑红外图像的各个散斑点的深度值,并根据该深度值得到所述目标对象的深度图像。
在本实施方式中,由于结构光红外图像中本身包括目标人体对象的红外图像,只需将该结构光红外图像进行滤波处理,就可以得到该目标人体对象的纯净的红外图像,在此不做限定。彩色图像则需要通过添加彩色相机来获取。
基于TOF的方法是通过向目标人体对象所处的目标区域投射红外光,再通过红外相机采集该红外光反射的光线,根据该红外光线飞行的时间即红外光传输的时间来计算目标人体对象对应的深度,即得到目标人体对象的深度图像信息。
在本实施方式中,不仅可以得到上述深度图像信息,由于投射和采集的都是红外光,因此,也可以直接获取到该目标人体对象的红外图像。而彩色图像则需要通过配置彩色相机来获取,在此不做限定。
102:分别从所述深度图像以及所述红外图像或彩色图像中获取所述目标人体对象的唇部区域图像。
由于本实施方式中,获取到的图像包括目标人体对象的深度图像以及红外图像,或者目标人体对象的深度图像以及彩色图像,因此,要分别获取目标人体对象的深度图像中的唇部区域图像以及彩色图像中的唇部区域图像或者红外图像中的唇部区域图像。
在其中的具体的一个实施方式中,先获取目标人体对象的深度图像中的唇部区域图像,再根据该深度图像中唇部区域图像获取彩色图像或红外图像中唇部区域图像。
具体地,如图2所示,图2是本发明自适应唇语交互方法另一实施方式的流程示意图。其中图2是图1的自适应唇语交互方法的细化流程图,在步骤201之后,还包括如下步骤:
202:对所述深度图像信息进行分割得到所述目标人体对象的人脸图像。
为了缩小从图像信息中获取唇部区域图像的有效范围,提高获取精度,本实施方式在获取到目标人体对象的深度图像信息后,先对该图像信息进行分割,得到该目标人体对象的人脸图像。
在一个具体的实施方式中,由于在人的人脸图像中,一般情况下,人的鼻尖深度相对是最小的,因此,本实施方式首先根据深度特征信息判断该深度图像信息中是否包括该目标人体对象的鼻尖,如果在该深度图像信息信息中检测到目标人体对象的鼻尖,进一步检测鼻尖两侧是否存在椭圆的人脸轮廓区域。如果存在该人脸轮廓区域,则获取包括该鼻尖以及人脸轮廓的区域图像作为该目标人体对象的人脸图像。
203:根据所述深度图像与所述红外图像或所述彩色图像的位置对应关系,提取所述彩色图像或所述红外图像与所述深度图像中人脸图像对应位置的区域图像,作为所述红外图像或所述彩色图像中所述目标人体对象的人脸图像。
虽然采集到的深度图像与红外图像或彩色图像为目标人体对象不同类型的图像,但是不同类型的图像中的目标人体对象相同的部位存在位置对应关系,因此,在获取到深度图像中人脸图像后,可直接根据深度图像与红外图像或彩色图像的位置对应关系,提取彩色图像或红外图像与深度图像中人脸图像对应位置的区域图像,并将该区域图像作为红外图像或彩色图像中目标人体对象的人脸图像。
204:从两种所述人脸图像中分别获取所述目标人体对象的唇部区域图像。
具体地,在获取到该目标人体图像的人脸图像后,进一步地从该人脸图像中来提取该人脸图像中鼻尖下方的区域图像,并将该区域图像作为该唇部区域图像。其中,该人脸图像包括深度图像中的人脸图像,还包括红外图像中的人脸图像或彩色图像中的人脸图像。
嘴唇区域一般是指双唇以及双唇中间的区域,在上述实施方式中,有时候人在讲话时,周边的部分可能也会有较大幅度的动作,因此,在上述实施方式中,嘴唇区域包括嘴唇周围的部位,如下巴以及嘴唇两边的脸部。但是在其他实施方式中,考虑到人在说话时可能出现头部倾斜或扭动的情形,从图像信息中不能得到完整的嘴唇的图像。但是由于嘴唇一般具有对称性,在特殊情况下,也可以通过获取半个嘴唇图像或包括半个嘴唇周边范围内人脸的图像作为嘴唇区域。
如果是将双唇以及双唇中间的区域作为唇部区域图像,在获取到包括嘴唇周围的部位的唇部区域图像后,进一步通过边缘检测或阈值分割的图像处理方法从所述唇部区域图像中获取所述目标人体对象的双唇图像。
在另一个具体的一个实施方式中,先获取目标人体对象的红外图像或彩色图像中的唇部区域图像,再根据红外图像或彩色图像中的唇部区域图像获取深度图像中的唇部区域图像。具体地,如图3所示,图3是本发明自适应唇语交互方法再一实施方式的流程示意图。其中图3是图1自适应唇语交互方法的细化流程图,在步骤301之后,还包括如下步骤:
302:从所述红外图像或所述彩色图像中提取所述红外图像或所述彩色图像中所述目标人体对象的人脸图像。
在本实施方式中,可通过基于2D图像的人脸检测方法,如Viola-Jones人脸检测算法,直接从获取到的红外图像或彩色图像中检测目标人体对象的人脸图像。在其他实施方式中,也可以通过其他方法来获取该红外图像或彩色图像中检测目标人体对象的人脸图像,在此不做限定。
303:根据所述红外图像或所述彩色图像与所述目标人体对象的深度图像的位置对应关系,获取所述深度图像中所述目标人体对象的人脸图像。
虽然采集到的深度图像与红外图像或彩色图像为目标人体对象不同类型的图像,但是不同类型的图像中的目标人体对象相同的部位存在位置对应关系,因此,在获取到红外图像或彩色图像中人脸图像后,可直接根据深度图像与红外图像或彩色图像的位置对应关系,提取深度图像中人脸图像对应位置的区域图像,并将该区域图像作为深度图像中目标人体对象的人脸图像。
304:从两种所述人脸图像中分别获取所述目标人体对象的唇部区域图像。
具体地,在获取到该目标人体图像的人脸图像后,进一步地从该人脸图像中来提取该人脸图像中鼻尖下方的区域图像,并将该区域图像作为该唇部区域图像。其中,该人脸图像包括深度图像中的人脸图像,还包括红外图像中的人脸图像或彩色图像中的人脸图像。
嘴唇区域一般是指双唇以及双唇中间的区域,在上述实施方式中,有时候人在讲话时,周边的部分可能也会有较大幅度的动作,因此,在上述实施方式中,嘴唇区域包括嘴唇周围的部位,如下巴以及嘴唇两边的脸部。但是在其他实施方式中,考虑到人在说话时可能出现头部倾斜或扭动的情形,从图像信息中不能得到完整的嘴唇的图像。但是由于嘴唇一般具有对称性,在特殊情况下,也可以通过获取半个嘴唇图像或包括半个嘴唇周边范围内人脸的图像作为嘴唇区域。
如果是将双唇以及双唇中间的区域作为唇部区域图像,在获取到包括嘴唇周围的部位的唇部区域图像后,进一步通过边缘检测或阈值分割的图像处理方法从所述唇部区域图像中获取所述目标人体对象的双唇图像。
步骤205~206以及步骤305~306与步骤103~104相同,具体请参阅下方的实施方式以及相关文字描述。
103:从所述唇部区域图像提取唇部特征,并将从所述深度图像以及所述红外图像或从所述深度图像以及所述彩色图像中提取的所述唇部特征融合处理后进行唇语识别。
在获取到唇部区域图像后,进一步地从该唇部区域图像中提取唇部特征。具体地,可通过外观轮廓提取方法或轮廓特征提取方法中的至少一种对该深度图像以及彩色图像或红外图像的唇部区域图像进行唇部特征提取。
例如通过主动形状模型法ASM、主动外观模型法AAM、主成分分析法PCA、离散余弦变换法DCT等方法对唇部区域图像进行唇部特征提取,在此不做限定。
再将分别从所述深度图像的唇部区域图像中提取到唇部特征以及所述红外图像或所述彩色图像的唇部区域图像中提取到唇部特征进行融合处理。
这里指的融合处理可以是将深度、红外以及彩色图像中提取出的特征直接组合,也可以是将不同图像中相同的特征进行权重设定后组合,也可以有其他融合方式,最终是将融合后的特征用于下一步的唇语识别中。
进一步地,将融合处理后的唇部特征与设定识别模型数据库中的识别信息进行比对,得到该特征提取结果对应的唇语识别结果。该设定识别模型包括隐马尔可夫模型、高斯混合模型等模型中的至少一种。
104:将所述唇语识别的结果转化成对应的操作指令,并根据所述操作指令进行交互。
在对唇部特征进行提取,得到唇部特征对应的识别结果后,进一步地根据实际需求对识别结果进行处理。如将该识别结果转换成用户交互的操作指令,如识别结果进行语言识别或将该操作指令转换为控制远程设备的操作指令,控制体感游戏的操作指令,或控制智能设备如手机的操作指令等,在此不做限定。
在得到该操作指令后,进一步地通过该操作指令对对应的设备进行交互控制,比如根据唇语识别技术控制手机,如通过特定的唇语识别实现手机的翻页或拨打接听电话等,在此不做限定。
在其他实施方式中,还可以直接将通过识别结果判断出该当前唇语的内容,对语音进行识别或通过语音来实现交互等。
区别于现有技术,本实施方式的自适应唇语交互方法首先获取目标人体对象的深度图像以及彩色图像或红外图像;分别从所述深度图像以及所述红外图像或彩色图像中获取所述目标人体对象的唇部区域图像;从所述唇部区域图像提取唇部特征,并将从所述深度图像以及所述红外图像或从所述深度图像以及所述彩色图像中提取的所述唇部特征融合处理后进行唇语识别,将所述唇语识别的结果转化成对应的操作指令,并根据所述操作指令进行交互。上述通过获取深度图像以及彩色图像或红外图像的方式,,相对于传统直接通过彩色相机获取图像信息的方式,不容易受到环境如光线强弱的影响,能够有效提高图像识别的命中率,提高唇语识别的命中率,且通过将彩色图像中的唇部特征与红外图像或彩色图像中的唇部特征进行融合的方式进行唇语识别,进一步地提高了唇语识别的命中率,最终可有效改善交互的执行率和操作准确率,有利于唇语识别应用于交互技术中的推广。
另外,本实施方式根据深度特征信息判断所述图像信息中是否包括所述目标人体对象的鼻尖,在图像信息中包括所述目标人体对象的鼻尖时,检测所述鼻尖两侧是否存在椭圆的人脸轮廓区域,并在存在所述人脸轮廓区域,获取包括所述鼻尖以及人脸轮廓的区域图像作为所述目标人体对象的人脸图像,提取所述人脸图像中的所述鼻尖下方的区域图像作为唇部区域图像。上述实施方式不仅能够缩小从图像信息中获取唇部区域图像的有效范围,提高获取精度,而且,采用鼻尖深度信息特征的特殊性,能够更加精确的获取到唇部区域图像,进一步提高唇语识别的命中率。
另外,本实施方式中,根据检测所述目标人体对象所处环境的光线强度来确定获取所述目标人体对象的深度图像以及红外图像,或所述目标人体对象的深度图像以及彩色图像的方式,能够使获取到的图像类型更加具有针对性,也更加合理,进一步提高了图像识别的命中率以及唇语识别的命中率。
参阅图4,图4是本发明自适应唇语交互装置一实施方式的结构示意图。本实施方式的交互装置包括图像获取模块401、唇部区域图像确定模块402、唇语识别模块403以及交互模块404,
图像获取模块401用于获取目标人体对象的深度图像以及所述目标人体对象的红外图像或彩色图像。
唇语识别主要是通过对目标人体对象的嘴唇的特征信息进行提取,通过该特征信息以对目标人体对象要表达的指令或语音进行识别的过程。
通过唇语识别来实现交互由于其具有操作简单方便,因此得到了广泛应用。
由于目标人体对象的深度图像包含更加准确且丰富的目标人体对象的图像信息,且受光线影响较小,因此,本实施方式中的图像获取模块401首先获取目标人体对象的深度图像以及目标人体对象的红外图像或彩色图像。
其中,该深度图像信息包括深度相片以及视频中的至少一种。
在具体的实施方式中,图像获取模块401根据当前环境的实际光线强度选择采集目标人体对象的深度图像以及红外图像,或者目标人体对象的深度图像以及彩色图像。
具体地,图像获取模块401首先对当前环境的光线进行采集,确定当前光线的光线强度,并将该采集到的光线强度与预设的光线阈值进行比较,判断当前的光线强度是否超过该光线预设阈值。
如果该当前的光线强度超过了该预设光线阈值,即当前环境光线相对较亮,此时采集该目标人体对象的深度图像以及彩色图像。如果当前的光线强度未超过该预设光线阈值,即当前环境光线相对较弱,由于红外光线的图像受环境光线强度的影响较小,此时采集该目标人体对象的深度图像以及红外图像。
其中,图像获取模块401可通过深度相机来获取该深度图像信息,在其他实施方式中,深度图像信息获取模块401也可以通过其他方法来获取,例如可通过通过双目视觉的方法或基于结构光的方法来获取该深度图像信息,还可以通过基于TOF的方法来获取该深度图像信息等,在此不做限定,只要能够获取或通过计算得到该目标人体图像的深度图像信息的方法都属于本实施方式包含的范围。
具体地,基于双目视觉的方法是以模仿目标人体对象的双眼为原理,按照预先设定的位置放置两台相机,深度图像信息获取模块401通过该两台相机同步采集该目标人体对象的第一图像以及该目标人体对象的第二图像。再通过预定算法,对该第一图像和第二图像进行处理,根据处理结果计算得到该目标人体对象的深度图像信息。其中,该第一目标图像和第二目标图像为彩色图像。因此,也可以直接采集到该目标人体对象的彩色图像。通过本实施方式的获取到的深度图像以及彩色图像的精度高,但是计算量相对较大。
如果通过该方法获取目标人体对象的深度图像和红外图像时,图像获取模块401可以通过添加红外光源以及红外相机的方式来获取该目标人体对象的红外图像。
基于结构光获取深度图像信息的方法是首先确定待获取的目标人体对象所处的目标区域,对目标区域投射结构光图案,其中,该结构光图案为随机排列的散斑图案,图像获取模块401通过红外相机获取该目标区域内的目标对象的结构光红外图像。
图像获取模块401在得到目标对象的结构光红外图像后,再从该红外结构光红外图像中采集该目标对象的散斑红外图像,将该目标对象的散斑红外图像与参考散斑图像按照预定算法进行图像数据计算,获取目标对象上散斑红外图像的各个散斑点相对于参考散斑点相对于参考散斑图像的移动距离。最后根据该移动距离、参考散斑图像与红外相机的距离以及用于采集图像的红外相机以及红外摄像机之间的相对间隔值,利用三角法得到散斑红外图像的各个散斑点的深度值,并根据该深度值得到所述目标对象的深度图像。
在本实施方式中,由于结构光红外图像中本身包括目标人体对象的红外图像,只需将该结构光红外图像进行滤波处理,就可以得到该目标人体对象的纯净的红外图像,在此不做限定。彩色图像则需要通过添加彩色相机来获取。
基于TOF的方法是通过向目标人体对象所处的目标区域投射红外光,图像获取模块401再通过红外相机采集该红外光反射的光线,根据该红外光线飞行的时间即红外光传输的时间来计算目标人体对象对应的深度,即得到目标人体对象的深度图像信息。
在本实施方式中,不仅可以得到上述深度图像信息,由于投射和采集的都是红外光,因此,也可以直接获取到该目标人体对象的红外图像。而彩色图像则需要通过配置彩色相机来获取,在此不做限定。
唇部区域图像确定模块402用于分别从所述深度图像以及所述红外图像或彩色图像中获取所述目标人体对象的唇部区域图像。
由于本实施方式中,图像获取模块401获取到的图像包括目标人体对象的深度图像以及红外图像,或者目标人体对象的深度图像以及彩色图像,因此,唇部区域图像确定模块402要分别获取目标人体对象的深度图像中的唇部区域图像以及彩色图像中的唇部区域图像或者红外图像中的唇部区域图像。
在其中的具体的一个实施方式中,唇部区域图像确定模块402先获取目标人体对象的深度图像中的唇部区域图像,再根据该深度图像中唇部区域图像获取彩色图像或红外图像中唇部区域图像。
具体地,如图5所示,唇部区域图像确定模块502包括人脸图像获取模块5021以及唇部区域图像获取模块5022。
人脸图像获取模块5021用于对所述深度图像信息进行分割得到所述目标人体对象的人脸图像。
为了缩小从图像信息中获取唇部区域图像的有效范围,提高获取精度,本实施方式人脸图像获取模块5021在图像信息获取模块501获取到目标人体对象的深度图像信息后,先对该图像信息进行分割,得到该目标人体对象的人脸图像。
在一个具体的实施方式中,由于在人的人脸图像中,一般情况下,人的鼻尖深度相对是最小的,因此,本实施方式人脸图像获取模块5021首先根据深度特征信息判断该深度图像信息中是否包括该目标人体对象的鼻尖,如果在该深度图像信息信息中检测到目标人体对象的鼻尖,进一步检测鼻尖两侧是否存在椭圆的人脸轮廓区域。如果存在该人脸轮廓区域,则获取包括该鼻尖以及人脸轮廓的区域图像作为该目标人体对象的人脸图像。
人脸图像获取模块5021还用于根据所述深度图像与所述红外图像或所述彩色图像的位置对应关系,提取所述彩色图像或所述红外图像与所述深度图像中人脸图像对应位置的区域图像,作为所述红外图像或所述彩色图像中所述目标人体对象的人脸图像。
虽然采集到的深度图像与红外图像或彩色图像为目标人体对象不同类型的图像,但是不同类型的图像中的目标人体对象相同的部位存在位置对应关系,因此,在获取到深度图像中人脸图像后,可直接根据深度图像与红外图像或彩色图像的位置对应关系,提取彩色图像或红外图像与深度图像中人脸图像对应位置的区域图像,并将该区域图像作为红外图像或彩色图像中目标人体对象的人脸图像。
唇部区域图像获取模块5022用于从两种所述人脸图像中分别获取所述目标人体对象的唇部区域图像。
具体地,唇部区域图像获取模块5022在人脸图像获取模块5021获取到该目标人体图像的人脸图像后,进一步地从该人脸图像中来提取该人脸图像中鼻尖下方的区域图像,并将该区域图像作为该唇部区域图像。其中,该人脸图像包括深度图像中的人脸图像,还包括红外图像中的人脸图像或彩色图像中的人脸图像。
嘴唇区域一般是指双唇以及双唇中间的区域,在上述实施方式中,有时候人在讲话时,周边的部分可能也会有较大幅度的动作,因此,在上述实施方式中,嘴唇区域包括嘴唇周围的部位,如下巴以及嘴唇两边的脸部。但是在其他实施方式中,考虑到人在说话时可能出现头部倾斜或扭动的情形,从图像信息中不能得到完整的嘴唇的图像。但是由于嘴唇一般具有对称性,在特殊情况下,也可以通过获取半个嘴唇图像或包括半个嘴唇周边范围内人脸的图像作为嘴唇区域。
如果是将双唇以及双唇中间的区域作为唇部区域图像,在获取到包括嘴唇周围的部位的唇部区域图像后,通过边缘检测或阈值分割的图像处理方法从所述唇部区域图像中获取所述目标人体对象的双唇图像。
在另一个具体的一个实施方式中,唇部区域图像确定模块402先获取目标人体对象的红外图像或彩色图像中的唇部区域图像,再根据红外图像或彩色图像中的唇部区域图像获取深度图像中的唇部区域图像。
进一步地参阅图5,本实施方式的人脸图像获取模块5021用于从所述红外图像或所述彩色图像中提取所述红外图像或所述彩色图像中所述目标人体对象的人脸图像。
在本实施方式中,人脸图像获取模块5021可通过基于2D图像的人脸检测方法,如Viola-Jones人脸检测算法,直接从获取到的红外图像或彩色图像中检测目标人体对象的人脸图像。在其他实施方式中,也可以通过其他方法来获取该红外图像或彩色图像中检测目标人体对象的人脸图像,在此不做限定。
人脸图像获取模块5021还用于根据红外图像或所述彩色图像与所述目标人体对象的深度图像的位置对应关系,获取所述深度图像中所述目标人体对象的人脸图像。
虽然采集到的深度图像与红外图像或彩色图像为目标人体对象不同类型的图像,但是不同类型的图像中的目标人体对象相同的部位存在位置对应关系,因此,在获取到红外图像或彩色图像中人脸图像后,可直接根据深度图像与红外图像或彩色图像的位置对应关系,提取深度图像中人脸图像对应位置的区域图像,并将该区域图像作为深度图像中目标人体对象的人脸图像。
唇部区域图像获取模块5022用于从两种所述人脸图像中分别获取所述目标人体对象的唇部区域图像。
具体地,唇部区域图像获取模块5022在人脸图像获取模块5021获取到该目标人体图像的人脸图像后,进一步地从该人脸图像中来提取该人脸图像中鼻尖下方的区域图像,并将该区域图像作为该唇部区域图像。其中,该人脸图像包括深度图像中的人脸图像,还包括红外图像中的人脸图像或彩色图像中的人脸图像。
嘴唇区域一般是指双唇以及双唇中间的区域,在上述实施方式中,有时候人在讲话时,周边的部分可能也会有较大幅度的动作,因此,在上述实施方式中,嘴唇区域包括嘴唇周围的部位,如下巴以及嘴唇两边的脸部。但是在其他实施方式中,考虑到人在说话时可能出现头部倾斜或扭动的情形,从图像信息中不能得到完整的嘴唇的图像。但是由于嘴唇一般具有对称性,在特殊情况下,也可以通过获取半个嘴唇图像或包括半个嘴唇周边范围内人脸的图像作为嘴唇区域。
如果是将双唇以及双唇中间的区域作为唇部区域图像,在获取到包括嘴唇周围的部位的唇部区域图像后,通过边缘检测或阈值分割的图像处理方法从所述唇部区域图像中获取所述目标人体对象的双唇图像。
唇语识别模块403用于从所述唇部区域图像提取唇部特征,并将从所述深度图像以及所述红外图像或从所述深度图像以及所述彩色图像中提取的所述唇部特征融合处理后进行唇语识别。
进一步地如图4所示,唇语识别模块403在获取到唇部区域图像后,进一步地从该唇部区域图像中提取唇部特征。具体地,可通过外观轮廓提取方法或轮廓特征提取方法中的至少一种对该深度图像以及彩色图像或红外图像的唇部区域图像进行唇部特征提取,得到特征提取结果。
例如通过主动形状模型法ASM、主动外观模型法AAM、主成分分析法PCA、离散余弦变换法DCT等等方法对唇部区域图像进行唇部特征提取,在此不做限定。
再将分别从所述深度图像的唇部区域图像中提取到唇部特征以及所述红外图像或所述彩色图像的唇部区域图像中提取到唇部特征进行融合处理。
这里指的融合处理可以是将深度、红外以及彩色图像中提取出的特征直接组合,也可以是将不同图像中相同的特征进行权重设定后组合,也可以有其他融合方式,最终是将融合后的特征用于下一步的唇语识别中。
进一步地,唇语识别模块403将融合处理后的唇部特征与设定识别模型数据库中的识别信息进行比对,得到该特征提取结果对应的唇语识别结果。该设定识别模型包括隐马尔可夫模型、高斯混合模型等模型中的至少一种。
交互模块404用于将所述唇语识别的结果转化成对应的操作指令,并根据所述操作指令进行交互。
交互模块404在唇语识别模块403对唇部特征进行提取,得到唇部特征对应的识别结果后,进一步地根据实际需求对识别结果进行处理。如将该识别结果转换成用户交互的操作指令,如识别结果进行语言识别或将该操作指令转换为控制远程设备的操作指令,控制体感游戏的操作指令,或控制智能设备如手机的操作指令等,在此不做限定。
交互模块404在得到该操作指令后,进一步地通过该操作指令对对应的设备进行交互控制,比如根据唇语识别技术控制手机,如通过特定的唇语识别实现手机的翻页或拨打接听电话等,在此不做限定。
在其他实施方式中,还可以直接将通过识别结果判断出该当前唇语的内容,对语音进行识别或通过语音来实现交互等。
区别于现有技术,本实施方式的自适应唇语交互装置的图像获取模块首先获取目标人体对象的深度图像以及彩色图像或红外图像;唇部区域图像确定模块分别从所述深度图像以及所述红外图像或彩色图像中获取所述目标人体对象的唇部区域图像;唇语识别模块从所述唇部区域图像提取唇部特征,并将从所述深度图像以及所述红外图像或从所述深度图像以及所述彩色图像中提取的所述唇部特征融合处理后进行唇语识别,交互模块将所述唇语识别的结果转化成对应的操作指令,并根据所述操作指令进行交互。上述通过获取深度图像以及彩色图像或红外图像的方式,,相对于传统直接通过彩色相机获取图像信息的方式,不容易受到环境如光线强弱的影响,能够有效提高图像识别的命中率,提高唇语识别的命中率,且通过将彩色图像中的唇部特征与红外图像或彩色图像中的唇部特征进行融合的方式进行唇语识别,进一步地提高了唇语识别的命中率,最终可有效改善交互的执行率和操作准确率,有利于唇语识别应用于交互技术中的推广。
另外,本实施方式唇部区域图像确定模块通过人脸图像获取模块根据深度特征信息判断所述图像信息中是否包括所述目标人体对象的鼻尖,在图像信息中包括所述目标人体对象的鼻尖时,检测所述鼻尖两侧是否存在椭圆的人脸轮廓区域,并在存在所述人脸轮廓区域,获取包括所述鼻尖以及人脸轮廓的区域图像作为所述目标人体对象的人脸图像,通过唇部区域图像获取模块提取所述人脸图像中的所述鼻尖下方的区域图像作为唇部区域图像。上述实施方式不仅能够缩小从图像信息中获取唇部区域图像的有效范围,提高获取精度,而且,采用鼻尖深度信息特征的特殊性,能够更加精确的获取到唇部区域图像,进一步提高唇语识别的命中率。
另外,本实施方式中,图像获取模块根据检测所述目标人体对象所处环境的光线强度来确定获取所述目标人体对象的深度图像以及红外图像,或所述目标人体对象的深度图像以及彩色图像的方式,能够使获取到的图像类型更加具有针对性,也更加合理,进一步提高了图像识别的命中率以及唇语识别的命中率。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种自适应唇语交互方法,其特征在于,所述自适应唇语交互方法包括:
获取目标人体对象的深度图像以及所述目标人体对象的红外图像或彩色图像;
分别从所述深度图像以及所述红外图像或彩色图像中获取所述目标人体对象的唇部区域图像;
从所述唇部区域图像提取唇部特征,并将从所述深度图像以及所述红外图像或从所述深度图像以及所述彩色图像中提取的所述唇部特征融合处理后进行唇语识别;
将所述唇语识别的结果转化成对应的操作指令,并根据所述操作指令进行交互。
2.根据权利要求1所述的自适应唇语交互方法,其特征在于,所述获取目标人体对象的深度图像以及所述目标人体对象的红外图像或彩色图像的步骤包括:
检测所述目标人体对象所处环境的光线强度;
根据所述光线强度确定获取所述目标人体对象的深度图像以及红外图像,或所述目标人体对象的深度图像以及彩色图像。
3.根据权利要求2所述的自适应唇语交互方法,其特征在于,所述根据所述光线强度确定获取所述目标人体对象的深度图像以及红外图像,或所述目标人体对象的深度图像以及彩色图像的步骤具体包括:
判断所述光线强度是否超过预设光线阈值;
如果所述光线强度超过所述预设光线阈值,则获取所述目标人体对象的深度图像以及彩色图像;如果所述光线强度未超过所述预设光线阈值,则获取所述目标人体对象的深度图像以及红外图像。
4.根据权利要求1所述的自适应唇语交互方法,其特征在于,所述分别从所述深度图像以及所述红外图像或彩色图像中获取所述目标人体对象的唇部区域图像的步骤包括:
对所述深度图像进行分割得到所述深度图像中所述目标人体对象的人脸图像;
根据所述深度图像与所述红外图像或所述彩色图像的位置对应关系,提取所述彩色图像或所述红外图像与所述深度图像中人脸图像对应位置的区域图像,作为所述红外图像或所述彩色图像中所述目标人体对象的人脸图像;
从两种所述人脸图像中分别获取所述目标人体对象的唇部区域图像。
5.根据权利要求4所述的自适应唇语交互方法,其特征在于,所述对所述深度图像进行分割得到所述深度图像中所述目标人体对象的人脸图像的步骤具体包括:
根据深度特征信息判断所述深度图像信息中是否包括所述目标人体对象的鼻尖;
在所述深度图像信息中包括所述目标人体对象的鼻尖时,检测所述鼻尖两侧是否存在椭圆的人脸轮廓区域;
如果存在所述人脸轮廓区域,获取包括所述鼻尖以及人脸轮廓的区域图像作为所述目标人体对象的人脸图像。
6.根据权利要求1所述的自适应唇语交互方法,其特征在于,所述分别从所述深度图像以及所述红外图像或彩色图像中获取所述目标人体对象的唇部区域图像步骤包括:
从所述红外图像或所述彩色图像中提取所述红外图像或所述彩色图像中所述目标人体对象的人脸图像;
根据所述红外图像或所述彩色图像与所述目标人体对象的深度图像的位置对应关系,获取所述深度图像中所述目标人体对象的人脸图像;
从两种所述人脸图像中分别获取所述目标人体对象的唇部区域图像。
7.根据权利要求5或6所述的自适应唇语交互方法,其特征在于,所述从两种所述人脸图像中分别获取所述目标人体对象的唇部区域图像的步骤包括:
提取所述人脸图像中的所述鼻尖下方的区域作为唇部区域图像。
8.根据权利要求1所述的自适应唇语交互方法,其特征在于,所述从所述唇部区域图像提取唇部特征,并将从所述深度图像以及所述红外图像或从所述深度图像以及所述彩色图像中提取的所述唇部特征融合处理后进行唇语识别的步骤具体包括:
通过外观轮廓提取方法或轮廓特征提取方法中的至少一种从所述深度图像以及所述红外图像或所述深度图像以及所述彩色图像的唇部区域图像中提取唇部特征;
将分别从所述深度图像的唇部区域图像中提取到唇部特征以及所述红外图像或所述彩色图像的唇部区域图像中提取到唇部特征进行融合处理;
将处理后的唇部特征与设定识别模型数据库中的识别信息进行比对,得到所述唇部特征对应的唇语识别结果。
9.根据权利要求8所述的自适应唇语交互方法,其特征在于,
所述将分别从所述深度图像的唇部区域图像中提取到唇部特征以及所述红外图像或所述彩色图像的唇部区域图像中提取到唇部特征进行融合处理的步骤具体包括:
将所述深度图像的唇部区域图像中提取到的唇部特征以及所述红外图像或所述彩色图像的唇部区域图像中提取到的唇部特征直接组合,或将所述深度图像中提取到的唇部特征以及所述红外图像或彩色图像提取到的唇部特征按照预设权重进行加权处理后进行组合,以进行融合处理;
所述从所述唇部区域图像提取唇部特征,并将从所述深度图像以及所述红外图像或从所述深度图像以及所述彩色图像中提取的所述唇部特征融合处理后进行唇语识别的步骤之后还包括:
通过边缘检测或阈值分割的图像处理方法从所述唇部区域图像中获取所述目标人体对象的双唇图像。
10.一种自适应唇语交互装置,其特征在于,所述交互装置包括:图像获取模块、唇部区域图像确定模块、唇语识别模块以及交互模块,
所述图像获取模块用于获取目标人体对象的深度图像以及所述目标人体对象的红外图像或彩色图像;
所述唇部区域图像确定模块用于分别从所述深度图像以及所述红外图像或彩色图像中获取所述目标人体对象的唇部区域图像;
所述唇语识别模块用于从所述唇部区域图像提取唇部特征,并将从所述深度图像以及所述红外图像或从所述深度图像以及所述彩色图像中提取的所述唇部特征融合处理后进行唇语识别;
所述交互模块用于将所述唇语识别的结果转化成对应的操作指令,并根据所述操作指令进行交互。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610616476 | 2016-08-01 | ||
CN2016106164767 | 2016-08-01 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106504751A true CN106504751A (zh) | 2017-03-15 |
Family
ID=58327936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611075470.XA Pending CN106504751A (zh) | 2016-08-01 | 2016-11-29 | 自适应唇语交互方法以及交互装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106504751A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107481318A (zh) * | 2017-08-09 | 2017-12-15 | 广东欧珀移动通信有限公司 | 用户头像的替换方法、装置和终端设备 |
CN107480613A (zh) * | 2017-07-31 | 2017-12-15 | 广东欧珀移动通信有限公司 | 人脸识别方法、装置、移动终端和计算机可读存储介质 |
CN107483814A (zh) * | 2017-08-09 | 2017-12-15 | 广东欧珀移动通信有限公司 | 拍照模式设置方法、装置及移动设备 |
CN107491744A (zh) * | 2017-07-31 | 2017-12-19 | 广东欧珀移动通信有限公司 | 人体身份识别方法、装置、移动终端和存储介质 |
CN107566612A (zh) * | 2017-08-09 | 2018-01-09 | 广东欧珀移动通信有限公司 | 音乐偏好模式设置方法、装置及移动设备 |
CN108389172A (zh) * | 2018-03-21 | 2018-08-10 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
CN108492364A (zh) * | 2018-03-27 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 用于生成图像生成模型的方法和装置 |
CN108509903A (zh) * | 2018-03-30 | 2018-09-07 | 盎锐(上海)信息科技有限公司 | 基于3d成像技术的唇语翻译装置及唇语翻译方法 |
CN108510454A (zh) * | 2018-03-21 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 用于生成深度图像的方法和装置 |
CN108664842A (zh) * | 2017-03-27 | 2018-10-16 | Tcl集团股份有限公司 | 一种唇动识别模型的构建方法及系统 |
CN109117746A (zh) * | 2018-07-23 | 2019-01-01 | 北京华捷艾米科技有限公司 | 手部检测方法及机器可读存储介质 |
CN109637521A (zh) * | 2018-10-29 | 2019-04-16 | 深圳壹账通智能科技有限公司 | 一种基于深度学习的唇语识别方法及装置 |
WO2020048358A1 (en) * | 2018-09-04 | 2020-03-12 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method, system, and computer-readable medium for recognizing speech using depth information |
CN110942064A (zh) * | 2019-11-25 | 2020-03-31 | 维沃移动通信有限公司 | 图像处理方法、装置和电子设备 |
CN112528766A (zh) * | 2020-11-25 | 2021-03-19 | 维沃移动通信有限公司 | 唇语识别方法、装置及电子设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101101752A (zh) * | 2007-07-19 | 2008-01-09 | 华中科技大学 | 基于视觉特征的单音节语言唇读识别系统 |
CN102841676A (zh) * | 2011-06-23 | 2012-12-26 | 鸿富锦精密工业(深圳)有限公司 | 网页浏览控制系统及方法 |
CN103514429A (zh) * | 2012-06-21 | 2014-01-15 | 夏普株式会社 | 检测对象的特定部位的方法及图像处理设备 |
CN103530892A (zh) * | 2013-10-21 | 2014-01-22 | 清华大学深圳研究生院 | 一种基于Kinect传感器的双手跟踪方法与装置 |
CN104123529A (zh) * | 2013-04-25 | 2014-10-29 | 株式会社理光 | 人手检测方法及系统 |
CN104346804A (zh) * | 2013-08-08 | 2015-02-11 | 联想(北京)有限公司 | 图像处理的方法及电子设备 |
CN104598915A (zh) * | 2014-01-24 | 2015-05-06 | 深圳奥比中光科技有限公司 | 一种手势识别方法与装置 |
CN105354563A (zh) * | 2015-12-14 | 2016-02-24 | 南京理工大学 | 结合深度和彩色图像的遮挡人脸检测预警装置及实现方法 |
CN105574525A (zh) * | 2015-12-18 | 2016-05-11 | 天津中科智能识别产业技术研究院有限公司 | 一种复杂场景多模态生物特征图像获取方法及其装置 |
-
2016
- 2016-11-29 CN CN201611075470.XA patent/CN106504751A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101101752A (zh) * | 2007-07-19 | 2008-01-09 | 华中科技大学 | 基于视觉特征的单音节语言唇读识别系统 |
CN102841676A (zh) * | 2011-06-23 | 2012-12-26 | 鸿富锦精密工业(深圳)有限公司 | 网页浏览控制系统及方法 |
CN103514429A (zh) * | 2012-06-21 | 2014-01-15 | 夏普株式会社 | 检测对象的特定部位的方法及图像处理设备 |
CN104123529A (zh) * | 2013-04-25 | 2014-10-29 | 株式会社理光 | 人手检测方法及系统 |
CN104346804A (zh) * | 2013-08-08 | 2015-02-11 | 联想(北京)有限公司 | 图像处理的方法及电子设备 |
CN103530892A (zh) * | 2013-10-21 | 2014-01-22 | 清华大学深圳研究生院 | 一种基于Kinect传感器的双手跟踪方法与装置 |
CN104598915A (zh) * | 2014-01-24 | 2015-05-06 | 深圳奥比中光科技有限公司 | 一种手势识别方法与装置 |
CN105354563A (zh) * | 2015-12-14 | 2016-02-24 | 南京理工大学 | 结合深度和彩色图像的遮挡人脸检测预警装置及实现方法 |
CN105574525A (zh) * | 2015-12-18 | 2016-05-11 | 天津中科智能识别产业技术研究院有限公司 | 一种复杂场景多模态生物特征图像获取方法及其装置 |
Non-Patent Citations (1)
Title |
---|
赵爱芳等: "复杂环境中多信息融合的手势识别", 《计算机工程与应用》 * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108664842A (zh) * | 2017-03-27 | 2018-10-16 | Tcl集团股份有限公司 | 一种唇动识别模型的构建方法及系统 |
CN108664842B (zh) * | 2017-03-27 | 2020-12-18 | Tcl科技集团股份有限公司 | 一种唇动识别模型的构建方法及系统 |
CN107480613A (zh) * | 2017-07-31 | 2017-12-15 | 广东欧珀移动通信有限公司 | 人脸识别方法、装置、移动终端和计算机可读存储介质 |
CN107491744A (zh) * | 2017-07-31 | 2017-12-19 | 广东欧珀移动通信有限公司 | 人体身份识别方法、装置、移动终端和存储介质 |
CN107491744B (zh) * | 2017-07-31 | 2021-03-02 | Oppo广东移动通信有限公司 | 人体身份识别方法、装置、移动终端和存储介质 |
CN107483814A (zh) * | 2017-08-09 | 2017-12-15 | 广东欧珀移动通信有限公司 | 拍照模式设置方法、装置及移动设备 |
CN107566612A (zh) * | 2017-08-09 | 2018-01-09 | 广东欧珀移动通信有限公司 | 音乐偏好模式设置方法、装置及移动设备 |
CN107481318A (zh) * | 2017-08-09 | 2017-12-15 | 广东欧珀移动通信有限公司 | 用户头像的替换方法、装置和终端设备 |
CN108389172A (zh) * | 2018-03-21 | 2018-08-10 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
CN108510454A (zh) * | 2018-03-21 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 用于生成深度图像的方法和装置 |
CN108492364A (zh) * | 2018-03-27 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 用于生成图像生成模型的方法和装置 |
CN108509903A (zh) * | 2018-03-30 | 2018-09-07 | 盎锐(上海)信息科技有限公司 | 基于3d成像技术的唇语翻译装置及唇语翻译方法 |
CN108509903B (zh) * | 2018-03-30 | 2021-04-02 | 盎锐(上海)信息科技有限公司 | 基于3d成像技术的唇语翻译装置及唇语翻译方法 |
CN109117746A (zh) * | 2018-07-23 | 2019-01-01 | 北京华捷艾米科技有限公司 | 手部检测方法及机器可读存储介质 |
WO2020048358A1 (en) * | 2018-09-04 | 2020-03-12 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method, system, and computer-readable medium for recognizing speech using depth information |
CN112639964A (zh) * | 2018-09-04 | 2021-04-09 | Oppo广东移动通信有限公司 | 利用深度信息识别语音的方法、系统及计算机可读介质 |
US20210183391A1 (en) * | 2018-09-04 | 2021-06-17 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method, system, and computer-readable medium for recognizing speech using depth information |
CN109637521A (zh) * | 2018-10-29 | 2019-04-16 | 深圳壹账通智能科技有限公司 | 一种基于深度学习的唇语识别方法及装置 |
CN110942064A (zh) * | 2019-11-25 | 2020-03-31 | 维沃移动通信有限公司 | 图像处理方法、装置和电子设备 |
CN110942064B (zh) * | 2019-11-25 | 2023-05-09 | 维沃移动通信有限公司 | 图像处理方法、装置和电子设备 |
CN112528766A (zh) * | 2020-11-25 | 2021-03-19 | 维沃移动通信有限公司 | 唇语识别方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106504751A (zh) | 自适应唇语交互方法以及交互装置 | |
CN106774856B (zh) | 基于唇语的交互方法以及交互装置 | |
CN107045385A (zh) | 基于深度图像的唇语交互方法以及唇语交互装置 | |
CN106529502A (zh) | 唇语识别方法以及装置 | |
CN109190522B (zh) | 一种基于红外相机的活体检测方法 | |
CN103927016B (zh) | 一种基于双目视觉的实时三维双手手势识别方法及其系统 | |
CN105100625B (zh) | 一种基于图像美学的人物图像辅助拍摄方法和系统 | |
CN104813258B (zh) | 数据输入装置 | |
CN100354875C (zh) | 基于人脸检测的红眼去除方法 | |
CN106210568A (zh) | 图像处理方法以及装置 | |
CN104123549B (zh) | 一种用于疲劳驾驶实时监测的眼睛定位方法 | |
EP1271394A3 (en) | Method for automatically locating eyes in an image | |
JP2015088099A (ja) | 情報処理装置および情報処理方法 | |
CN110287790A (zh) | 一种面向静态多人场景的学习状态混合分析方法 | |
JP2015088096A (ja) | 情報処理装置および情報処理方法 | |
CN102496002A (zh) | 基于图像的人脸美貌度评价方法 | |
CN111047511A (zh) | 一种图像处理方法及电子设备 | |
CN106600640A (zh) | 一种基于rgb‑d相机的人脸识别辅助眼镜 | |
CN104599297A (zh) | 一种对人脸自动上腮红的图像处理方法 | |
CN102567716A (zh) | 一种人脸合成系统及实现方法 | |
JP2015088098A (ja) | 情報処理装置および情報処理方法 | |
CN109274883A (zh) | 姿态矫正方法、装置、终端及存储介质 | |
CN106412420B (zh) | 一种互动拍照实现方法 | |
CN103440633A (zh) | 一种数字图像自动祛除斑点的方法 | |
CN106909871A (zh) | 手势指令识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170315 |
|
RJ01 | Rejection of invention patent application after publication |