CN104318218A - 图像识别方法和装置 - Google Patents
图像识别方法和装置 Download PDFInfo
- Publication number
- CN104318218A CN104318218A CN201410594523.3A CN201410594523A CN104318218A CN 104318218 A CN104318218 A CN 104318218A CN 201410594523 A CN201410594523 A CN 201410594523A CN 104318218 A CN104318218 A CN 104318218A
- Authority
- CN
- China
- Prior art keywords
- user
- target object
- hand
- finger tip
- image recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000006073 displacement reaction Methods 0.000 claims abstract description 33
- 238000003909 pattern recognition Methods 0.000 claims abstract description 26
- 238000001514 detection method Methods 0.000 claims abstract description 19
- 230000000877 morphologic effect Effects 0.000 claims abstract description 11
- 230000000007 visual effect Effects 0.000 claims description 50
- 238000003709 image segmentation Methods 0.000 abstract 2
- 210000000554 iris Anatomy 0.000 description 20
- 230000008569 process Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 8
- 239000011521 glass Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/142—Image acquisition using hand-held instruments; Constructional details of the instruments
- G06V30/1423—Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明提出一种图像识别方法和装置,该图像识别方法包括:通过肤色检测获取第一视角的用户视线范围内的手部特征区域;在手部特征区域中,通过对伸出手指的手部形态特征进行模式识别;在所述手指尖对目标物体的外缘进行圈划标定的时间区间内,将手指尖的特征点的帧间位移形成的圈划轨迹封闭连接成一个全周长几何形;将全周长几何形在用户的视线方向与目标物体所在的相垂直平面上进行投影,将投影获得的区域作为识别区域进行图像识别。本发明可以实现用户只需伸出手指,用手指尖对着目标物体的外缘进行圈划,即可快速获得对目标物体的标定和图像分割,进而可以作为对目标物体进行图像识别的识别输入,操作简单,用户体验度高,并且适用性较高。
Description
技术领域
本发明涉及互联网技术领域,尤其涉及一种图像识别方法和装置。
背景技术
现有技术中,对于图像识别和机器视觉认知的输入均是采用先拍照再确定目标物体的方式,一般是先拍照将目标物体的前景环境和后景环境的图片保存,然后通过手指在屏幕上圈划将目标物体圈选并分割,进而进行图像识别。上述方式需要人工干预标定已经拍过的照片,例如:对已经拍过的照片进行圈划和涂抹,操作步骤繁琐并且用户体验不流畅,一定程度上是反人类常见的认知事物的过程的流程方式。另外,上述方式只适用于带触摸屏的智能终端,适用性较差。
发明内容
本发明的目的旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种图像识别方法。通过该方法,用户在对目标物体进行图像识别的过程中,只需伸出手指,用手指尖对着目标物体的外缘进行圈划,即可快速获得对目标物体的标定和图像分割,进而可以作为对目标物体进行图像识别的识别输入,操作简单,用户体验度高,并且适用性较高。
本发明的第二个目的在于提出一种图像识别装置。
为了实现上述实施例,本发明第一方面实施例的图像识别方法,包括:通过肤色检测获取第一视角的用户视线范围内的手部特征区域,并对所述手部特征区域进行实时捕捉和追踪;在被检测和捕捉到的手部特征区域中,通过对伸出手指的手部形态特征进行模式识别,获得手指尖的特征和位置信息,并对所述手指尖的特征和位置信息进行实时捕捉和追踪;在所述手指尖对目标物体的外缘进行圈划标定的时间区间内,记录所述手指尖的特征点的帧间位移,将所述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形;将所述全周长几何形在所述用户的视线方向与所述目标物体所在的相垂直平面上进行投影,将投影获得的区域作为所述目标物体的识别区域进行图像识别。
本发明实施例的图像识别方法,通过肤色检测获取第一视角的用户视线范围内的手部特征区域,在被检测和捕捉到的手部特征区域中,通过对伸出手指的手部形态特征进行模式识别,在手指尖对目标物体的外缘进行圈划标定的时间区间内,记录手指尖的特征点的帧间位移,将帧间位移形成的圈划轨迹封闭连接成一个全周长几何形,然后将上述全周长几何形在上述用户的视线方向与目标物体所在的相垂直平面上进行投影,将投影获得的区域作为所述目标物体的识别区域进行图像识别,从而可以实现用户在对目标物体进行图像识别的过程中,只需伸出手指,用手指尖对着目标物体的外缘进行圈划,即可快速获得对目标物体的标定和图像分割,进而可以作为对目标物体进行图像识别的识别输入,操作简单,用户体验度高,并且适用性较高。
为了实现上述实施例,本发明第二方面实施例的图像识别装置包括:获取模块,用于通过肤色检测获取第一视角的用户视线范围内的手部特征区域;跟踪模块,用于对所述获取模块获取的手部特征区域进行实时捕捉和追踪;所述获取模块,还用于在被所述跟踪模块检测和捕捉到的手部特征区域中,通过对伸出手指的手部形态特征进行模式识别,获得手指尖的特征和位置信息;所述跟踪模块,还用于对所述手指尖的特征和位置信息进行实时捕捉和追踪;记录模块,用于在所述手指尖对目标物体的外缘进行圈划标定的时间区间内,记录所述手指尖的特征点的帧间位移,将所述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形;投影模块,用于将所述全周长几何形在所述用户的视线方向与所述目标物体所在的相垂直平面上进行投影,将投影获得的区域作为所述目标物体的识别区域进行图像识别。
本发明实施例的图像识别装置,获取模块通过肤色检测获取第一视角的用户视线范围内的手部特征区域,在被跟踪模块检测和捕捉到的手部特征区域中,获取模块通过对伸出手指的手部形态特征进行模式识别,在手指尖对目标物体的外缘进行圈划标定的时间区间内,记录模块记录手指尖的特征点的帧间位移,将帧间位移形成的圈划轨迹封闭连接成一个全周长几何形,然后投影模块将上述全周长几何形在上述用户的视线方向与目标物体所在的相垂直平面上进行投影,将投影获得的区域作为所述目标物体的识别区域进行图像识别,从而可以实现用户在对目标物体进行图像识别的过程中,只需伸出手指,用手指尖对着目标物体的外缘进行圈划,即可快速获得对目标物体的标定和图像分割,进而可以作为对目标物体进行图像识别的识别输入,操作简单,用户体验度高,并且适用性较高。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明图像识别方法一个实施例的流程图;
图2为本发明图像识别方法另一个实施例的示意图;
图3为本发明图像识别装置一个实施例的结构示意图;
图4为本发明图像识别装置另一个实施例的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
图1为本发明图像识别方法一个实施例的流程图,如图1所示,该图像识别方法可以包括:
步骤101,通过肤色检测获取第一视角的用户视线范围内的手部特征区域,并对上述手部特征区域进行实时捕捉和追踪。
进一步地,通过肤色检测获取第一视角的用户视线范围内的手部特征区域之前,还可以接收用户通过语音、触摸屏或者动态传感器输入的图像识别请求,以触发通过肤色检测获取第一视角的用户视线范围内的手部特征区域的操作。
步骤102,在被检测和捕捉到的手部特征区域中,通过对伸出手指的手部形态特征进行模式识别,获得手指尖的特征和位置信息,并对上述手指尖的特征和位置信息进行实时捕捉和追踪。
步骤103,在上述手指尖对目标物体的外缘进行圈划标定的时间区间内,记录上述手指尖的特征点的帧间位移,将上述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形。
具体地,将上述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形可以为:通过闭合曲线优化算法将上述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形。
步骤104,将上述全周长几何形在上述用户的视线方向与上述目标物体所在的相垂直平面上进行投影,将投影获得的区域作为上述目标物体的识别区域进行图像识别。
上述实施例中,通过肤色检测获取第一视角的用户视线范围内的手部特征区域,在被检测和捕捉到的手部特征区域中,通过对伸出手指的手部形态特征进行模式识别,在手指尖对目标物体的外缘进行圈划标定的时间区间内,记录手指尖的特征点的帧间位移,将帧间位移形成的圈划轨迹封闭连接成一个全周长几何形,然后将上述全周长几何形在上述用户的视线方向与目标物体所在的相垂直平面上进行投影,将投影获得的区域作为所述目标物体的识别区域进行图像识别,从而可以实现用户在对目标物体进行图像识别的过程中,只需伸出手指,用手指尖对着目标物体的外缘进行圈划,即可快速获得对目标物体的标定和图像分割,进而可以作为对目标物体进行图像识别的识别输入,操作简单,用户体验度高,并且适用性较高。
图2为本发明图像识别方法另一个实施例的示意图,如图2所示,本实施例中,带有摄像头的智能设备接收到用户通过语音、或触摸屏或者动态传感器输入的图像识别请求之后,开启上述智能设备上的摄像头,通过肤色检测获取第一视角的用户视线范围内的手部特征区域,并对上述手部特征区域进行实时捕捉和追踪,然后通过语音等交互方式引导用户将手指尖特征点进行识别和捕捉,然后引导用户完成对目标物品进行圈划标定这个手势动作,在上述手指尖对目标物体的外缘进行圈划标定的时间区间内,跟踪手指尖圈划的路径,记录上述手指尖的特征点的帧间位移,将上述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形,将上述全周长几何形在上述用户的视线方向与上述目标物体所在的相垂直平面上进行投影,将投影获得的区域作为上述目标物体的识别区域进行图像识别,从而在自然的圈划标定行为过程中进行图像分割进而识别,识别之后通过上述智能设备的声音音频输出通道或者屏幕图像输出通道将识别结果输出给用户,完成对于目标物体的识别过程。本实施例中的目标物体通常是离开用户有一定距离的远处物体或者是用户不能够触及的物体,又或是大型物体或无法移动的固定物体,当然本发明实施例并不仅限于此,本发明对目标物体的具体形态不作限定。
本发明中,上述带有摄像头的智能设备可以为带有摄像头的智能移动终端,或者带有摄像头的头戴式穿戴设备,例如:谷歌眼镜(Google Glass)、百度智能眼镜(BaiduEye)等,或者带有摄像头的智能手表,或者带有摄像头视觉输入的机器人,本发明对此不作限定。
图3为本发明图像识别装置一个实施例的结构示意图,本实施例中的图像识别装置可以实现本发明图1所示实施例的流程,如图3所示,该图像识别装置可以包括:获取模块31、跟踪模块32、记录模块33和投影模块34;
其中,获取模块31,用于通过肤色检测获取第一视角的用户视线范围内的手部特征区域。
跟踪模块32,用于对获取模块31获取的手部特征区域进行实时捕捉和追踪。
获取模块31,还用于在被跟踪模块32检测和捕捉到的手部特征区域中,通过对伸出手指的手部形态特征进行模式识别,获得手指尖的特征和位置信息。
跟踪模块32,还用于对上述手指尖的特征和位置信息进行实时捕捉和追踪。
记录模块33,用于在上述手指尖对目标物体的外缘进行圈划标定的时间区间内,记录上述手指尖的特征点的帧间位移,将上述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形;其中,记录模块33用于将上述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形可以为:记录模块33,具体用于通过闭合曲线优化算法将上述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形。
投影模块34,用于将上述全周长几何形在上述用户的视线方向与上述目标物体所在的相垂直平面上进行投影,将投影获得的区域作为上述目标物体的识别区域进行图像识别。
本实施例中,上述图像识别装置可以为带有摄像头的智能设备,或者带有摄像头的智能设备的一部分,其中,获取模块31、跟踪模块32和/或记录模块33的部分或全部功能可以通过上述智能设备的摄像头实现。
上述带有摄像头的智能设备可以为带有摄像头的智能移动终端,或者带有摄像头的头戴式穿戴设备,例如:谷歌眼镜(Google Glass)、百度智能眼镜(BaiduEye)等,或者带有摄像头的智能手表,或者带有摄像头视觉输入的机器人,本实施例对此不作限定。
上述图像识别装置中,获取模块31通过肤色检测获取第一视角的用户视线范围内的手部特征区域,在被跟踪模块32检测和捕捉到的手部特征区域中,获取模块31通过对伸出手指的手部形态特征进行模式识别,在手指尖对目标物体的外缘进行圈划标定的时间区间内,记录模块33记录手指尖的特征点的帧间位移,将帧间位移形成的圈划轨迹封闭连接成一个全周长几何形,然后投影模块34将上述全周长几何形在上述用户的视线方向与目标物体所在的相垂直平面上进行投影,将投影获得的区域作为所述目标物体的识别区域进行图像识别,从而可以实现用户在对目标物体进行图像识别的过程中,只需伸出手指,用手指尖对着目标物体的外缘进行圈划,即可快速获得对目标物体的标定和图像分割,进而可以作为对目标物体进行图像识别的识别输入,操作简单,用户体验度高,并且适用性较高。
图4为本发明图像识别装置另一个实施例的结构示意图,与图3所示的装置相比,不同之处在于,图4所示的图像识别装置还可以包括:
接收模块35,用于接收用户通过语音、触摸屏或者动态传感器输入的图像识别请求,以触发通过肤色检测获取第一视角的用户视线范围内的手部特征区域的操作。
也就是说,本实施例中,接收模块35接收到用户通过语音、或触摸屏或者动态传感器输入的图像识别请求之后,开启摄像头,获取模块31通过肤色检测获取第一视角的用户视线范围内的手部特征区域,跟踪模块32对上述手部特征区域进行实时捕捉和追踪,然后通过语音等交互方式引导用户将手指尖特征点进行识别和捕捉,然后引导用户完成对目标物品进行圈划标定这个手势动作,在上述手指尖对目标物体的外缘进行圈划标定的时间区间内,跟踪模块32跟踪手指尖圈划的路径,记录模块33记录上述手指尖的特征点的帧间位移,将上述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形,投影模块34将上述全周长几何形在上述用户的视线方向与上述目标物体所在的相垂直平面上进行投影,将投影获得的区域作为上述目标物体的识别区域进行图像识别,从而在自然的圈划标定行为过程中进行图像分割进而识别,识别之后通过图像识别装置的声音音频输出通道或者屏幕图像输出通道将识别结果输出给用户,完成对于目标物体的识别过程。
上述图像识别装置可以实现用户在对目标物体进行图像识别的过程中,只需伸出手指,用手指尖对着目标物体的外缘进行圈划,即可快速获得对目标物体的标定和图像分割,进而可以作为对目标物体进行图像识别的识别输入,操作简单,用户体验度高,并且适用性较高。
图像识别是人工智能方向最重要的突破,而且具有相当广泛且有价值的使用场景,是今后搜索领域的重中之重,本发明采用全新的人机交互方式,自然的用户界面接口,比现有的先拍照再对目标物体进行圈划涂抹的图像识别方式更自然更便捷。对于智能穿戴设备上的图像识别功能,自然的交互方式显得尤为重要,本发明可以实现用户对眼前的物品“直接隔空圈划标定即可搜索获得结果”,本发明所实现的交互方式和用户体验是一种相当大的区别于其他同类或相似类别产品的重要特性。
本发明提供的方法是各种可以进行第一视角做视觉图像信息捕捉和处理的一切智能产品非常有可能会涉及并采用的方法,本发明提供的方法是从底层算法到表象人机交互方式都有可能会复制并立即采用到产品中的一个特性和技术支持,是作为穿戴式智能视觉产品进行手势识别的一个基本技术支持。
需要说明的是,在本发明的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(Programmable Gate Array;以下简称:PGA),现场可编程门阵列(Field ProgrammableGate Array;以下简称:FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (6)
1.一种图像识别方法,其特征在于,包括:
通过肤色检测获取第一视角的用户视线范围内的手部特征区域,并对所述手部特征区域进行实时捕捉和追踪;
在被检测和捕捉到的手部特征区域中,通过对伸出手指的手部形态特征进行模式识别,获得手指尖的特征和位置信息,并对所述手指尖的特征和位置信息进行实时捕捉和追踪;
在所述手指尖对目标物体的外缘进行圈划标定的时间区间内,记录所述手指尖的特征点的帧间位移,将所述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形;
将所述全周长几何形在所述用户的视线方向与所述目标物体所在的相垂直平面上进行投影,将投影获得的区域作为所述目标物体的识别区域进行图像识别。
2.根据权利要求1所述的方法,其特征在于,所述将所述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形包括:
通过闭合曲线优化算法将所述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形。
3.根据权利要求1所述的方法,其特征在于,所述通过肤色检测获取第一视角的用户视线范围内的手部特征区域之前,还包括:
接收用户通过语音、触摸屏或者动态传感器输入的图像识别请求,以触发通过肤色检测获取第一视角的用户视线范围内的手部特征区域的操作。
4.一种图像识别装置,其特征在于,包括:
获取模块,用于通过肤色检测获取第一视角的用户视线范围内的手部特征区域;
跟踪模块,用于对所述获取模块获取的手部特征区域进行实时捕捉和追踪;
所述获取模块,还用于在被所述跟踪模块检测和捕捉到的手部特征区域中,通过对伸出手指的手部形态特征进行模式识别,获得手指尖的特征和位置信息;
所述跟踪模块,还用于对所述手指尖的特征和位置信息进行实时捕捉和追踪;
记录模块,用于在所述手指尖对目标物体的外缘进行圈划标定的时间区间内,记录所述手指尖的特征点的帧间位移,将所述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形;
投影模块,用于将所述全周长几何形在所述用户的视线方向与所述目标物体所在的相垂直平面上进行投影,将投影获得的区域作为所述目标物体的识别区域进行图像识别。
5.根据权利要求4所述的装置,其特征在于,所述记录模块用于将所述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形包括:
所述记录模块,具体用于通过闭合曲线优化算法将所述帧间位移形成的圈划轨迹封闭连接成一个全周长几何形。
6.根据权利要求4所述的装置,其特征在于,还包括:
接收模块,用于接收用户通过语音、触摸屏或者动态传感器输入的图像识别请求,以触发通过肤色检测获取第一视角的用户视线范围内的手部特征区域的操作。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410594523.3A CN104318218A (zh) | 2014-10-29 | 2014-10-29 | 图像识别方法和装置 |
JP2014252231A JP6104227B2 (ja) | 2014-10-29 | 2014-12-12 | 画像識別方法および画像識別装置 |
EP14197976.5A EP3016024A3 (en) | 2014-10-29 | 2014-12-15 | Image identification method and image identification device |
US14/571,950 US9396387B2 (en) | 2014-10-29 | 2014-12-16 | Image identification method and image identification device based on fingertip tracking |
KR1020140180973A KR101929077B1 (ko) | 2014-10-29 | 2014-12-16 | 이미지 식별 방법 및 이미지 식별 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410594523.3A CN104318218A (zh) | 2014-10-29 | 2014-10-29 | 图像识别方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104318218A true CN104318218A (zh) | 2015-01-28 |
Family
ID=52231838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410594523.3A Pending CN104318218A (zh) | 2014-10-29 | 2014-10-29 | 图像识别方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9396387B2 (zh) |
EP (1) | EP3016024A3 (zh) |
JP (1) | JP6104227B2 (zh) |
KR (1) | KR101929077B1 (zh) |
CN (1) | CN104318218A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105005441A (zh) * | 2015-06-18 | 2015-10-28 | 美国掌赢信息科技有限公司 | 一种即时视频的显示方法和电子设备 |
CN106204423A (zh) * | 2016-06-28 | 2016-12-07 | 广东欧珀移动通信有限公司 | 一种基于增强现实的图片调整方法、装置及终端 |
CN107924237A (zh) * | 2015-09-02 | 2018-04-17 | 微软技术许可有限责任公司 | 计算设备的增强现实控制 |
CN109807881A (zh) * | 2017-11-20 | 2019-05-28 | 广明光电股份有限公司 | 机器手臂作业轨迹的教导系统及方法 |
CN110443664A (zh) * | 2018-05-04 | 2019-11-12 | 阿里巴巴集团控股有限公司 | 信息推送系统、投影系统、方法、装置及电子设备 |
CN111583134A (zh) * | 2020-04-20 | 2020-08-25 | 清华大学 | 带标注的手与物体复杂交互真实彩色数据生成方法及装置 |
CN113676654A (zh) * | 2020-05-14 | 2021-11-19 | 武汉Tcl集团工业研究院有限公司 | 一种图像截取方法、装置、设备及计算机可读存储介质 |
CN115793862A (zh) * | 2023-01-05 | 2023-03-14 | 东云睿连(武汉)计算技术有限公司 | 一种图像目标隐式标注方法、系统、电子设备及存储介质 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111062235B (zh) * | 2018-10-17 | 2023-05-02 | 阿里巴巴集团控股有限公司 | 人脸识别方法和装置、人脸检测库的建立方法 |
CN109840504B (zh) * | 2019-02-01 | 2022-11-25 | 腾讯科技(深圳)有限公司 | 物品取放行为识别方法、装置、存储介质及设备 |
CN110555833B (zh) * | 2019-08-30 | 2023-03-21 | 联想(北京)有限公司 | 图像处理方法、装置、电子设备以及介质 |
CN111639545B (zh) * | 2020-05-08 | 2023-08-08 | 浙江大华技术股份有限公司 | 一种人脸识别方法、装置、设备及介质 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030095140A1 (en) * | 2001-10-12 | 2003-05-22 | Keaton Patricia (Trish) | Vision-based pointer tracking and object classification method and apparatus |
US20050271279A1 (en) * | 2004-05-14 | 2005-12-08 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US20090110292A1 (en) * | 2007-10-26 | 2009-04-30 | Honda Motor Co., Ltd. | Hand Sign Recognition Using Label Assignment |
US20090160767A1 (en) * | 2007-12-20 | 2009-06-25 | University Of Central Florida Research Foundation | Systems and Methods of Camera-Based Fingertip Tracking |
CN101535994A (zh) * | 2006-09-17 | 2009-09-16 | 诺基亚公司 | 提供标准真实世界到虚拟世界的链接的方法、装置和计算机程序产品 |
US20100329509A1 (en) * | 2009-06-30 | 2010-12-30 | National Taiwan University Of Science And Technology | Method and system for gesture recognition |
US20110197161A1 (en) * | 2010-02-09 | 2011-08-11 | Microsoft Corporation | Handles interactions for human-computer interface |
US20120076369A1 (en) * | 2010-09-24 | 2012-03-29 | Gil Abramovich | System and method for contactless multi-fingerprint collection |
US20120134536A1 (en) * | 2010-11-26 | 2012-05-31 | Myokan Yoshihiro | Image Processing Apparatus and Method, and Program |
WO2012091799A1 (en) * | 2010-11-09 | 2012-07-05 | Qualcomm Incorporated | Fingertip tracking for touchless user interface |
US20120216151A1 (en) * | 2011-02-22 | 2012-08-23 | Cisco Technology, Inc. | Using Gestures to Schedule and Manage Meetings |
US20130074002A1 (en) * | 2010-01-15 | 2013-03-21 | Microsoft Corporation | Recognizing User Intent In Motion Capture System |
CN103376890A (zh) * | 2012-04-16 | 2013-10-30 | 富士通株式会社 | 基于视觉的手势遥控系统 |
US20140181863A1 (en) * | 2012-12-26 | 2014-06-26 | Kt Corporation | Internet protocol television service |
CN103902035A (zh) * | 2012-12-24 | 2014-07-02 | 财团法人工业技术研究院 | 三维互动装置及其操控方法 |
US20140184644A1 (en) * | 2013-01-03 | 2014-07-03 | Qualcomm Incorporated | Rendering augmented reality based on foreground object |
WO2014151366A1 (en) * | 2013-03-15 | 2014-09-25 | Elwha Llc | Cross-reality select, drag, and drop for augmented reality systems |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3255740B2 (ja) * | 1992-11-20 | 2002-02-12 | 武藤工業株式会社 | 曲線の接続処理方法および装置 |
CN101499177A (zh) * | 2008-01-28 | 2009-08-05 | 上海西门子医疗器械有限公司 | 一种三维模型的建立方法和系统 |
JP2011198270A (ja) * | 2010-03-23 | 2011-10-06 | Denso It Laboratory Inc | 対象認識装置及びそれを用いた制御装置、並びに対象認識方法 |
US8971572B1 (en) * | 2011-08-12 | 2015-03-03 | The Research Foundation For The State University Of New York | Hand pointing estimation for human computer interaction |
-
2014
- 2014-10-29 CN CN201410594523.3A patent/CN104318218A/zh active Pending
- 2014-12-12 JP JP2014252231A patent/JP6104227B2/ja active Active
- 2014-12-15 EP EP14197976.5A patent/EP3016024A3/en not_active Ceased
- 2014-12-16 KR KR1020140180973A patent/KR101929077B1/ko active IP Right Grant
- 2014-12-16 US US14/571,950 patent/US9396387B2/en active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030095140A1 (en) * | 2001-10-12 | 2003-05-22 | Keaton Patricia (Trish) | Vision-based pointer tracking and object classification method and apparatus |
US20050271279A1 (en) * | 2004-05-14 | 2005-12-08 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
CN101535994A (zh) * | 2006-09-17 | 2009-09-16 | 诺基亚公司 | 提供标准真实世界到虚拟世界的链接的方法、装置和计算机程序产品 |
US20090110292A1 (en) * | 2007-10-26 | 2009-04-30 | Honda Motor Co., Ltd. | Hand Sign Recognition Using Label Assignment |
US20090160767A1 (en) * | 2007-12-20 | 2009-06-25 | University Of Central Florida Research Foundation | Systems and Methods of Camera-Based Fingertip Tracking |
US20100329509A1 (en) * | 2009-06-30 | 2010-12-30 | National Taiwan University Of Science And Technology | Method and system for gesture recognition |
US20130074002A1 (en) * | 2010-01-15 | 2013-03-21 | Microsoft Corporation | Recognizing User Intent In Motion Capture System |
US20110197161A1 (en) * | 2010-02-09 | 2011-08-11 | Microsoft Corporation | Handles interactions for human-computer interface |
US20120076369A1 (en) * | 2010-09-24 | 2012-03-29 | Gil Abramovich | System and method for contactless multi-fingerprint collection |
WO2012091799A1 (en) * | 2010-11-09 | 2012-07-05 | Qualcomm Incorporated | Fingertip tracking for touchless user interface |
US20120134536A1 (en) * | 2010-11-26 | 2012-05-31 | Myokan Yoshihiro | Image Processing Apparatus and Method, and Program |
US20120216151A1 (en) * | 2011-02-22 | 2012-08-23 | Cisco Technology, Inc. | Using Gestures to Schedule and Manage Meetings |
CN103376890A (zh) * | 2012-04-16 | 2013-10-30 | 富士通株式会社 | 基于视觉的手势遥控系统 |
CN103902035A (zh) * | 2012-12-24 | 2014-07-02 | 财团法人工业技术研究院 | 三维互动装置及其操控方法 |
US20140181863A1 (en) * | 2012-12-26 | 2014-06-26 | Kt Corporation | Internet protocol television service |
US20140184644A1 (en) * | 2013-01-03 | 2014-07-03 | Qualcomm Incorporated | Rendering augmented reality based on foreground object |
WO2014151366A1 (en) * | 2013-03-15 | 2014-09-25 | Elwha Llc | Cross-reality select, drag, and drop for augmented reality systems |
Non-Patent Citations (3)
Title |
---|
KENJI OKA等: "Real-Time Fingertip Tracking and Gesture Recognition", 《IEEE COMPUTER GRAPHICS AND APPLICATIONS》 * |
SYLVIA M.DOMINGUEZ: "A Robust Finger Tracking Method for Multimodel Wearable Computer Interfacing", 《IEEE TRANSACTION ON MULTIMEDIA》 * |
TRISH KEATON等: "SNAP&TELL:A Multi-Modal Wearable Computer Interface For Browsing The Environment", 《PROCEEDING OF THE 6TH INTERNATIONAL SYMPOSIUM ON WEARABLE COMPUTERS》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105005441A (zh) * | 2015-06-18 | 2015-10-28 | 美国掌赢信息科技有限公司 | 一种即时视频的显示方法和电子设备 |
WO2016202288A1 (zh) * | 2015-06-18 | 2016-12-22 | 美国掌赢信息科技有限公司 | 一种即时视频的显示方法和电子设备 |
CN107924237A (zh) * | 2015-09-02 | 2018-04-17 | 微软技术许可有限责任公司 | 计算设备的增强现实控制 |
CN106204423A (zh) * | 2016-06-28 | 2016-12-07 | 广东欧珀移动通信有限公司 | 一种基于增强现实的图片调整方法、装置及终端 |
CN109807881A (zh) * | 2017-11-20 | 2019-05-28 | 广明光电股份有限公司 | 机器手臂作业轨迹的教导系统及方法 |
CN109807881B (zh) * | 2017-11-20 | 2021-09-28 | 达明机器人股份有限公司 | 机器手臂作业轨迹的教导系统及方法 |
CN110443664A (zh) * | 2018-05-04 | 2019-11-12 | 阿里巴巴集团控股有限公司 | 信息推送系统、投影系统、方法、装置及电子设备 |
CN111583134A (zh) * | 2020-04-20 | 2020-08-25 | 清华大学 | 带标注的手与物体复杂交互真实彩色数据生成方法及装置 |
CN111583134B (zh) * | 2020-04-20 | 2022-08-12 | 清华大学 | 带标注的手与物体复杂交互真实彩色数据生成方法及装置 |
CN113676654A (zh) * | 2020-05-14 | 2021-11-19 | 武汉Tcl集团工业研究院有限公司 | 一种图像截取方法、装置、设备及计算机可读存储介质 |
CN113676654B (zh) * | 2020-05-14 | 2023-06-06 | 武汉Tcl集团工业研究院有限公司 | 一种图像截取方法、装置、设备及计算机可读存储介质 |
CN115793862A (zh) * | 2023-01-05 | 2023-03-14 | 东云睿连(武汉)计算技术有限公司 | 一种图像目标隐式标注方法、系统、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP3016024A2 (en) | 2016-05-04 |
JP2016091527A (ja) | 2016-05-23 |
KR20160051496A (ko) | 2016-05-11 |
EP3016024A3 (en) | 2016-06-01 |
JP6104227B2 (ja) | 2017-03-29 |
KR101929077B1 (ko) | 2018-12-13 |
US9396387B2 (en) | 2016-07-19 |
US20160125236A1 (en) | 2016-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104318218A (zh) | 图像识别方法和装置 | |
CN104408743A (zh) | 图像分割方法和装置 | |
Kanimozhi et al. | Multiple Real-time object identification using Single shot Multi-Box detection | |
CN102831439B (zh) | 手势跟踪方法及系统 | |
CN103353935B (zh) | 一种用于智能家居系统的3d动态手势识别方法 | |
US20120062736A1 (en) | Hand and indicating-point positioning method and hand gesture determining method used in human-computer interaction system | |
JP2016503220A (ja) | ジェスチャ認識のためのパーツ及び状態検出 | |
CN102854983A (zh) | 一种基于手势识别的人机交互方法 | |
Akkaladevi et al. | Tracking multiple rigid symmetric and non-symmetric objects in real-time using depth data | |
CN104268520A (zh) | 一种基于深度运动轨迹的人体动作识别方法 | |
Li et al. | Robust multiperson detection and tracking for mobile service and social robots | |
Sharma et al. | Numeral gesture recognition using leap motion sensor | |
Doan et al. | Recognition of hand gestures from cyclic hand movements using spatial-temporal features | |
Song et al. | Attention-oriented action recognition for real-time human-robot interaction | |
US8970479B1 (en) | Hand gesture detection | |
CN108614988A (zh) | 一种复杂背景下的运动手势自动识别系统 | |
Sadkhan et al. | An investigate on moving object tracking and detection in images | |
Alcoverro et al. | Gesture control interface for immersive panoramic displays | |
Bhaltilak et al. | Human motion analysis with the help of video surveillance: a review | |
Fang et al. | Understanding human-object interaction in RGB-D videos for human robot interaction | |
CN103558948A (zh) | 一种应用在虚拟光学键盘人机交互方法 | |
Bhuyan et al. | Key Video Object Plane Selection by MPEG-7 Visual Shape Descriptor for Summarization and Recognition of Hand Gestures. | |
Revathi et al. | A survey of activity recognition and understanding the behavior in video survelliance | |
Wong et al. | Virtual touchpad: Hand gesture recognition for smartphone with depth camera | |
CN109725722B (zh) | 有屏设备的手势控制方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150128 |
|
RJ01 | Rejection of invention patent application after publication |