CN110333772B - 一种控制对象移动的手势控制方法 - Google Patents
一种控制对象移动的手势控制方法 Download PDFInfo
- Publication number
- CN110333772B CN110333772B CN201810278130.XA CN201810278130A CN110333772B CN 110333772 B CN110333772 B CN 110333772B CN 201810278130 A CN201810278130 A CN 201810278130A CN 110333772 B CN110333772 B CN 110333772B
- Authority
- CN
- China
- Prior art keywords
- finger
- palm
- fingers
- length
- recognition unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及一种控制对象移动的手势控制方法,具体步骤为:在被控制对象附近的一定空间区域内划定为手型区域;通过图像识别单元抓取手型区域内的图像,识别图像上用户的手掌和所伸出的至少一个手指;检测手指端部是否存在指甲,并根据检测结果判断手掌的掌心相对图像识别单元的朝向;根据手掌掌心的朝向控制被控制对象的移动方向。本发明可以提高用户采用手势对物体对象进行移动控制时的真实感和简便性。
Description
技术领域
本发明涉及智能控制技术领域,具体涉及一种控制对象移动的手势控制方法。
背景技术
传统对物体对象的手势控制方法是将用户的手抽象为一个点,检测手在空间的运动轨迹,并根据预先制定的规则,将所检测到的运动轨迹转化为控制指令,从而控制物体对象。但是通过这种方式不能给用户带来很好的体验,尤其是在控制物体对象在空间中旋转、移动的时候,会缺乏真实、简便的体验。
发明内容
本发明为了克服上述现有技术所述的至少一种缺陷(不足),提供一种控制对象移动的手势控制方法,可以提高用户采用手势对物体对象进行移动控制时的真实感和简便性。
为实现本发明的目的,采用以下技术方案予以实现:
一种控制对象移动的手势控制方法,用于控制被控制对象移动,包括以下步骤:
S1.在被控制对象附近的一定空间区域内划定为手型区域;
S2.通过图像识别单元抓取手型区域内的图像,识别图像上用户的手掌和所伸出的至少一个手指;
S3.检测手指端部是否存在指甲,并根据检测结果判断手掌的掌心相对图像识别单元的朝向;
S4.根据手掌掌心的朝向控制被控制对象的移动方向。
在被控制对象附近划定手型区域并在手型区域内识别用户的手指和手掌状态,用户在被控制对象附近的任意一个地方通过一个手势的变化就可以控制被控制对象进行移动,不仅可以方便用户控制被控制对象,还可以增强用户对被控制对象操作时的真实体验感。
通过检测手指端部是否存在指甲,可以快速、简便地判断出手掌的掌心是朝向图像识别单元还是背向图像识别单元,便于通过掌心朝向调用不同的移动控制命令。
进一步地,方法还包括以下步骤:
S5.检测所伸出的手指与手掌的长度比例识别所伸出的手指为拇指、食指、中指、无名指、尾指的其中一个或多个;
S6.根据上述5个手指的伸出或收起状态控制被控制对象的移动幅度和/或移动角度。
由于人体拇指、食指、中指、无名指、尾指的长度均不相同,所以通过检测伸出手指的长度可以识别所伸出的手指具体是5个手指其中的哪一个或哪几个,无论手掌朝向还是背向图像识别单元,都不会影响手指的识别。
用户每一次做出手势控制被控制对象的旋转时,手指与图像识别单元的距离并不是每一次都相同,因此,每一次通过图像识别单元检测的手指长度不会相同,但是手指与手掌的比例是基本相同的。在识别手指具体是哪一个时,结合手掌的长度,计算手指与手掌的长度比例,通过该长度比例识别手指,可以提高手指识别的准确度。
在根据手掌的掌心朝向控制被控制对象的移动方向基础上,再通过5个手指的伸出或收起状态控制被控制对象的移动幅度和/或移动角度,可以使用户可以更加灵活地控制对象的移动。
进一步地,所述步骤S3具体为:在图像上手指端部对应的位置探测指甲轮廓,若能探测到指甲轮廓,则判断手掌的掌心朝向图像识别单元;若不能探测到指甲轮廓,则判断手掌的掌心背向图像识别单元。
利用图像处理技术中的轮廓探测技术,可以在图像上的手指端部探测出指甲的存在,便于判断手掌的掌心相对于图像识别单元的朝向。
进一步地,所述步骤S4具体为:当手掌的掌心朝向图像识别单元时,控制被控制对象沿着远离用户的方向移动;当手掌的掌心背向图像识别单元时,控制被控制对象沿着靠近用户的方向移动。
进一步地,所述步骤S6包括以下步骤:
S61.将5个手指的伸出或收起状态对应记录在数组F=[f1,f2,f3,f4,f5],f1~f5的取值为0或1,0表示该手指处于收起状态,1表示该手指处于伸出状态;
S62.根据数组F的值控制被控制对象的移动幅度和/或移动角度。
将各个手指的伸出或收起状态记录在数组F中,可以简捷地将手指的伸出或收起状态转化为数组的不同值,数组的不同值对应不同的移动幅度和/或移动角度即可实现通过手指的伸出或收起状态控制被控制对象的移动幅度和/或移动角度。
进一步地,所述步骤S5包括以下步骤:
S51.预先设定手掌长度L以及手指长度l,5个手指的手指长度l对应记录在数组F_length=[l1,l2,l3,l4,l5];
S53.若判定第i个手指伸出,则令fi=1,若判定第i个手指收起,则令fi=0;
上述i取值为1~5,cl是手指长度的容许误差。
在判断手指伸出或收起时,设定一定的容许误差cl。当用户手指因自身手指的特殊性或者其它原因没有完全伸直或完全收起时,仍然是有效的手势,可以在一定容差范围内对手指的伸出或收起状态进行明确的判断。
进一步地,所述S5还包括以下步骤:
S54.预先设定手掌宽度D以及手指宽度d,5个手指的手指宽度对应记录在数组F_width=[d1,d2,d3,d4,d5];
上述j取值为1~5,cd是手指宽度的容许误差。
在判断手指的伸出或收起状态时,可能出现两个手指并在一起,但在识别过程中只识别出一个手指为伸出状态。因此,需要先预设用户的手掌宽度D和手指宽度d,通过比较所识别的和预设的手指宽度与手掌宽度的比值和可以判断所伸出的手指是否存在并指的情况。
在判断两个手指是否并在一起时,设定一定的容许误差cd。当用户手指出现重叠时,多个手指并在一起的宽度会小于多个手指宽度的加和;当用户手指并在一起存在小的缝隙时,多个手指并在一起的宽度会大于多个手指宽度的加和。但无论是上述两种情况的哪一种,仍然可以在一定容差范围内判断出是否存在并指情况。
进一步地,所述步骤S4还包括以下步骤:
进一步地,所述步骤S4还包括以下步骤:
S47.若判定为第m~n个手指并在一起,则将fm~fn的值设为1。
当判定为是第m~n个手指并在一起时,将记录5个手指伸出或收起状态的数组F中的fm~fn的值设为1,再根据此时数组F的值控制被控制对象的移动幅度和/或移动角度。
与现有技术相比,本发明技术方案的有益效果是:
(1)通过在被控制对象附近的手型区域内通过识别用户手掌相对图像识别单元的朝向,控制对象的移动方向,可以提高用户采用手势对物体对象进行移动控制时的真实感和简便性。
(2)结合5个手指的伸出或收起状态和掌心的朝向,可以根据用户的意向灵活地控制被控制对象移动的幅度、角度。
附图说明
图1是本发明实施例的手掌掌心朝向图像识别单元的图像示意图。
图2是本发明实施例的手掌掌心背向图像识别单元的图像示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例
如图1、图2所示,一种控制对象移动的手势控制方法,用于控制被控制对象移动,包括以下步骤:
S1.在被控制对象附近的一定空间区域内划定为手型区域;
S2.通过图像识别单元抓取手型区域内的图像,识别图像上用户的手掌1和所伸出的至少一个手指2;
S3.检测手指2端部是否存在指甲3,并根据检测结果判断手掌1的掌心相对图像识别单元的朝向;
S4.根据手掌1掌心的朝向控制被控制对象的移动方向。
在被控制对象附近划定手型区域并在手型区域内识别用户的手指2和手掌1状态,用户在被控制对象附近的任意一个地方通过一个手势的变化就可以控制被控制对象进行移动,不仅可以方便用户控制被控制对象,还可以增强用户对被控制对象操作时的真实体验感。
通过检测手指2端部是否存在指甲3,可以快速、简便地判断出手掌1的掌心是朝向图像识别单元还是背向图像识别单元,便于通过掌心朝向调用不同的移动控制命令。
进一步地,方法还包括以下步骤:
S5.检测所伸出的手指2与手掌1的长度比例识别所伸出的手指2为拇指、食指、中指、无名指、尾指的其中一个或多个;
S6.根据上述5个手指2的伸出或收起状态控制被控制对象的移动幅度和/或移动角度。
由于人体拇指、食指、中指、无名指、尾指的长度均不相同,所以通过检测伸出手指2的长度可以识别所伸出的手指2具体是5个手指2其中的哪一个或哪几个,无论手掌1朝向还是背向图像识别单元,都不会影响手指2的识别。
用户每一次做出手势控制被控制对象的旋转时,手指2与图像识别单元的距离并不是每一次都相同,因此,每一次通过图像识别单元检测的手指2长度不会相同,但是手指2与手掌1的比例是基本相同的。在识别手指2具体是哪一个时,结合手掌1的长度,计算手指2与手掌1的长度比例,通过该长度比例识别手指2,可以提高手指2识别的准确度。
在根据手掌1的掌心朝向控制被控制对象的移动方向基础上,再通过5个手指2的伸出或收起状态控制被控制对象的移动幅度和/或移动角度,可以使用户可以更加灵活地控制对象的移动。
进一步地,所述步骤S3具体为:在图像上手指2端部对应的位置探测指甲3轮廓,若能探测到指甲3轮廓,则判断手掌1的掌心朝向图像识别单元;若不能探测到指甲3轮廓,则判断手掌1的掌心背向图像识别单元。
利用图像处理技术中的轮廓探测技术,可以在图像上的手指2端部探测出指甲3的存在,便于判断手掌1的掌心相对于图像识别单元的朝向。
进一步地,所述步骤S4具体为:当手掌1的掌心朝向图像识别单元时,控制被控制对象沿着远离用户的方向移动;当手掌1的掌心背向图像识别单元时,控制被控制对象沿着靠近用户的方向移动。
进一步地,所述步骤S6包括以下步骤:
S61.将5个手指2的伸出或收起状态对应记录在数组F=[f1,f2,f3,f4,f5],f1~f5的取值为0或1,0表示该手指2处于收起状态,1表示该手指2处于伸出状态;
S62.根据数组F的值控制被控制对象的移动幅度和/或移动角度。
将各个手指2的伸出或收起状态记录在数组F中,可以简捷地将手指2的伸出或收起状态转化为数组的不同值,数组的不同值对应不同的移动幅度和/或移动角度即可实现通过手指2的伸出或收起状态控制被控制对象的移动幅度和/或移动角度。
进一步地,所述步骤S5包括以下步骤:
S51.预先设定手掌长度L以及手指长度l,5个手指2的手指长度l对应记录在数组F_length=[l1,l2,l3,l4,l5];
S53.若判定第i个手指伸出,则令fi=1,若判定第i个手指收起,则令fi=0;
上述i取值为1~5,cl是手指长度的容许误差。
在判断手指2伸出或收起时,设定一定的容许误差cl。当用户手指2因自身手指2的特殊性或者其它原因没有完全伸直或完全收起时,仍然是有效的手势,可以在一定容差范围内对手指2的伸出或收起状态进行明确的判断。
进一步地,所述S5还包括以下步骤:
S54.预先设定手掌宽度D以及手指宽度d,5个手指2的手指宽度对应记录在数组F_width=[d1,d2,d3,d4,d5];
上述j取值为1~5,cd是手指2宽度的容许误差。
在判断手指2的伸出或收起状态时,可能出现两个手指2并在一起,但在识别过程中只识别出一个手指2为伸出状态。因此,需要先预设用户的手掌宽度D和手指宽度d,通过比较所识别的和预设的手指宽度与手掌宽度的比值和可以判断所伸出的手指2是否存在并指的情况。
在判断两个手指2是否并在一起时,设定一定的容许误差cd。当用户手指2出现重叠时,多个手指2并在一起的宽度会小于多个手指2宽度的加和;当用户手指2并在一起存在小的缝隙时,多个手指2并在一起的宽度会大于多个手指2宽度的加和。但无论是上述两种情况的哪一种,仍然可以在一定容差范围内判断出是否存在并指情况。
进一步地,所述步骤S4还包括以下步骤:
进一步地,所述步骤S4还包括以下步骤:
S47.若判定为第m~n个手指并在一起,则将fm~fn的值设为1。
当判定为是第m~n个手指并在一起时,将记录5个手指2伸出或收起状态的数组F中的fm~fn的值设为1,再根据此时数组F的值控制被控制对象的移动幅度和/或移动角度。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (4)
1.一种控制对象移动的手势控制方法,用于控制被控制对象移动,其特征在于,包括以下步骤:
S1.在被控制对象附近的一定空间区域内划定为手型区域;
S2.通过图像识别单元抓取手型区域内的图像,识别图像上用户的手掌和所伸出的至少一个手指;
S3.检测手指端部是否存在指甲,并根据检测结果判断手掌的掌心相对图像识别单元的朝向;
S4.根据手掌掌心的朝向控制被控制对象的移动方向;
S5.检测所伸出的手指与手掌的长度比例识别所伸出的手指为拇指、食指、中指、无名指、尾指的其中一个或多个;
所述步骤S5包括以下步骤:
S51.预先设定手掌长度L以及手指长度l,5个手指的手指长度l对应记录在数组F_length=[l1,l2,l3,l4,l5];
S52.检测伸出的手指长度lr以及手掌长度Lr,判断是否根据判断结果判定第i个手指伸出或收起;
S53.若判定第i个手指伸出,则令fi=1,若判定第i个手指收起,则令fi=0;上述i取值为1~5,cl是手指长度的容许误差;
S54.预先设定手掌宽度D以及手指宽度d,5个手指的手指宽度对应记录在数组F_width=[d1,d2,d3,d4,d5];
S55.当fj=1时,检测第j个手指宽度dj以及手掌宽度Dr,并判断是否根据判断结果判定手指是否存在并在一起的情况;上述j取值为1~5,cd是手指宽度的容许误差;
S56.若判定手指存在并在一起的情况,则判断是否根据判断结果判定是否第m~n个手指并在一起,上述m和n取值均为1~5;
S57.若判定为第m~n个手指并在一起,则将fm~fn的值设为1;
S6.根据上述5个手指的伸出或收起状态控制被控制对象的移动幅度和/或移动角度。
2.根据权利要求1所述的控制对象移动的手势控制方法,其特征在于,所述步骤S3具体为:在图像上手指端部对应的位置探测指甲轮廓,若能探测到指甲轮廓,则判断手掌的掌心朝向图像识别单元;若不能探测到指甲轮廓,则判断手掌的掌心背向图像识别单元。
3.根据权利要求2所述的控制对象移动的手势控制方法,其特征在于,所述步骤S4具体为:当手掌的掌心朝向图像识别单元时,控制被控制对象沿着远离用户的方向移动;当手掌的掌心背向图像识别单元时,控制被控制对象沿着靠近用户的方向移动。
4.根据权利要求1所述的控制对象移动的手势控制方法,其特征在于,所述步骤S6包括以下步骤:
S61.将5个手指的伸出或收起状态对应记录在数组F=[f1,f2,f3,f4,f5],f1~f5的取值为0或1,0表示该手指处于收起状态,1表示该手指处于伸出状态;
S62.根据数组F的值控制被控制对象的移动幅度和/或移动角度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810278130.XA CN110333772B (zh) | 2018-03-31 | 2018-03-31 | 一种控制对象移动的手势控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810278130.XA CN110333772B (zh) | 2018-03-31 | 2018-03-31 | 一种控制对象移动的手势控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110333772A CN110333772A (zh) | 2019-10-15 |
CN110333772B true CN110333772B (zh) | 2023-05-05 |
Family
ID=68139025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810278130.XA Active CN110333772B (zh) | 2018-03-31 | 2018-03-31 | 一种控制对象移动的手势控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110333772B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1595336A (zh) * | 2003-08-11 | 2005-03-16 | 三菱扶桑卡客车株式会社 | 手图形转换装置 |
CN104102340A (zh) * | 2013-04-15 | 2014-10-15 | 欧姆龙株式会社 | 手势识别装置、手势识别方法、以及电子设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005063090A (ja) * | 2003-08-11 | 2005-03-10 | Keio Gijuku | ハンドパターンスイッチ装置 |
US20120204133A1 (en) * | 2009-01-13 | 2012-08-09 | Primesense Ltd. | Gesture-Based User Interface |
US20140282275A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Detection of a zooming gesture |
DE102015201613A1 (de) * | 2015-01-30 | 2016-08-04 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung |
-
2018
- 2018-03-31 CN CN201810278130.XA patent/CN110333772B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1595336A (zh) * | 2003-08-11 | 2005-03-16 | 三菱扶桑卡客车株式会社 | 手图形转换装置 |
CN104102340A (zh) * | 2013-04-15 | 2014-10-15 | 欧姆龙株式会社 | 手势识别装置、手势识别方法、以及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110333772A (zh) | 2019-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110334561B (zh) | 一种控制对象旋转的手势控制方法 | |
US20220365653A1 (en) | System for detecting and characterizing inputs on a touch sensor | |
Keskin et al. | Real time hand tracking and 3d gesture recognition for interactive interfaces using hmm | |
US8254627B2 (en) | Method for automatically following hand movements in an image sequence | |
US20170116545A1 (en) | Touch Classification | |
US20170139487A1 (en) | Image processing apparatus, image processing method, and program | |
KR101302638B1 (ko) | 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체 | |
EP3318955A1 (en) | Gesture detection and recognition method and system | |
WO2011007390A1 (ja) | 画像処理装置、及びインターフェース装置 | |
US9047001B2 (en) | Information processing apparatus, information processing method, and program | |
US20160133024A1 (en) | Method and system for gesture identification based on object tracing | |
KR101682268B1 (ko) | 다중 클래스 svm과 트리 분류를 이용한 제스처 인식 장치 및 방법 | |
Malallah et al. | Vision-based control by hand-directional gestures converting to voice | |
US10372223B2 (en) | Method for providing user commands to an electronic processor and related processor program and electronic circuit | |
TWI571772B (zh) | 虛擬滑鼠驅動裝置及虛擬滑鼠模擬方法 | |
Chaudhary et al. | A vision based geometrical method to find fingers positions in real time hand gesture recognition. | |
Vishwakarma et al. | Hand gesture recognition in low-intensity environment using depth images | |
CN103793056A (zh) | 基于距离向量的空中手势漫游控制方法 | |
CN106527917B (zh) | 一种用于屏幕交互系统的多指触控操作的识别方法 | |
CN110333772B (zh) | 一种控制对象移动的手势控制方法 | |
WO2019142787A1 (ja) | 人体部位推定装置、人体部位推定方法、及びコンピュータ読み取り可能な記録媒体 | |
Zhou et al. | Visual mouse: SIFT detection and PCA recognition | |
Wagner et al. | Framework for a portable gesture interface | |
Kubus et al. | Robust recognition of tactile gestures for intuitive robot programming and control | |
KR20160040143A (ko) | 사용자의 손톱이나 발톱에 관한 시각적인 정보에 기초하여 사용자 입력을 결정하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |