CN103201706A - 虚拟鼠标的驱动方法 - Google Patents
虚拟鼠标的驱动方法 Download PDFInfo
- Publication number
- CN103201706A CN103201706A CN2011800534963A CN201180053496A CN103201706A CN 103201706 A CN103201706 A CN 103201706A CN 2011800534963 A CN2011800534963 A CN 2011800534963A CN 201180053496 A CN201180053496 A CN 201180053496A CN 103201706 A CN103201706 A CN 103201706A
- Authority
- CN
- China
- Prior art keywords
- virtual mouse
- thumb
- forefinger
- image
- difference image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Abstract
本发明涉及一种新型的虚拟鼠标驱动方法,其运行与个体的肤色无关并能够在具有程度干扰的一般环境中运行。基于改变手形来控制的根据本发明的虚拟鼠标驱动方法包括:接收由摄像机在彼此不同的时间点拍摄的多幅图像;在所述多幅图像中提取区别图像;以及基于所提取的区别图像驱动虚拟所述鼠标。
Description
技术领域
本发明涉及一种虚拟鼠标驱动方法,更具体而言,涉及一种利用从成像摄像机获取的手图像信息的虚拟鼠标驱动方法。
背景技术
根据显示装置到智能系统的技术演变,与显示装置交互正变得更加重要。类似于计算机,智能显示装置需要具有基于显示装置屏幕上的位置的命令输入。作为输入装置,鼠标是具有这种命令输入的最常用的方法。此外,在最新流行的智能手机中,可以利用触摸屏基于屏幕的位置来输入命令。
在利用触摸屏的现有输入方法中,为了实现基于位置的命令,存在很多限制,因为命令是通过与显示装置接触而传送的。就是说,仅在显示装置在手接触距离之内时才有可能。此外,就其物理尺寸和形状而言,鼠标不是一种智能输入装置。
近年来,正在发布一些可以通过非接触方式向显示装置发送命令的输入装置,例如虚拟鼠标。具体而言,在游戏领域中正在开发利用3D摄像机识别手势的命令方法。在使用3D摄像机的方法中,可以在输入图像中容易地将执行手势的对象图像与背景图像分开,但该方法需要价格高昂而复杂的输入装置。此外,由于分辨率低,该方法非常不方便,因为命令输入需要来自用户的大量手势。
在韩国未审专利申请公开No.2007-0030398、韩国专利No.0687737和韩国未审专利申请公开No.2008-0050218中披露了与虚拟鼠标相关的现有技术。在这些专利公开的方法中,从摄像机输入的图像中识别出的一只手或两只手的手势具有虚拟鼠标的功能。在这些识别方法中,由于通常通过手指的停止形状来识别特定命令,所以为了识别手指的停止形状,必须要有将手指与背景图像分开的过程。因此,利用手的色彩信息将手部区域与背景图像分开的过程是重要的。在这种情况下,由于每个人手的颜色差异,在使用手颜色的绝对值时,必须要有复杂的模型配准过程和识别过程。在背景类似于手的颜色时,或背景亮度不恒定时,难以将手区分开。结果,在具有干扰的一般环境中难以实施,这与设计良好的实验室环境相反。
因此,需要开发一种新型虚拟鼠标驱动方法,其与个体的肤色无关并能够在具有干扰的一般环境中实施。
发明内容
技术问题
考虑到上述问题而做出了本发明,本发明的目的是提供一种新型虚拟鼠标驱动方法,其与个体的肤色无关,并能够在具有一定程度干扰的一般环境中实施。
技术方案
为了实现上述目的,通过改变手形来控制驱动虚拟鼠标的方法的根据本发明的虚拟鼠标驱动方法包括:输入步骤,接收由成像摄像机在彼此不同的时间点拍摄的多幅图像;区别图像提取步骤,在多幅图像中提取区别图像;以及基于所提取的区别图像的虚拟鼠标驱动步骤。
根据本发明,优选从区别图像提取关于用户大拇指和食指之间接触和分开的运动信息,并将所述运动信息用作虚拟鼠标的点击信号。
此外,根据本发明,优选从所述多幅图像连续地提取区别图像,并通过分析连续的区别图像中大拇指或食指的位置变化来提取运动信息。
此外,根据本发明,优选将所识别的大拇指和食指之间接触又分开的次数用作特定命令信号。
发明的有益效果
利用这样的配置,可以实现一种虚拟鼠标系统,其与个体的肤色无关,并在具有一定程度干扰的一般环境中被精确地驱动。
附图简要说明
图1是示意图,示出了根据本发明实施例的用于实施虚拟鼠标驱动方法的装置的配置。
图2是示意流程图,用于解释图1中所示的手势识别单元的过程。
图3是用于解释区别图像的示意图。
图4和5是示出了连续的图像及其区别图像的示意图。
具体实施方式
在下文中,将参考附图详细描述根据本发明示范性实施例的虚拟鼠标驱动方法。
图1是示意图,示出了根据本发明实施例用于实施虚拟鼠标驱动方法的装置的配置。图2是示意流程图,用于解释图1中所示的手势识别单元的过程。图3是用于解释区别图像的示意图。图4和5是示出了连续的图像及其对应区别图像的示意图。
参考图1到5,在虚拟鼠标系统中实施根据实施例的虚拟鼠标驱动方法。虚拟鼠标系统100包括摄像机10、图像输入单元20、手势识别单元30和命令发送单元40。
摄像机10通过诸如CCD或CMOS等成像装置拍摄从透镜输入的图像,并输出所述图像。例如,可以由数字摄像机实现摄像机,其拍摄用户手的图像并向图像输入单元发送所述图像。
图像输入单元20实时接收摄像机所拍摄的图像。
手势识别单元30从图像输入单元中所输入的图像提取区别图像。区别图像是图像处理方法之一,用于将对象与2D图像分开,并且是仅显示两幅图像之间变化部分的图像。具体而言,比较图3A和3B,仅食指的位置发生改变,图3A和3B之间的区别图像被表示为图3C。然后,提取用户大拇指和食指之间的接触和分开的运动信息,并将这种运动信息发送到命令发送单元。
在这种情况下,如图3中所示,在仅仅使用从两幅图像获取的一个区别图像时,难以识别大拇指和食指在分开之后是否接触或在接触之后是否分开。因此,图4B中所示的四幅连续的区别图像是从多个屏幕(图像)获得的,例如,在图4A所示的五个时间点所拍摄的手形图像,然后,通过比较这幅区别图像中食指的位置变化,可以识别大拇指和食指是接触还是分开。在图4B中,食指的位置改变到下侧(大拇指一侧)。在这种情况下,判定大拇指和食指在分开之后接触。另一方面,如图5B所示,由于食指的位置变到上侧,所以判定大拇指和食指在接触之后分开。
通过这种方式,利用多个连续的区别图像,可以获取关于大拇指和食指的更精确的运动信息。此外,由于通过多幅区别图像确定手指运动的方向,所以可以排除一些外界干扰,因此可以获取精确的运动信息(可以排除干扰是因为它不像手指那样有方向性,并且可以基于形式分析,例如区别图像的尺寸、角度和形状,进行排除干扰)。
同时,可以获得基于手指手势的不同类型区别图像,但实施例使用大拇指和食指在接触后分开的图像。原因如下。首先,由于在一般情况下几乎不会发生大拇指和食指彼此接触的手势,所以可以容易地与其他一般手势区分,并且识别错误低。此外,由于产生的明显的区别图像,所以适于进行图像处理。另外,由于手势简单,即使当用户长时间连续执行重复操作时,也不会疲劳或费劲。
此外,手势识别单元30持续跟踪整个手或手的一部分的图像以便实施鼠标运动操作。在一般的图像跟踪方法中,将整个或手的一部分的图像设置成跟踪区,设置可移动空间,在发现相似性最高的位置时计算手移动的位置,并且重复这些过程,从而实现用于虚拟鼠标移动操作的移动信号。这种虚拟鼠标移动方法是一种公知的方法,将不再重复对其进行描述。
命令发送单元40输出与信息对应的驱动信号,具体而言,该信息是从手势识别单元输出的手部运动(鼠标位置移动)和手指的运动信息(鼠标点击),由此驱动虚拟鼠标。例如,在手指接触之后再分开的手势数目是一个时,输出用于点击鼠标的点击信号。
在手指接触之后再分开的手势数目是两个时,将其用作表示输入装置的初始启动点的信号。具体而言,难以定义用来实现基于手势识别的输入装置的初始启动点。在现有方法中,为了找到初始启动点,预先在屏幕上设置显示区域,并且当手在这个显示区中匹配时,识别初始启动点。不过,在上述方法中,要将用户的手放在屏幕上显示区中的复杂手势是必要的,这导致启动系统要大量时间。不过,根据实施例,可以基于将大拇指和食指接触并分开的手势执行两次的时间来迅速识别初始启动点。
此外,为了在点击鼠标时移动的拖动手势和无点击的移动手势之间加以区分,识别出大拇指和食指是在接触状态移动还是在未接触状态移动,并相应地输出驱动信号。就是说,可以执行拖动手势,从而将点击虚拟鼠标按钮时的移动状态识别为在手指接触时的移动手势,并将不点击虚拟鼠标按钮的移动状态识别为分开手指时的移动手势。
此外,为了有效地控制显示装置,除了一般鼠标操作之外的手势可能是必要的。例如,音量控制或返回主菜单屏幕可能是必要的。在这种情况下,可以基于点击手势(手指在接触之后分开的手势)的数目来定义不同的命令。例如,在执行点击手势三次时,可以返回主菜单屏幕。
如上所述,根据实施例的虚拟鼠标驱动方法基本根据区别图像来提取关于手的运动信息。由于它不受肤色的影响,所以无需关于用户的模型配准,并且没有因为种族导致的识别错误问题。此外,它不受周围环境颜色或背光亮度的影响。因此,可以在具有一定程度干扰的一般环境中有效地实施虚拟鼠标系统。
利用大拇指和食指的运动,即使当用户连续地执行重复操作时,也不会疲劳或费劲。由于可以容易将所述运动与其他一般手势区分开,所示识别错误的可能性低。
上文已经描述了本发明的示范性实施例,但本发明不限于上述实施例。本领域的技术人员在不脱离本发明的范围和精神的情况下可以对本发明做出各种修改和变化,但所有对应的修改都落在由所附权利要求界定的本发明范围之内。
Claims (6)
1.一种虚拟鼠标的驱动方法,其中通过改变手形来控制所述虚拟鼠标,所述方法包括:
输入由摄像机在彼此不同的时间点拍摄的多幅图像;
在所述多幅图像中提取区别图像;以及
基于所提取的区别图像驱动所述虚拟鼠标。
2.根据权利要求1所述的虚拟鼠标驱动方法,其中,从所述区别图像提取用户的大拇指和另一手指的一部分接触又分开的运动信息,并将所述运动信息用作所述虚拟鼠标的点击信号。
3.根据权利要求2所述的虚拟鼠标驱动方法,其中,所述运动信息是所述大拇指和食指接触又分开的信息。
4.根据权利要求3所述的虚拟鼠标驱动方法,其中,所述区别图像是从所述多幅图像连续地提取的,并且所述运动信息是通过分析连续的区别图像中大拇指或食指的位置变化来提取的。
5.根据权利要求3所述的虚拟鼠标驱动方法,其中,将所识别的大拇指和食指之间接触又分开的次数用作特定命令信号。
6.根据权利要求3所述的虚拟鼠标驱动方法,其中,计算所述用户的手的位置移动,并将所述手的位置移动用作所述虚拟鼠标的移动信号,从而将大拇指和食指接触时的移动用作点击所述虚拟鼠标按钮时的移动信号,并且将大拇指和食指不接触时的移动用作不点击所述虚拟鼠标按钮的移动信号。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2010-0109198 | 2010-11-04 | ||
KR20100109198A KR101169583B1 (ko) | 2010-11-04 | 2010-11-04 | 가상마우스 구동방법 |
PCT/KR2011/008210 WO2012060598A2 (ko) | 2010-11-04 | 2011-10-31 | 가상마우스 구동방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103201706A true CN103201706A (zh) | 2013-07-10 |
Family
ID=46024932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011800534963A Pending CN103201706A (zh) | 2010-11-04 | 2011-10-31 | 虚拟鼠标的驱动方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20130229348A1 (zh) |
KR (1) | KR101169583B1 (zh) |
CN (1) | CN103201706A (zh) |
WO (1) | WO2012060598A2 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012126426A2 (zh) * | 2012-05-21 | 2012-09-27 | 华为技术有限公司 | 一种非接触式手势控制方法及装置 |
KR101489069B1 (ko) | 2013-05-30 | 2015-02-04 | 허윤 | 동작 기반의 정보 입력 방법 및 이러한 방법을 사용한 입력 장치 |
KR101492813B1 (ko) * | 2013-08-27 | 2015-02-13 | 주식회사 매크론 | 웨어러블 디스플레이용 입력장치 |
US9304597B2 (en) | 2013-10-29 | 2016-04-05 | Intel Corporation | Gesture based human computer interaction |
US10102423B2 (en) * | 2016-06-30 | 2018-10-16 | Snap Inc. | Object modeling and replacement in a video stream |
KR102378503B1 (ko) | 2020-12-29 | 2022-03-24 | 울산대학교 산학협력단 | 무형 마우스를 통한 정보의 입출력 방법 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060209021A1 (en) * | 2005-03-19 | 2006-09-21 | Jang Hee Yoo | Virtual mouse driving apparatus and method using two-handed gestures |
US20080231608A1 (en) * | 2007-03-23 | 2008-09-25 | Denso Corporation | Operating input device for reducing input error |
CN101650594A (zh) * | 2008-08-14 | 2010-02-17 | 宏碁股份有限公司 | 根据动态图像的控制方法 |
CN101727177A (zh) * | 2008-10-30 | 2010-06-09 | 深圳富泰宏精密工业有限公司 | 鼠标模拟系统及其应用方法 |
CN101730874A (zh) * | 2006-06-28 | 2010-06-09 | 诺基亚公司 | 基于免接触的手势的输入 |
US20100159981A1 (en) * | 2008-12-23 | 2010-06-24 | Ching-Liang Chiang | Method and Apparatus for Controlling a Mobile Device Using a Camera |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070031292A (ko) * | 2004-03-22 | 2007-03-19 | 아이사이트 모빌 테크놀로지 엘티디 | 사용자 명령을 프로세서에 입력하기 위한 시스템 및 방법 |
KR20070025138A (ko) * | 2005-08-31 | 2007-03-08 | 노성렬 | 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영프리젠테이션 시스템 및 그 방법 |
KR100962569B1 (ko) * | 2008-05-29 | 2010-06-11 | 고려대학교 산학협력단 | 손의 모양 변화에 기초하여 제어되는 가상 마우스 장치 및그 구동 방법 |
TW201020896A (en) * | 2008-11-19 | 2010-06-01 | Nat Applied Res Laboratories | Method of gesture control |
US8112719B2 (en) * | 2009-05-26 | 2012-02-07 | Topseed Technology Corp. | Method for controlling gesture-based remote control system |
US20120056901A1 (en) * | 2010-09-08 | 2012-03-08 | Yogesh Sankarasubramaniam | System and method for adaptive content summarization |
-
2010
- 2010-11-04 KR KR20100109198A patent/KR101169583B1/ko active IP Right Grant
-
2011
- 2011-10-31 CN CN2011800534963A patent/CN103201706A/zh active Pending
- 2011-10-31 WO PCT/KR2011/008210 patent/WO2012060598A2/ko active Application Filing
- 2011-10-31 US US13/883,441 patent/US20130229348A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060209021A1 (en) * | 2005-03-19 | 2006-09-21 | Jang Hee Yoo | Virtual mouse driving apparatus and method using two-handed gestures |
CN101730874A (zh) * | 2006-06-28 | 2010-06-09 | 诺基亚公司 | 基于免接触的手势的输入 |
US20080231608A1 (en) * | 2007-03-23 | 2008-09-25 | Denso Corporation | Operating input device for reducing input error |
CN101650594A (zh) * | 2008-08-14 | 2010-02-17 | 宏碁股份有限公司 | 根据动态图像的控制方法 |
CN101727177A (zh) * | 2008-10-30 | 2010-06-09 | 深圳富泰宏精密工业有限公司 | 鼠标模拟系统及其应用方法 |
US20100159981A1 (en) * | 2008-12-23 | 2010-06-24 | Ching-Liang Chiang | Method and Apparatus for Controlling a Mobile Device Using a Camera |
Also Published As
Publication number | Publication date |
---|---|
US20130229348A1 (en) | 2013-09-05 |
KR20120047556A (ko) | 2012-05-14 |
WO2012060598A3 (ko) | 2012-09-13 |
WO2012060598A2 (ko) | 2012-05-10 |
KR101169583B1 (ko) | 2012-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9939914B2 (en) | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface | |
KR102182607B1 (ko) | 가상 콘트롤러를 위한 손쓰임을 결정하는 방법 | |
JP2020119510A (ja) | フィンガーチップモーションパターンのリアルタイムのジェスチャへのオンデバイス分類 | |
US8768006B2 (en) | Hand gesture recognition | |
CN102662577B (zh) | 一种基于三维显示的光标操作方法及移动终端 | |
Lin et al. | Ubii: Physical world interaction through augmented reality | |
CN101673161B (zh) | 一种可视可操作无实体的触摸屏系统 | |
US20130222427A1 (en) | System and method for implementing interactive augmented reality | |
JP6259545B2 (ja) | 3dシーンでジェスチャーを入力するシステム及び方法 | |
US9904372B2 (en) | Method by which eyeglass-type display device recognizes and inputs movement | |
CN103201706A (zh) | 虚拟鼠标的驱动方法 | |
EP2364013B1 (en) | Information processing apparatus, method and program for imaging device | |
JP5703194B2 (ja) | ジェスチャ認識装置、その方法、及び、そのプログラム | |
CN106547356B (zh) | 智能交互方法和装置 | |
WO2014022490A1 (en) | Context-driven adjustment of camera parameters | |
KR20130105725A (ko) | 콘텐츠의 양 손 제어에 기반한 컴퓨터 비전 | |
CN103092334B (zh) | 虚拟鼠标驱动装置及虚拟鼠标仿真方法 | |
TW201514830A (zh) | 互動式操作方法 | |
CN102880304A (zh) | 用于便携设备的字符输入方法及装置 | |
Dai et al. | Touchscreen everywhere: On transferring a normal planar surface to a touch-sensitive display | |
CN111444764A (zh) | 一种基于深度残差网络的手势识别方法 | |
Liu et al. | Holoscopic 3D micro-gesture database for wearable device interaction | |
CN102375564A (zh) | 使用光学指示器的交互方法、光学指示器、展示方法和系统 | |
CN112486394A (zh) | 信息处理方法、装置、电子设备及可读存储介质 | |
KR101233793B1 (ko) | 손 동작 인식을 이용한 가상 마우스 구동 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130710 |