CN104808937A - 手势输入装置 - Google Patents

手势输入装置 Download PDF

Info

Publication number
CN104808937A
CN104808937A CN201410042275.1A CN201410042275A CN104808937A CN 104808937 A CN104808937 A CN 104808937A CN 201410042275 A CN201410042275 A CN 201410042275A CN 104808937 A CN104808937 A CN 104808937A
Authority
CN
China
Prior art keywords
infrared ray
sensing element
ray sensing
infrared
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410042275.1A
Other languages
English (en)
Inventor
蓝世杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Primax Electronics Ltd
Original Assignee
Primax Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Primax Electronics Ltd filed Critical Primax Electronics Ltd
Priority to CN201410042275.1A priority Critical patent/CN104808937A/zh
Priority to US14/286,662 priority patent/US20150212618A1/en
Publication of CN104808937A publication Critical patent/CN104808937A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明提供一种手势输入装置,包括一第一红外线光感测元件、一第二红外线光感测元件以及一控制单元。任一红外线光感测元件包括一红外线光源以及一影像感测器,红外线光源发射红外线光,而手指的多数血管吸收一波长范围内的红外线光,并反射波长范围外的红外线光至影像感测器以产生多个红外线影像。控制单元根据第一红外线光感测元件与一第二红外线光感测元件的多个红外线影像产生对应手指的移动的一位移信息以控制电脑。

Description

手势输入装置
技术领域
本发明关于手势输入装置的技术领域,尤其是涉及一种具有红外线光感测元件的手势输入装置的技术领域。
背景技术
为了使电子装置的操作更加简单与人性化,当前电子装置搭配手势输入装置以进行控制。手势输入装置辨识人类手部,特别是手指动作的各种变化,并根据不同的手指动作产生不同的手势讯号,藉以控制电子装置的各种功能。
举例来说,电容式触控装置利用使用者的手指与电场间产生的电容变化以辨识手指的位置,并根据手指位置的变化获得手指动作,如点击、滑动或旋转,再随着不同的手指动作产生相应的手势讯号至欲进行控制的电子装置。又或是,使用者的手部握持一辨识物或于手指上配戴辨识物,经由摄影装置捕捉使用者的影像以获得辨识物的位置,再根据辨识物位置的变化分析手部或手指动作,进而产生相对应的手势讯号。
然而,为了确保手势输入装置于判断手指动作的时具有较高的速度与精确度,目前常见的手势输入装置成本偏高,导致手势输入装置无法顺利普及应用于平价电子装置中。因此,为了改善上述问题,需要一种可改善现有技术缺点的手势输入装置。
发明内容
为解决上述问题,本发明提供一种低成本的手势输入装置。
依据上述,本发明提供一种手势输入装置,用以输入一手势讯号至一电脑,包括:
一操作板体;
一第一红外线光感测元件以及一第二红外线光感测元件,设置于操作板体上,用以侦测一使用者的一手指的移动,其中第一红外线光感测元件与第二红外线光感测元件位于同一列,任一红外线光感测元件包括:
一红外线光源,用以发射可被手指的多数血管吸收的红外线光,其中红外线光源发射红外线光至手指,使手指的多数血管吸收一波长范围内的红外线光并反射波长范围外的红外线光;以及
一影像感测器,用以接收手指反射的红外线光,并产生多个红外线影像;以及
一控制单元,连接于第一红外线光感测元件以及第二红外线光感测元件,其中,当手指由第一红外线光感测元件移动至第二红外线光感测元件时,第一红外线光感测元件与第二红外线光感测元件分别产生多个红外线影像,而控制单元根据多个红外线影像产生对应手指的移动的一位移信息以控制电脑。
为了能进一步了解本发明为达成预定目的所采取的技术、手段及功效,请参阅以下有关本发明的详细说明及附图。本发明的目的、特征或特点,当可由此得到一深入且具体的了解,然而所附附图仅提供参考与说明之用,并非用以对本发明加以限制者。
附图说明
图1为本发明的第一实施例的手势输入装置与电脑的示意图。
图2为本发明的第一实施例的手势输入装置的方块图。
图3为本发明的第一红外线光感测元件的示意图。
图4为本发明的第二实施例的手势输入装置与电脑的示意图。
图5为本发明的第二实施例的手势输入装置的方块图。
图6为本发明的第三实施例的手势输入装置与电脑的示意图。
图7为本发明的第三实施例的手势输入装置的方块图。
图8为本发明的第三实施例的手势输入装置与手指的示意图。
图9为本发明的第三实施例的游标动作示意图。
图10为本发明的第四实施例的手势输入装置与电脑的示意图。
图11为本发明的第四实施例的手势输入装置的方块图。
具体实施方式
请参阅图1,图1为本发明的第一实施例的手势输入装置与电脑的示意图。如图1所示,手势输入装置10利用一现有连接方式连接于电脑20,用以输入一手势讯号以控制电脑20,其中连接方式可选用有线连接方式或无线连接方式进行连接。有线连接方式可为USB连接线、MicroUSB连接线或其他现有的连接线,而无线连接方式可为射频、红外线、蓝牙或IEEE802.11等现有无线通讯。于本较佳实施例中,手势输入装置10指一触控板或一触控屏幕,而电脑20以一笔记型电脑为例,且手势输入装置10与电脑20通过一USB连接线21互相连接,但并不以此为限。
请一并参阅图2,图2为本发明的第一实施例的手势输入装置的方块图。如图1与图2所示,手势输入装置10包括一操作板体11、一第一红外线光感测元件12、一第二红外线光感测元件13以及一控制单元14。操作板体11为一平坦板体,用以供使用者放置手部,例如手掌,以减轻使用者操作手势输入装置10所产生的疲劳,但并不应以此为限。于其他较佳实施例中,操作板体11可为一倾斜板体、一外突弧形板体或一内凹弧形板体,以符合人体工学或提供使用者不同的使用需求。
第一红外线光感测元件12与第二红外线光感测元件13设置于操作板体11的上表面,用以侦测使用者的一手指位于操作板体11上方的移动。于本较佳实施例中,第一红外线光感测元件12与第二红外线光感测元件13位于同一列,而以左右并排的方式排列于操作板体11上。如图1所示,第一红外线光感测元件12位于操作板体11偏左侧的上表面,而第二红外线光感测元件13位于操作板体11偏右侧的上表面。
第一红外线光感测元件12包括一红外线光源121以及一影像感测器122,而第二红外线光感测元件13包括一红外线光源131以及一影像感测器132。控制单元14设置于操作板体11中,并且电性连接于第一红外线光感测元件12与第二红外线光感测元件13,用以接收第一红外线光感测元件12与第二红外线光感测元件13产生的讯号,并依据第一红外线光感测元件12与第二红外线光感测元件13的讯号产生相对应的手势讯号。控制单元14产生手势讯号后,手势讯号将经由USB连接线21传送至电脑20,以达到控制电脑20的目的。
关于红外线光感测元件侦测使用者手指的过程将于下文说明。请先参阅图3,图3为本发明的第一红外线光感测元件的示意图。如图3所示,红外线光源121以及影像感测器122设置于第一红外线光感测元件12中。红外线光源121可为常见的红外线发光二极体,用以产生波长范围为700奈米至10毫米之间的红外线光L1,并使红外线光L1照射至使用者的手指F。影像感测器122可为常见的感光耦合元件(Charge Coupled Device,CCD),用以接收使用者的手指F所反射的红外线光L2,并依据反射的红外线光L2产生影像。
更详细的说,由于人体血管中的血液含有血红素,且血红素具有吸收一特定波长范围(700奈米至1000奈米之间)的红外线光的物理特性。因此,当波长范围为700奈米至10毫米之间的红外线光L1照射使用者的手指F时,波长范围为700奈米至1000奈米之内的红外线光将被手指F中的多数血管吸收,而波长范围为700奈米至1000奈米之外的红外线光L2因不被手指F中的多数血管吸收,因而被反射至影像感测器122,进而被影像感测器122所撷取。
影像感测器122接收手指F反射的红外线光L2后,每秒产生n侦多个红外线影像,并将多个红外线影像依序传送至控制单元14。当n值越大,影像感测器122每秒产生的红外线影像越多,因此红外线光感测元件12的灵敏度越高。由于第一红外线光感测元件12与第二红外线光感测元件13的工作原理相同,因此关于第二红外线光感测元件13侦测使用者手指的过程将不再赘述。
控制单元14接收来自第一红外线光感测元件12与第二红外线光感测元件13的多个红外线影像后,将利用现有影像辨识方法分析多个红外线影像以判断手指F出现的时间与顺序,进而获得手指F移动的一位移信息。
详细的说,当使用者的手指F(如图3)以接触或非接触于操作板体11的方式,由第一红外线光感测元件12移动至第二红外线光感测元件13,进而产生X轴方向移动的手势时,手指F会先出现在第一红外线光感测元件12产生的多个红外线影像中,再出现于第二红外线光感测元件13产生的多个红外线影像中。
控制单元14接收第一红外线光感测元件12与第二红外线光感测元件13的多个红外线影像后,将分析多个红外线影像而判断手指F的位移信息为由左至右。接着,控制单元14依据所得的位移信息产生相对应的手势讯号至电脑20,进而达到控制电脑20的目的。由于分析多个红外线影像的方法与现有影像分析方法相同,于此不再赘述。
反之,若手指F由第二红外线光感测元件13移动至第一红外线光感测元件12,则控制单元14接收第一红外线光感测元件12与第二红外线光感测元件13的多个红外线影像,并根据多个红外线影像判断手指F的位移信息为由右至左。接着,控制单元14将产生相对应的手势讯号至电脑20。
上述手势讯号所对应的控制功能可由手势输入装置10中的控制单元14定义,或由电脑20中的程式定义,用以控制电脑20常见的控制功能,例如控制音量大小、翻页方向或视窗卷轴的卷动方向,但并不以此为限。举例来说,当位移信息为由左至右时,手势讯号可以控制电脑20使电脑20的音量增加、电脑20屏幕显示的影像向右翻页或是电脑20屏幕显示的视窗卷轴由左向右方向卷动;当位移信息为由右至左时,手势讯号可以控制电脑20使电脑20的音量减少、电脑20屏幕显示的影像向左翻页或是电脑20屏幕显示的视窗卷轴由右向左的卷动。于本较佳实施例中,手势讯号控制电脑20的音量大小。
接着说明本发明的第二实施例。请参阅图4,图4为本发明的第二实施例的手势输入装置与电脑的示意图。如图4所示,手势输入装置30通过USB连接线41连接于电脑40,用以输入一手势讯号以控制电脑40。于本较佳实施例中,手势输入装置30为一触控滑鼠。第二实施例中的手势输入装置30与图1~图3中的手势输入装置10大致相同,不同之处在于红外线光感测元件的数量与排列方式。
请一并参阅图5,图5为本发明的第二实施例的手势输入装置的方块图。如图4与图5所示,手势输入装置30包括一操作板体31、一第一红外线光感测元件32、一第二红外线光感测元件33、一第三红外线光感测元件34、一第四红外线光感测元件35以及一控制单元36。为了让使用者握持触控滑鼠更加便利与舒适,操作板体31选用一外突弧形板体,以供使用者放置手掌。
第一红外线光感测元件32、第二红外线光感测元件33、第三红外线光感测元件34以及第四红外线光感测元件35分别设置于操作板体31的上表面,用以侦测使用者的一手指位于操作板体31上方的移动。于本较佳实施例中,第一红外线光感测元件32与第二红外线光感测元件33位于同一列,而以左右并排的方式排列于操作板体31上;第三红外线光感测元件34与第四红外线光感测元件35位于同一行,因而以上下并排的方式排列于操作板体31上。如图4所示,第一红外线光感测元件32、第二红外线光感测元件33及第四红外线光感测元件35位于操作板体31偏下端的上表面,而第三红外线光感测元件34位于操作板体31偏上端的上表面。此外,第一红外线光感测元件32、第四红外线光感测元件35及第二红外线光感测元件33依序由左向右排列。
第一红外线光感测元件32包括一红外线光源321以及一影像感测器322,第二红外线光感测元件33包括一红外线光源331以及一影像感测器332,第三红外线光感测元件34包括一红外线光源341以及一影像感测器342,而第四红外线光感测元件35包括一红外线光源351以及一影像感测器352。
控制单元36设置于操作板体31中,并且电性连接于第一红外线光感测元件32、第二红外线光感测元件33、第三红外线光感测元件34以及第四红外线光感测元件35,用以接收第一红外线光感测元件32、第二红外线光感测元件33、第三红外线光感测元件34以及第四红外线光感测元件35产生的讯号,并依据第一红外线光感测元件32、第二红外线光感测元件33、第三红外线光感测元件34以及第四红外线光感测元件35的讯号产生相对应的手势讯号,以达到控制电脑40的目的。
红外线光源321、331、341、351产生红外线以照射使用者的手指,而影像感测器322、332、342、352接收手指所反射的红外线光,并产生多个红外线影像以获得手指的移动的一位移信息。由于第二实施例的红外线光感测元件的作动原理与图1~图3的红外线光感测元件的作动原理无异,因此对于红外线光感测元件将不再赘述。
当使用者的手指以接触或非接触于操作板体31的方式,由第一红外线光感测元件32移动至第二红外线光感测元件33,进而产生X轴方向移动的手势时,手指会先出现在第一红外线光感测元件32产生的多个红外线影像中,再出现于第二红外线光感测元件33产生的多个红外线影像中。
控制单元36接收来自第一红外线光感测元件32与第二红外线光感测元件33的多个红外线影像后,将利用现有影像辨识方法分析多个红外线影像,以判断手指的位移信息为由左至右。接着,控制单元36依据所得的位移信息产生相对应的手势讯号至电脑40,进而达到控制电脑40的目的。
另一方面,当使用者的手指以接触或非接触于操作板体31的方式,由第三红外线光感测元件34移动至第四红外线光感测元件35,进而产生Y轴方向移动的手势时,手指会先出现在第三红外线光感测元件34产生的多个红外线影像中,再出现于第四红外线光感测元件35产生的多个红外线影像中。
控制单元36接收第三红外线光感测元件34与第四红外线光感测元件35的多个红外线影像后,将分析多个红外线影像而判断手指的位移信息为由上至下。接着,控制单元36依据所得的位移信息产生相对应的手势讯号至电脑40,进而达到控制电脑40的目的。
同理,当使用者的手指以接触或非接触于操作板体31的方式,由第二红外线光感测元件33移动至第一红外线光感测元件32,控制单元36判断手指的位移信息为由右至左,并产生相对应的手势讯号至电脑40;当使用者的手指以接触或非接触于操作板体31的方式,由第四红外线光感测元件35移动至第三红外线光感测元件34,控制单元36判断手指的位移信息为由下至上,并产生相对应的手势讯号至电脑40。
上述手势讯号所对应的控制功能可由手势输入装置30中的控制单元36定义,或由电脑40中的程式定义,用以控制电脑40常见的控制功能,例如游标移动,但并不以此为限。
举例来说,当位移信息为由左至右时,手势讯号可以控制电脑40屏幕中的游标42沿着X轴方向向右方移动;反之,位移信息为由右至左时,手势讯号可以控制电脑40屏幕中的游标42沿着X轴方向向左方移动;当位移信息为由上至下时,手势讯号可以控制电脑40屏幕中的游标42沿着Y轴方向向下方移动;反之,位移信息为由下至上时,手势讯号可以控制电脑40屏幕中的游标42沿着Y轴方向向上方移动。
接着说明本发明的第三实施例。请参阅图6,图6为本发明的第三实施例的手势输入装置与电脑的示意图。如图6所示,手势输入装置50通过USB连接线61连接于电脑60,用以输入一手势讯号以控制电脑60。于本较佳实施例中,手势输入装置50为一触控滑鼠,用以控制电脑60的游标移动,但并不以此为限。第三实施例中的手势输入装置50与图4、图5中的手势输入装置30大致相同,不同之处在于增设一第五红外线感测元件。
请一并参阅图7,图7为本发明的第三实施例的手势输入装置的方块图。如图6与图7所示,手势输入装置50包括一操作板体51、一第一红外线光感测元件52、一第二红外线光感测元件53、一第三红外线光感测元件54、一第四红外线光感测元件55、一第五红外线感测元件56以及一控制单元57。为了让使用者握持触控滑鼠更加便利与舒适,操作板体51选用一外突弧形板体,以供使用者放置手掌。
第一红外线光感测元件52、第二红外线光感测元件53、第三红外线光感测元件54、第四红外线光感测元件55以及第五红外线光感测元件分别设置于操作板体51的上表面。其中,第一红外线光感测元件52、第二红外线光感测元件53、第三红外线光感测元件54、第四红外线光感测元件55用以侦测使用者的一手指位于操作板体51上方的移动,而第五红外线光感测元件56用以侦测手指相对于第五红外线光感测元件56于垂直操作板体51方向的距离。
于本较佳实施例中,第一红外线光感测元件52与第二红外线光感测元件53位于同一列,因而以左右并排的方式排列于操作板体51上;第三红外线光感测元件54与第四红外线光感测元件55位于同一行,因而以上下并排的方式排列于操作板体51上。如图6所示,第三红外线光感测元件54设置于操作板体51偏上端的上表面,第四红外线光感测元件55设置于操作板体51偏下端的上表面。第一红外线光感测元件52、第二红外线光感测元件53、第五红外线感测元件56则设于第三红外线光感测元件54与第四红外线光感测元件55之间,且第一红外线光感测元件52、第五红外线感测元件56以及第二红外线光感测元件53依序由左向右排列。
承上所述,第五红外线光感测元件56被环设于第一红外线光感测元件52、第二红外线光感测元件53、第三红外线光感测元件54与第四红外线光感测元件55之间。然而,第五红外线光感测元件56的设置位置并不以此为限。
第一红外线光感测元件52包括一红外线光源521以及一影像感测器522,第二红外线光感测元件53包括一红外线光源531以及一影像感测器532,第三红外线光感测元件54包括一红外线光源541以及一影像感测器542,第四红外线光感测元件55包括一红外线光源551以及一影像感测器552,而第五红外线光感测元件56包括一红外线光源561以及一影像感测器562。由于第三实施例的第一~第五红外线光感测元件与图4、图5的第一~第四红外线光感测元件无异,因此关于红外线光感测元件侦测使用者手指的原理将不再赘述。
控制单元57设置于操作板体51中,并且电性连接于第一红外线光感测元件52、第二红外线光感测元件53、第三红外线光感测元件54、第四红外线光感测元件55以及第四红外线光感测元件56,用以接收第一红外线光感测元件52、第二红外线光感测元件53、第三红外线光感测元件54、第四红外线光感测元件55以及第五红外线光感测元件56的讯号,并产生相对应的手势讯号以控制电脑60。上述手势讯号所对应的控制功能可由手势输入装置50中的控制单元57定义,或由电脑60中的程式定义,用以控制电脑60常见的控制功能,例如游标移动,但并不以此为限。
请一并参阅图8与图9,图8为本发明的第三实施例的手势输入装置与手指的示意图,图9为本发明的第三实施例的游标动作示意图。如图8与图9所示,当使用者的手指F以接触或非接触于操作板体51的方式,由第三红外线光感测元件54移动一距离ΔA至第四红外线光感测元件55,进而产生Y轴方向移动的手势时,使用者的手指F将经过第五红外线感测元件56。因此,手指F会先出现在第三红外线光感测元件54产生的多个红外线影像中,再出现于第五红外线感测元件56产生的多个红外线影像中,最后再出现于第四红外线光感测元件55产生的多个红外线影像中。
控制单元57接收来自第三红外线光感测元件54、第四红外线光感测元件55与第五红外线感测元件56的多个红外线影像后,将利用现有影像辨识方法分析第三红外线光感测元件54与第四红外线光感测元件55的多个红外线影像而判断手指F的位移信息为由上至下。同时,控制单元57分析第五红外线感测元件56的多个红外线影像,藉以判断手指F与第五红外线光感测元件56之间的距离d。
控制单元57依据获得的位移信息与手指F与第五红外线光感测元件56之间的距离d决定位移信息的单次移动数量,并产生相对应的手势讯号至电脑60,进而达到控制电脑60的目的。举例来说,当手指F以Y轴方向由第三红外线光感测元件54移动距离ΔA至第四红外线光感测元件55(位移信息为由上至下),若手指F与第五红外线感测元件56之间的距离d越大,则电脑60的游标62于Y轴方向的往下移动距离ΔB越大;反之,若手指F与第五红外线感测元件56之间的距离d越小,则电脑60的游标62于Y轴方向的往下移动距离ΔB越小。
另一方面,如图6所示,当使用者的手指F以接触或非接触于操作板体51的方式,由第一红外线光感测元件52移动至第二红外线光感测元件53,进而产生X轴方向移动的手势时,使用者的手指F将经过第五红外线感测元件56。因此,手指F会先出现在第一红外线光感测元件52产生的多个红外线影像中,再出现于第五红外线感测元件56产生的多个红外线影像中,最后再出现于第二红外线光感测元件53产生的多个红外线影像中。
控制单元57接收来自第一红外线光感测元件52、第二红外线光感测元件53与第五红外线感测元件56的多个红外线影像后,将利用现有影像辨识方法分析第一红外线光感测元件52与第二红外线光感测元件53的多个红外线影像而判断手指F的位移信息为由左至右。接着,控制单元57分析第五红外线感测元件56的多个红外线影像以判断手指F与第五红外线光感测元件56之间的距离d(如图8)。
控制单元57依据获得的位移信息与手指F与第五红外线光感测元件56之间的距离d决定位移信息的单次移动数量,并产生相对应的手势讯号至电脑60,进而达到控制电脑60的游标62以X轴方向移动的距离。由于控制游标62以X轴方向移动的方式与上述控制游标62以Y轴方向移动的方式相同,于此将不再赘述。
接着说明本发明的第四实施例。请参阅图10,图10为本发明的第四实施例的手势输入装置与电脑的示意图。如图10所示,手势输入装置70通过一蓝牙无线通讯模组(图中未示)连接于电脑80,用以输入一手势讯号以控制电脑80。于本较佳实施例中,手势输入装置70为一触控键盘,用以控制电脑80的屏幕所呈现的一图像P,但并不以此为限。第四实施例中的手势输入装置70与图1~图3中的手势输入装置10大致相同,最大不同在于红外线光感测元件的数量以及手势讯号的控制功能。
请一并参阅图11,图11为本发明的第四实施例的手势输入装置的方块图。如图10与图11所示,手势输入装置70包括一操作板体71、一第一红外线光感测元件72、一第二红外线光感测元件73、一第三红外线光感测元件74以及一控制单元75。操作板体71为触控键盘的上壳体,用以供使用者放置手部。
第一红外线光感测元件72、第二红外线光感测元件73以及第三红外线光感测元件74分别设置于操作板体71的上表面,用以侦测使用者的一手指位于操作板体71上方的移动。于本较佳实施例中,第一红外线光感测元件72与第二红外线光感测元件73位于同一列,因而以左右并排的方式排列于操作板体71上,如图10所示,第一红外线光感测元件72设置于第二红外线光感测元件73的左侧。第三红外线光感测元件74设置于第一红外线光感测元件72与第二红外线光感测元件73的上侧。
第一红外线光感测元件72包括一红外线光源721以及一影像感测器722,第二红外线光感测元件73包括一红外线光源731以及一影像感测器732,而第三红外线光感测元件74包括一红外线光源741以及一影像感测器742。红外线光源721、731、741产生红外线以照射使用者的手指,而影像感测器722、732、742接收手指所反射的红外线光,并产生多个红外线影像以获得手指的移动的一位移信息。由于第四实施例的红外线光感测元件与图1~图3的红外线光感测元件无异,因此关于红外线光感测元件侦测使用者手指的原理将不再赘述。
控制单元75设置于操作板体71中,并且电性连接于第一红外线光感测元件72、第二红外线光感测元件73以及第三红外线光感测元件74,用以接收第一红外线光感测元件72、第二红外线光感测元件73以及第三红外线光感测元件74,并产生相对应的手势讯号以控制电脑80。
当使用者的手指以接触或非接触于操作板体71的方式,由第一红外线光感测元件72移动至第二红外线光感测元件73,进而产生X轴方向移动的手势时,手指F会先出现在第一红外线光感测元件72产生的多个红外线影像中,再出现于第二红外线光感测元件73产生的多个红外线影像中。控制单元75接收第一红外线光感测元件72与第二红外线光感测元件73的多个红外线影像后,分析多个红外线影像而判断手指的位移信息为由左至右。接着,控制单元75依据所得的位移信息产生相对应的手势讯号至电脑80,进而达到控制电脑80的目的。
上述手势讯号所对应的控制功能可由手势输入装置70中的控制单元75定义,或由电脑80中的程式定义,用以控制电脑80常见的控制功能,例如音量大小、翻页方向、视窗卷轴的卷动方向或游标移动方向,但并不以此为限。
然而,当使用者的手指(如右手食指)由第一红外线光感测元件72移动至第二红外线光感测元件73,且使用者的另一手指(如左手食指)静止于第三红外线光感测元件74上方时,第三红外线光感测元件74持续产生左手食指的多个红外线影像,而右手食指会先出现于第一红外线光感测元件72产生的多个红外线影像中,再出现于第二红外线光感测元件73产生的多个红外线影像中。
控制单元75接收第一红外线光感测元件72、第二红外线光感测元件73与第三红外线感测元件74的多个红外线影像后,将利用现有影像辨识方法分析第一红外线光感测元件72与第二红外线光感测元件73的多个红外线影像而判断右手食指的位移信息为由左至右。同时,控制单元75分析第三红外线感测元件74的多个红外线影像以获得使用者的左手食指的位置信息,藉以判断使用者的左手食指是否持续停留于第三红外线感测元件74的上方。若是,则控制单元75将获得左手食指的位置信息,并根据右手食指的位移信息与左手食指的位置信息产生相对应的手势讯号,藉以控制电脑80。
举例来说,当使用者的右手手指由第一红外线光感测元件72移动至第二红外线光感测元件73,且使用者的左手食指持续静止于第三红外线感测元件74的上方,则控制单元75产生手势讯号以控制电脑80的屏幕中呈现的图像P的尺寸放大。反之,当使用者的右手手指由第二红外线光感测元件73移动至第一红外线光感测元件72,且使用者的左手食指持续静止于第三红外线感测元件74的上方,则控制单元75产生手势讯号以控制电脑80的屏幕中呈现的图像P的尺寸缩小。
于本较佳实施例中,图像P的放大或缩小为等比例的缩放,但并不以此为限。甚者,控制单元75产生手势讯号亦可用以控制其他电脑80中常见的控制功能,例如控制图像P的旋转方向、控制电脑80中多媒体的播放进度或是控制电脑80中音乐播放的曲目。
以上所述仅为本发明的较佳实施例,并非用以限定本发明的权利要求范围,因此凡其他未脱离本发明所揭示的构思下所完成的等效改变或修饰,均应包含于本发明的范围内。

Claims (9)

1.一种手势输入装置,用以输入一手势讯号至一电脑,包括:
一操作板体;
一第一红外线光感测元件以及一第二红外线光感测元件,设置于该操作板体上,用以侦测一使用者的一手指的移动,其中该第一红外线光感测元件与该第二红外线光感测元件位于同一列,任一该红外线光感测元件包括:
一红外线光源,用以发射可被手指的多数血管吸收的红外线光,其中该红外线光源发射该红外线光至该手指,使该手指的多数血管吸收一波长范围内的该红外线光并反射该波长范围外的该红外线光;以及
一影像感测器,用以接收该手指反射的该红外线光,并产生多个红外线影像;以及
一控制单元,连接于该第一红外线光感测元件以及该第二红外线光感测元件,其中,当该手指由该第一红外线光感测元件移动至该第二红外线光感测元件时,该第一红外线光感测元件与该第二红外线光感测元件分别产生该多个红外线影像,而该控制单元根据该多个红外线影像产生对应该手指的移动的一位移信息以控制该电脑。
2.如权利要求1所述的手势输入装置,其中该手指的移动为于X轴方向移动的手势,用以控制该电脑的一音量大小、一翻页方向或一视窗卷轴的卷动。
3.如权利要求1所述的手势输入装置,还包括一第三红外线光感测元件以及一第四红外线光感测元件设置于该操作板体上,用以侦测该手指的一另一移动,该第三红外线光感测元件以及该第四红外线光感测元件设置于同一行,当该手指由该第三红外线光感测元件移动至该第四红外线光感测元件时,该第三红外线光感测元件与该第四红外线光感测元件分别产生该多个红外线影像,而该控制单元根据该多个红外线影像产生对应该手指的该另一移动的一另一位移信息以控制该电脑。
4.如权利要求3所述的手势输入装置,其中该另一移动为于Y轴方向移动的手势。
5.如权利要求3所述的手势输入装置,其中该第一红外线光感测元件及该第二红外线光感测元件用以控制该电脑的一游标于X轴方向的移动,该第三红外线光感测元件及该第四红外线光感测元件用以控制该电脑的该游标于Y轴方向的移动。
6.如权利要求3所述的手势输入装置,还包括一第五红外线光感测元件设置于该操作板体上,用以侦测该手指相对于该第五红外线光感测元件于垂直该操作板体方向的距离,该控制单元依据该距离的大小决定该位移信息与该另一位移信息的单次移动数量。
7.如权利要求1所述的手势输入装置,更包括一第三红外线光感测元件,当该手指由该第一红外线光感测元件移动至该第二红外线光感测元件,且该使用者的一另一手指静止于该第三红外线光感测元件上方时,该第一、该第二及该第三红外线光感测元件分别产生该多个红外线影像至该控制单元,而该控制单元根据该多个红外线影像获得该手指的该位移信息以及该另一手指的一位置信息,并依据该位移信息及该位置信息控制该电脑。
8.如权利要求7所述的手势输入装置,其中该位移信息及该位置信息用以控制该电脑的一图像的放大或缩小。
9.如权利要求1所述的手势输入装置,其中该手势输入装置应用于一触控滑鼠、一触控键盘、一触控板或一触控屏幕。
CN201410042275.1A 2014-01-28 2014-01-28 手势输入装置 Pending CN104808937A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201410042275.1A CN104808937A (zh) 2014-01-28 2014-01-28 手势输入装置
US14/286,662 US20150212618A1 (en) 2014-01-28 2014-05-23 Gesture input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410042275.1A CN104808937A (zh) 2014-01-28 2014-01-28 手势输入装置

Publications (1)

Publication Number Publication Date
CN104808937A true CN104808937A (zh) 2015-07-29

Family

ID=53679014

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410042275.1A Pending CN104808937A (zh) 2014-01-28 2014-01-28 手势输入装置

Country Status (2)

Country Link
US (1) US20150212618A1 (zh)
CN (1) CN104808937A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040104894A1 (en) * 2002-12-03 2004-06-03 Yujin Tsukada Information processing apparatus
CN101124532A (zh) * 2004-12-20 2008-02-13 京士贝利山福克斯有限公司 计算机输入设备
US20090143688A1 (en) * 2007-12-03 2009-06-04 Junichi Rekimoto Information processing apparatus, information processing method and program
US20100134425A1 (en) * 2008-12-03 2010-06-03 Microsoft Corporation Manipulation of list on a multi-touch display
CN102884499A (zh) * 2010-03-26 2013-01-16 诺基亚公司 用于基于接近的输入的装置和方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040104894A1 (en) * 2002-12-03 2004-06-03 Yujin Tsukada Information processing apparatus
CN101124532A (zh) * 2004-12-20 2008-02-13 京士贝利山福克斯有限公司 计算机输入设备
US20090143688A1 (en) * 2007-12-03 2009-06-04 Junichi Rekimoto Information processing apparatus, information processing method and program
US20100134425A1 (en) * 2008-12-03 2010-06-03 Microsoft Corporation Manipulation of list on a multi-touch display
CN102884499A (zh) * 2010-03-26 2013-01-16 诺基亚公司 用于基于接近的输入的装置和方法

Also Published As

Publication number Publication date
US20150212618A1 (en) 2015-07-30

Similar Documents

Publication Publication Date Title
US11775076B2 (en) Motion detecting system having multiple sensors
JP4751422B2 (ja) 多モード切り替え機能付き入力装置および電子システム
CN102789332B (zh) 于触控面板上识别手掌区域方法及其更新方法
CN102662462B (zh) 电子装置、手势识别方法及手势应用方法
US20170147085A1 (en) Keyboard with touch sensitive element
CN103686283B (zh) 一种智能电视遥控器人机交互方法
US20060028457A1 (en) Stylus-Based Computer Input System
EP3690621A1 (en) Identification method and apparatus for touch operation, and electronic device
TW201432520A (zh) 操作方法以及電子裝置
US9430039B2 (en) Apparatus for controlling virtual mouse based on hand motion and method thereof
KR101452343B1 (ko) 웨어러블 디바이스
KR101328385B1 (ko) 접촉식 손가락 마우스 및 이의 동작 방법
CN105589588B (zh) 触控系统、触控笔、触控装置及其控制方法
CN103164160A (zh) 一种左右手交互装置及方法
KR200477008Y1 (ko) 마우스 겸용 스마트폰
CN1828499A (zh) 一种触控式信息输入装置及方法
KR102145824B1 (ko) 스마트 터치패드 인터페이스 방법 및 그 장치
JP6411067B2 (ja) 情報処理装置及び入力方法
KR20140083300A (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
KR20130090210A (ko) 입력 장치
CN104808937A (zh) 手势输入装置
CN211479080U (zh) 输入设备
KR101436588B1 (ko) 멀티 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
US11287897B2 (en) Motion detecting system having multiple sensors
WO2020078223A1 (zh) 输入设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20150729

WD01 Invention patent application deemed withdrawn after publication