CN104978018B - 触控系统及触控方法 - Google Patents
触控系统及触控方法 Download PDFInfo
- Publication number
- CN104978018B CN104978018B CN201410179150.3A CN201410179150A CN104978018B CN 104978018 B CN104978018 B CN 104978018B CN 201410179150 A CN201410179150 A CN 201410179150A CN 104978018 B CN104978018 B CN 104978018B
- Authority
- CN
- China
- Prior art keywords
- touch
- electronic device
- straight line
- image acquisition
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 14
- 230000033001 locomotion Effects 0.000 claims abstract description 18
- 230000002045 lasting effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 6
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
Abstract
本发明提供一种触控系统,包括:至少二个影像撷取单元,用以持续撷取一使用者的多张手部影像;以及一电子装置,耦接至该等影像撷取单元,用以由该等手部影像识别出一目标对象,并检测该目标对象在一操作空间中的移动动作,其中该电子装置包括一显示单元,且该操作空间包括一虚拟触控平面,其中,当该目标对象于一虚拟触控点接触该虚拟触控平面时,该电子装置产生一触控信号,并在该显示单元中相应于该虚拟触控点的位置进行相应的一触控操作。
Description
技术领域
本发明是有关于影像处理,特别是有关于利用影像识别手势动作以进行触控操作的触控系统及其触控方法。
背景技术
随着科技进步,使用配备有照相机的电子装置以识别手势动作已愈来愈普遍。除此之外,若电子装置的屏幕具备有触控功能,则其成本往往会大幅提高。因此,需要一种可利用照相机以识别手势动作的触控系统,可在屏幕不具有触控功能时,仍能进行触控操作,藉以提升使用的便利性及降低成本。
发明内容
本发明提供一种触控系统,包括:至少二个影像撷取单元,用以持续撷取一使用者的多张手部影像;以及一电子装置,耦接至该等影像撷取单元,用以由该等手部影像识别出一目标对象,并检测该目标对象在一操作空间中的移动动作,其中该电子装置包括一显示单元,且该操作空间包括一虚拟触控平面,其中,当该目标对象于一虚拟触控点接触该虚拟触控平面时,该电子装置产生一触控信号,并在该显示单元中相应于该虚拟触控点的位置进行相应的一触控操作。
本发明还提供一种触控方法,用于一触控系统,其中该触控系统包括至少二个影像撷取单元及一电子装置。该触控方法包括:利用该等影像撷取单元持续撷取一使用者的多张手部影像;由该等手部影像识别出一目标对象,并检测该目标对象在一操作空间中的移动动作,其中该电子装置包括一显示单元,且该操作空间包括一虚拟触控平面;以及当该目标对象于一虚拟触控点接触该虚拟触控平面时,利用该电子装置产生一触控信号,并在该显示单元中相应于该虚拟触控点的位置进行相应的一触控操作。
附图说明
图1是本发明的一实施例中的触控系统100的功能方块图。
图2是显示依据本发明一实施例中使用手势动作进行操作的三维空间的示意图。
图3A-3H是显示依据本发明不同实施例中的电子装置120及影像撷取单元110的位置的示意图。
图4A及4B是显示依据本发明一实施例中使用影像撷取单元进行位置校正的示意图。
图5是显示依据本发明一实施例中的空间定位方法的流程图。
图6是显示依据本发明一实施例中的计算指尖的空间坐标的示意图。
图7是显示依据本发明一实施例中计算两直线的公垂线中点的示意图。
图8A及8B是显示依据本发明不同实施例中设定虚拟触控平面的示意图。
[标号说明]
100~触控系统; 110~影像撷取单元;
111~接收器; 112~发射器;
120~电子装置; 121~显示单元;
122~键盘; 200~操作空间;
210~触控区域; 220~手势区域;
230~虚拟触控平面; 250、260~射线;
400~操作空间; 410、420、430~平面;
L1、L2~空间直线; A1、A1’、A2、A2’、B1、B2~点。
具体实施方式
为使本发明的上述目的、特征和优点能更明显易懂,下文特举一较佳实施例,并配合所附图式,作详细说明如下。
图1是本发明的一实施例中的触控系统100的功能方块图。如图1所示,触控系统100包括至少2个影像撷取单元110、一电子装置120。影像撷取单元110用以撷取在电子装置120前的使用者的影像。举例来说,影像撷取单元110可为红外线镜头、但本发明并不限于此。每个影像撷取单元110亦包括一接收器111及一发射器112,其中接收器111例如是CMOS传感器,发射器112例如是红外线发射器(Infrared emitter)。举例来说,接收器111可检测由发射器112所发射而遇到物体折射或反射的红外线,藉以产生一检测信号。
电子装置120耦接至影像撷取单元110,用以分析来自影像撷取单元110的检测信号以取得使用者的手势动作。在一实施例中,电子装置120例如可为一个人计算机(例如:桌上型计算机、一笔记本型计算机、一体成型(All-in-one)计算机等等)、电视、游戏主机、或显示器等等,且本发明中的影像撷取单元110所安装的位置可视电子装置120的类型及结构而变化(其细节将详述于后)。在一些实施例中,电子装置还包括一显示单元121,其中显示单元121可为不具有触控模块的屏幕或显示器。在一些实施例中,影像撷取单元110所安装的位置可不在电子装置120或其外围装置上,例如影像撷取单元110可安装于桌面或是任何可拍摄使用者手部的位置。
图2是显示依据本发明一实施例中使用手势动作进行操作的三维空间的示意图。如图2所示,电子装置120例如是一笔记本型计算机,电子装置120将显示单元121前的操作空间200分为一触控区域210及一手势区域220,其中触控区域210及手势区域220之间是由一虚拟触控平面(virtual touch plane)230所分隔。除此之外,影像撷取单元110所检测的区域范围及视角(field of view)可事先调整,意即由影像撷取单元110往外延展的射线250及260之间的区域,其中该区域包括虚拟触控平面230,且射线260的位置最远可涵盖显示单元121的表面,意即操作空间200可包含显示单元121的表面。例如使用者的手掌在电子装置120的键盘122上进行操作时,此时可事先设定影像撷取单元110所检测的区域以避免检测到使用者的手部而造成误判。
更进一步而言,电子装置120分析来自影像撷取单元的检测信号,藉以取得使用者的手部位置。在一实施例中,处理单元120手势动作可再分为手掌动作及手指动作。当手部位置位于手势区域220时,电子装置120即会将使用者的手部动作均视为手掌的手势动作,且使用者可通过手势来操控电子装置100。举例来说,利用手势挥动进行换页、浏览、旋转等动作。若电子装置120为电视时,使用者可利用手势挥动操控屏幕的切换频道/切换功能首页/音量调整等功能。若使用者的手部由手势区域220进入触控区域210时,即表示使用者的手部已超过该虚拟触控平面230,电子装置120则进一步检测使用者的手指部位的移动。举例来说,电子装置120预先将虚拟触控平面中的一特定区域映射至其显示单元121的整个显示区域,意即在该特定区域中的不同位置在显示单元121中均有一相应的位置。当使用者的手指由手势区域220穿过该虚拟触控平面230而进入触控区域210时,电子装置120则判断使用者欲进行触控操作,意即使用者可通过手指点击虚拟触控平面(例如在位置A),电子装置120则会在显示单元121中的位置B产生相应于该位置A的触控信号。接着,电子装置120还依据该触控信号进行相应的操作。
图3A-3H是显示依据本发明不同实施例中的电子装置120及影像撷取单元110的位置的示意图。本发明可视电子装置120的类型及结构的不同而安装影像撷取单元110于不同的位置以检测使用者的手部,在图3A-3E中,影像撷取单元110可通过一数据总线(例如USB接口)而连接至电子装置120。举例来说,如图3A所示,当电子装置120为一笔记本型计算机,影像撷取单元110可安装于笔记本型计算机底座上与显示单元121的连接处的两侧。如图3B所示,当电子装置120为一桌上型计算机或游戏主机,其显示单元121往往可置于较远的位置,此时,影像撷取单元110可安装于电子装置120的键盘122(或是游戏主机)的两侧,其中键盘122亦通过通用序列总线(Universal serial bus,USB)接口而耦接至电子装置120。
在一实施例中,如图3C所示,当电子装置为一电视或显示器时,影像撷取单元110可安装于电视屏幕的角落,例如是左下角及右下角。如图3D、图3E及图3F所示,影像撷取单元亦可安装于左上角及右上角、左上角及左下角、右上角及右下角,使用者可视实际需求调整影像撷取单元的安装置位。除此之外,在一些实施例中,本发明的影像撷取单元110的数量可不限于两个,可使用两个或以上的影像撷取单元110以检测使用者的手势。例如图3G所示,影像撷取单元110可安装于电子装置120的显示单元121的左下角、右下角及下方。例如图3H所示,影像撷取单元110可同时安装于电子装置120的显示单元的右上角、右下角、左上角及左下角。
图4A及4B是显示依据本发明一实施例中使用影像撷取单元进行位置校正的示意图。图5是显示依据本发明一实施例中的空间校正方法的流程图。请同时参考图4A、4B及图5。在步骤S510,电子装置120预先在使用者的操作空间400中设定数个三维空间坐标点,例如将在操作空间400中的不同平面的NxN个矩阵点设定为校正点。举例来说,对于在右侧的影像撷取单元110而言,其校正点是设定在操作空间的左侧的平面410及420上。对于在左侧的影像撷取单元110而言,其校正点是设定在操作空间的右侧的平面430及420上。在步骤S520,电子装置120记录上述的校正点在影像撷取单元110的影像中所对应的像素。在步骤S530,计算上述校正点在该操作空间400中所对应的空间向量,例如可使用内插或外插的方式计算空间向量。
在步骤S540,当使用者使用一目标对象(例如可使用手掌、手指或其它对象)在操作空间400中进行移动,电子装置120利用来自不同影像撷取单元110所撷取的影像检测该目标对象,并判断该目标对象在操作空间400中与各影像撷取单元110之间的空间向量是否相交。若是,则判断两个空间向量的交点坐标(x,y,z)为操作点(步骤S550);若否,则表示该两个空间向量为三维空间中的歪斜线,此时电子装置120计算此两个空间向量之间的最短距离的线段,并以此线段的中点作为操作点(步骤S560)。
请同时参考图2及图5,在步骤S570,电子装置120判断操作点的坐标位于触控区域210或手势区域220,藉以进行相应的触控操作或手势操作。举例来说,当操作点的坐标位于手势区域220,电子装置120将操作点的移动判断为手势动作。当操作点的坐标位于触控区域210,电子装置120将操作点的移动判断为触控动作。除此之外,当操作点的坐标由手势区域220移动跨过虚拟触控平面230时,则电子装置120会将该动作视为触控动作(例如点击动作)。
图6是显示依据本发明一实施例中的计算指尖的空间坐标的示意图。请参考图6,在一实施例中,给定左边的影像撷取单元110的空间坐标为(x1,y1,z1),右边的影像撷取单元110的空间坐标为(x2,y2,z2),目标对象分别相对于左边的影像撷取单元110的校正点坐标为(x3,y3,z3)及(x4,y4,z4)。若通过左边及右边的影像撷取单元110的空间直线L1及L2,且其直线向量分别为(a,b,c)及(d,e,f),则L1空间直线的表示式为:x=x1+at;y=y1+bt;z=z1+ct。L2空间直线的表示式为:x=x2+ds;y=y2+es;z=z2+fs。
再将空间直线L1的关系式代入空间直线L2,则可得到x1+at=x2+ds;y1+bt=y2+es。利用联立方程式求解,若可可得到t及s,则能计算出两空间直线的交点(x,y,z),即操作点的坐标。若无法得到t及s,即表示空间直线L1及L2是歪斜线,需利用另一种方式计算操作点的坐标。
图7是显示依据本发明一实施例中计算两直线的公垂线中点的示意图。请参考图7,若空间直线L1及L2分别通过点A1及A2,且其方向向量分别为及则四边形A1A'1B2B1为矩形,且∠A2A'2B2=90°,公垂线线段垂直于L1及L2,则公垂线线段的长度及点B1及B2的坐标是可由下列方式进行计算:
(1)因为四边形A1A'1B2B1为矩形,利用正射影及外积可得到:
可推得:
(2)因为故
又且
表示
可解得
因此,
当B1及B2点的坐标已求得,假设已求得的B1坐标为(x3,y3,z3),B2坐标为(x4,y4,z4),则线段的中点坐标为((x3+x4)/2,(y3+y4)/2,(z3+z4)/2)。
图8A及8B是显示依据本发明不同实施例中设定虚拟触控平面的示意图。本发明的电子装置120利用影像特征定义出使用者的指尖及其坐标,并分析指尖在操作空间中的坐标变化,藉以判断使用者的手势是往左挥动、往右挥动、或是朝前移动、朝后移动。本发明中由影像中判断手掌或指尖是可使用已知的对象检测算法,故其细节于此不再赘述。在一实施例中,如图8A所示,电子装置120是以笔记本型计算机为例,假定笔记本型计算机的底座往使用者方向为Z轴,往上为Y轴,虚拟触控平面230的位置是垂直于Z轴且平行于Y轴。当使用者的指尖由后向前接触虚拟触控点A1而穿过虚拟触控平面230时,电子装置120会判断该手势动作是一触控动作,且在虚拟触控平面230会有一虚拟触控点,且电子装置120会产生相应于该虚拟触控点的触控信号,并进行在其显示单元121上的相应位置进行对应的触控操作。需注意的是,在此实施例中,虚拟触控平面230的位置可以在Z轴方向任意调整,无论虚拟触控平面230在Z轴的位置为何,当使用者的指尖由后向前而穿过虚拟触控平面230时,电子装置120仍会判断该手势动作是一触控动作。
在另一实施例中,如图8B所示,电子装置120仍然以笔记本型计算机为例,假定笔记本型计算机的底座往使用者的方向为Z轴,往上为Y轴,虚拟触控平面230的位置是与于Y轴平面具有一夹角,其中该夹角的角度是可依据使用者的需求而自行调整。除此之外,虚拟触控平面230的位置可以在Z轴方向任意调整,无论虚拟触控平面230在Z轴的位置为何,当使用者的指尖在Z轴由后向前(图8B中为右往左)往显示单元210接触虚拟触控点B1而穿过虚拟触控平面230时,电子装置120仍会判断该手势动作是一触控动作。需注意的是,在此实施例中,显示单元210并不具有触控功能,虚拟触控平面230最近可与显示单元210贴齐,意即电子装置120可判断直接于显示单元210进行操作的触控动作,并进行相应的操作。
本发明的方法,或特定型态或其部分,可以以程序码的型态包含于实体媒体,如软盘、光盘片、硬盘、或是任何其它机器可读取(如计算机可读取)储存媒体,其中,当程序码被机器,如计算机加载且执行时,此机器变成用以参与本发明的装置或系统。本发明的方法、系统与装置也可以以程序码型态通过一些传送媒体,如电线或电缆、光纤、或是任何传输型态进行传送,其中,当程序码被机器,如计算机接收、加载且执行时,此机器变成用以参与本发明的装置或系统。当在一般用途处理器实作时,程序码结合处理器提供一操作类似于专用逻辑电路的独特装置。
本发明虽以较佳实施例揭露如上,然其并非用以限定本发明的范围,任何本领域技术人员,在不脱离本发明的精神和范围内,当可做些许的更动与润饰,因此本发明的保护范围当视所附的权利要求范围所界定者为准。
Claims (8)
1.一种触控系统,包括:
至少二个影像撷取单元,用以持续撷取一使用者的多张手部影像;以及
一电子装置,耦接至该至少二个影像撷取单元,用以由该多张手部影像识别出一目标对象,并检测该目标对象在一操作空间中的移动动作,其中该电子装置包括一显示单元,且该操作空间包括一虚拟触控平面,
其中,当该目标对象于一虚拟触控点接触该虚拟触控平面时,该电子装置产生一触控信号,并在该显示单元中相应于该虚拟触控点的位置进行相应的一触控操作;
其中该至少二个影像撷取单元包括一第一影像撷取单元及一第二影像撷取单元,且该电子装置还估计该目标对象在该操作空间中分别相对于该第一影像撷取单元及该第二影像撷取单元的一第一直线向量及一第二直线向量,并判断该第一直线向量及该第二直线向量是否相交;
其中当该第一直线向量及该第二直线向量不相交,该电子装置计算该第一直线向量及该第二直线向量于该操作空间中的一中垂线的一中点以作为该目标对象的一操作点。
2.根据权利要求1所述的触控系统,其中该操作空间包括一手势区域及一触控区域,且该手势区域及该触控区域是由该虚拟触控平面所分隔。
3.根据权利要求2所述的触控系统,其中当该目标对象位于该手势区域,该电子装置判断该目标对象的移动动作为一手势动作。
4.根据权利要求2所述的触控系统,其中当该目标对象由该手势区域接触该虚拟触控点而穿过该虚拟触控平面至该触控区域时,该电子装置判断该目标对象的移动动作为一触控动作。
5.根据权利要求1所述的触控系统,其中该电子装置为一个人计算机或一电视,且该至少二个影像撷取单元是安置在该电子装置的一显示单元的同一侧的两端。
6.根据权利要求1所述的触控系统,其中该电子装置为一个人计算机,且该至少二个影像撷取单元是安置在该电子装置的一键盘的同一侧的两端。
7.根据权利要求1所述的触控系统,其中该电子装置为一游戏机,且该至少二个影像撷取单元是安置在该游戏机的同一侧的两端。
8.根据权利要求1所述的触控系统,其中当该第一直线向量及该第二直线向量相交,该电子装置计算该第一直线向量及该第二直线向量于该操作空间中的一交点以作为该目标对象的一操作点。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW103113344 | 2014-04-11 | ||
TW103113344A TWI499938B (zh) | 2014-04-11 | 2014-04-11 | 觸控系統 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104978018A CN104978018A (zh) | 2015-10-14 |
CN104978018B true CN104978018B (zh) | 2018-08-24 |
Family
ID=54265103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410179150.3A Active CN104978018B (zh) | 2014-04-11 | 2014-04-30 | 触控系统及触控方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9389780B2 (zh) |
CN (1) | CN104978018B (zh) |
TW (1) | TWI499938B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI607347B (zh) * | 2016-08-31 | 2017-12-01 | 張玉琪 | 空間定位系統以及方法 |
CN107390922B (zh) * | 2017-06-30 | 2020-11-13 | Oppo广东移动通信有限公司 | 虚拟触控方法、装置、存储介质及终端 |
TWM588267U (zh) * | 2019-09-05 | 2019-12-21 | 廣達電腦股份有限公司 | 具有攝像模組的電子裝置 |
US11448884B2 (en) * | 2020-11-25 | 2022-09-20 | Sony Interactive Entertainment Inc. | Image based finger tracking plus controller tracking |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101364159A (zh) * | 2008-09-04 | 2009-02-11 | 合肥吉天电子科技有限公司 | 一种基于图像识别的虚拟触摸屏系统 |
CN103472957A (zh) * | 2012-06-06 | 2013-12-25 | 纬创资通股份有限公司 | 双模输入装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6765557B1 (en) * | 2000-04-10 | 2004-07-20 | Interlink Electronics, Inc. | Remote control having touch pad to screen mapping |
TW554293B (en) * | 2002-03-29 | 2003-09-21 | Ind Tech Res Inst | Method for extracting and matching hand gesture features of image |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
CN101520700A (zh) * | 2008-12-31 | 2009-09-02 | 广东威创视讯科技股份有限公司 | 一种基于摄像头的三维定位触摸装置及其定位方法 |
US9898675B2 (en) * | 2009-05-01 | 2018-02-20 | Microsoft Technology Licensing, Llc | User movement tracking feedback to improve tracking |
JP5439977B2 (ja) * | 2009-06-24 | 2014-03-12 | 富士ゼロックス株式会社 | 動作判定システム、動作判定装置およびプログラム |
TWI398818B (zh) * | 2009-06-30 | 2013-06-11 | Univ Nat Taiwan Science Tech | 手勢辨識方法與系統 |
US8810524B1 (en) * | 2009-11-20 | 2014-08-19 | Amazon Technologies, Inc. | Two-sided touch sensor |
TWI489317B (zh) * | 2009-12-10 | 2015-06-21 | Tatung Co | 電子裝置的操作方法及系統 |
TW201123031A (en) * | 2009-12-24 | 2011-07-01 | Univ Nat Taiwan Science Tech | Robot and method for recognizing human faces and gestures thereof |
US20110267262A1 (en) * | 2010-04-30 | 2011-11-03 | Jacques Gollier | Laser Scanning Projector Device for Interactive Screen Applications |
US8941560B2 (en) * | 2011-09-21 | 2015-01-27 | Google Inc. | Wearable computer with superimposed controls and instructions for external device |
CN104272218B (zh) * | 2012-06-30 | 2017-03-08 | 惠普发展公司,有限责任合伙企业 | 基于联合数据的虚拟手 |
CN103679145A (zh) * | 2013-12-06 | 2014-03-26 | 河海大学 | 一种手势自动识别方法 |
US9227141B2 (en) * | 2013-12-31 | 2016-01-05 | Microsoft Technology Licensing, Llc | Touch screen game controller |
-
2014
- 2014-04-11 TW TW103113344A patent/TWI499938B/zh active
- 2014-04-30 CN CN201410179150.3A patent/CN104978018B/zh active Active
- 2014-05-27 US US14/287,641 patent/US9389780B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101364159A (zh) * | 2008-09-04 | 2009-02-11 | 合肥吉天电子科技有限公司 | 一种基于图像识别的虚拟触摸屏系统 |
CN103472957A (zh) * | 2012-06-06 | 2013-12-25 | 纬创资通股份有限公司 | 双模输入装置 |
Also Published As
Publication number | Publication date |
---|---|
US20150293689A1 (en) | 2015-10-15 |
US9389780B2 (en) | 2016-07-12 |
TWI499938B (zh) | 2015-09-11 |
TW201539252A (zh) | 2015-10-16 |
CN104978018A (zh) | 2015-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10203764B2 (en) | Systems and methods for triggering actions based on touch-free gesture detection | |
US8933882B2 (en) | User centric interface for interaction with visual display that recognizes user intentions | |
TWI464640B (zh) | 手勢感測裝置及具有手勢輸入功能的電子系統 | |
US9329691B2 (en) | Operation input apparatus and method using distinct determination and control areas | |
JP6539816B2 (ja) | 1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法 | |
US9262016B2 (en) | Gesture recognition method and interactive input system employing same | |
US20130343607A1 (en) | Method for touchless control of a device | |
KR101718893B1 (ko) | 터치 인터페이스 제공 방법 및 장치 | |
US9317130B2 (en) | Visual feedback by identifying anatomical features of a hand | |
US20150062010A1 (en) | Pointing-direction detecting device and its method, program and computer readable-medium | |
US8416189B2 (en) | Manual human machine interface operation system and method thereof | |
Guimbretière et al. | Bimanual marking menu for near surface interactions | |
KR20140100547A (ko) | 모바일 장치상의 풀 3d 상호작용 | |
WO2017029749A1 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
CN104978018B (zh) | 触控系统及触控方法 | |
JPWO2017057106A1 (ja) | 入力装置、入力方法、及びプログラム | |
JP2012238293A (ja) | 入力装置 | |
Morrison | A camera-based input device for large interactive displays | |
TW201342158A (zh) | 光學式觸控感測裝置 | |
TW201439813A (zh) | 顯示設備及其控制系統和方法 | |
TWI444875B (zh) | 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法 | |
US10175825B2 (en) | Information processing apparatus, information processing method, and program for determining contact on the basis of a change in color of an image | |
US20130265283A1 (en) | Optical operation system | |
TW201137671A (en) | Vision based hand posture recognition method and system thereof | |
EP3059664A1 (en) | A method for controlling a device by gestures and a system for controlling a device by gestures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |