CN103365410B - 手势感测装置及具有手势输入功能的电子系统 - Google Patents
手势感测装置及具有手势输入功能的电子系统 Download PDFInfo
- Publication number
- CN103365410B CN103365410B CN201210118158.XA CN201210118158A CN103365410B CN 103365410 B CN103365410 B CN 103365410B CN 201210118158 A CN201210118158 A CN 201210118158A CN 103365410 B CN103365410 B CN 103365410B
- Authority
- CN
- China
- Prior art keywords
- gesture
- tangent plane
- virtual plane
- sensing apparatus
- optical unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012905 input function Methods 0.000 title claims abstract description 48
- 230000003287 optical effect Effects 0.000 claims abstract description 90
- 230000008859 change Effects 0.000 claims abstract description 43
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000001514 detection method Methods 0.000 claims abstract description 12
- 238000009434 installation Methods 0.000 claims description 27
- 238000005070 sampling Methods 0.000 claims description 22
- 230000005540 biological transmission Effects 0.000 claims description 7
- 238000006073 displacement reaction Methods 0.000 claims description 5
- 230000000295 complement effect Effects 0.000 claims description 3
- 238000002347 injection Methods 0.000 claims description 3
- 239000007924 injection Substances 0.000 claims description 3
- 229910044991 metal oxide Inorganic materials 0.000 claims description 3
- 150000004706 metal oxides Chemical class 0.000 claims description 3
- 239000004065 semiconductor Substances 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 6
- 230000036544 posture Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 230000007306 turnover Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 241000894006 Bacteria Species 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000000178 monomer Substances 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229920000728 polyester Polymers 0.000 description 1
- 238000009736 wetting Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明实施例公开了一种手势感测装置,用以配置于一电子装置上。手势感测装置包括至少一光学单元组,其配置于电子装置的一表面旁,且定义出一虚拟平面。每一光学单元组包括多个光学单元,且每一光学单元包括一光源及一取像元件。光源向虚拟平面射出一检测光,其中虚拟平面从表面往远离表面的方向延伸。取像元件沿着虚拟平面取像。当一物体与虚拟平面交会,物体将在虚拟平面中传递的检测光反射成一反射光,且取像元件检测反射光,以获得物体的信息。一种具有手势输入功能的电子系统亦被提出。由于本发明的实施例的判断手势的方法是根据物体的截面信息的变化来判断手势变化,因此本发明实施例的判断手势的方法较为简化,且可达到良好的判断效果。
Description
技术领域
本发明涉及一种感测装置,且特别是有关于一种手势(gesture)感测装置。
背景技术
在传统的使用者接口中,通常是利用按键、键盘或鼠标来操控电子装置。随着科技的进步,新一代的使用者接口作得越来越人性化且越来越方便,其中触控接口即是一个成功的例子,其让使用者可直觉式地点选荧幕上的物件而达到操控的效果。
然而,由于触控接口仍需使用者利用手指或触控笔来触碰荧幕以达到触控,其触控方式的变化种类的数目仍受到限制,例如受限于单点触控、多点触控、拖曳...等等这些种类。此外,需利用手指触碰荧幕的方式亦会使得应用层面受到限制。举例而言,当家庭主妇做菜时,若使用油腻的手来触碰用以显示食谱的荧幕,将会造成荧幕表面沾到油污而产生不便。或者,外科医师套上无菌手套以进行手术时,将无法通过触碰荧幕来查看病历中的影像数据,因为这容易使手套上沾粘细菌。另外,机械修理师在修理机械时,由于手上容易沾到油污,将不便去触碰用以显示技术手册的荧幕。另外,当在浴缸内看电视时,以手触碰荧幕容易沾湿荧幕,而容易对电视造成不良的影响。
相较之下,手势感测装置的操作方式则是让手或其他物体在空间中呈现某些姿势,即能够达到操控的效果,亦即能够实现不接触到荧幕的操控。然而,现有的手势感测装置通常是采用立体摄影机来感测在空间中的手势,但立体摄影机及用以判读立体影像的处理单元往往造价昂贵,而使得现有的手势感测装置的成本难以下降,进而使现有手势感测装置难以普及。
发明内容
本发明提供一种手势感测装置,其能够以低成本实现有效的手势感测。
本发明的一实施例提出一种手势感测装置,用以配置于一电子装置上。手势感测装置包括至少一光学单元组,其配置于电子装置的一表面旁,且定义出一虚拟平面。每一光学单元组包括多个光学单元,且每一光学单元包括一光源及一取像元件。光源向虚拟平面射出一检测光,其中虚拟平面从表面往远离表面的方向延伸。取像元件沿着虚拟平面取像。当一物体与虚拟平面交会,物体将在虚拟平面中传递的检测光反射成一反射光,且取像元件检测反射光,以获得物体的信息。
本发明的一实施例提出一种具有手势输入功能的电子系统,其包括上述电子装置及上述手势感测装置。
本发明的一实施例提出一种判断手势的方法,包括下列步骤。在一第一时间,在一第一取样处与一第二取样处分别取得一物体的一第一切面信息与一第二切面信息。在一第二时间,在第一取样处与第二取样处分别取得物体的一第三切面信息与一第四切面信息。比较第一切面信息与第三切面信息以得到一第一变化信息。比较第二切面信息与第四切面信息以得到一第二变化信息。根据第一变化信息与第二变化信息以判断物体的手势变化。
基于上述,由于本发明的实施例的手势感测装置及具有手势输入功能的电子系统是通过光学单元组来定义出虚拟平面,且检测与虚拟平面交会的物体所反射的光,因此本发明的实施例可利用简单的架构即达成空间中手势的感测。如此一来,本发明的实施例的手势感测装置便能够以低成本达到有效的手势感测。此外,由于本发明的实施例的判断手势的方法是根据物体的截面信息的变化来判断手势变化,因此本发明的实施例的判断手势的方法较为简化,且可达到良好的判断效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1A为本发明的一实施例的具有手势输入功能的电子系统的下视示意图。
图1B为图1A的具有手势输入功能的电子系统的立体示意图。
图1C为图1A中的光学单元的立体示意图。
图1D为图1C中的光学单元的另一变化的侧视示意图。
图2为图1A中的手势感测装置的方块图。
图3A绘示以图1B的手势感测装置感测物体的立体示意图。
图3B绘示图1B的手势感测装置感测物体的上视示意图。
图4A为图1B的取像元件212a的成像示意图。
图4B为图1B的取像元件212b的成像示意图。
图5为本发明的另一实施例的具有手势输入功能的电子系统的立体示意图。
图6A为本发明的又一实施例的具有手势输入功能的电子系统的立体示意图。
图6B为本发明的一实施例的判断手势的方法的流程图。
图7A为图6A中的虚拟平面与物体的相互关系的立体示意图。
图7B为图7A的侧视示意图。
图7C为图7A中的物体分别在三个虚拟平面中的切面的示意图。
图8绘示在图6A的具有手势输入功能的电子系统的荧幕前方的一种手势在虚拟平面上产生的三个切面的移动情形。
图9A、图9B及图9C分别绘示在图6A的具有手势输入功能的电子系统的荧幕前方的三种手势变化。
图10用以说明图6A的手势感测装置的手势感测及办识过程。附图标号:
50:物体
100、100a、100b:具有手势输入功能的电子系统
110、110b:电子装置
111、111b:表面
112:荧幕
114:边框
200、200a、200b:手势感测装置
210、210’、210”、210b1、210b2、210b3:光学单元组
211:光源
212、212a、212b、2121:光学单元
213:取像元件
220:平面位置计算单元
230:存储单元
240:手势判断单元
250:传输单元
A1、A2:光轴
C1:方向
D:检测光
R:反射光
S、S1、S2、S3、S1’、S2’、S3’、S1”、S2”、S3”、S1”’、S2”’、S3”’:切面
S10~S40、S110、S120:步骤
V、V1、V2、V3:虚拟平面
α、β:夹角
具体实施方式
为让本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合所附图式作详细说明如下。
图1A为本发明的一实施例的具有手势输入功能的电子系统的下视示意图,图1B为图1A的具有手势输入功能的电子系统的立体示意图,而图1C为图1A中的光学单元的立体示意图。请参照图1A至图1C,本实施例的具有手势输入功能的电子系统100包括一电子装置110及一手势感测装置200。在本实施例中,电子装置110例如是一平板电脑。然而,在其他实施例中,电子装置110亦可以是显示荧幕、个人数码助理(personaldigitalassistant,PDA)、移动电话、数码相机、数码摄影机、笔记本电脑、单体全备电脑(all-in-onecomputer)或其他适当的电子装置。在本实施例中,电子装置110具有一表面111,表面111例如为电子装置110的显示面,亦即是电子装置110的荧幕112的显示面111。然而,在其他实施例中,表面111亦可以是键盘表面、使用者接口的表面或其他适当的表面。
手势感测装置200用以配置于电子装置110上。手势感测装置200包括至少一光学单元组210(在图1A与图1B中是以一个光学单元组210为例),其配置于电子装置110的表面111旁,且定义出一虚拟平面V。在本实施例中,光学单元组210配置于表面111(即显示面)旁的边框114上。每一光学单元组210包括多个光学单元212(在图1A与图1B中是以两个光学单元212为例),且每一光学单元212包括一光源211及一取像元件213。在本实施例中,光源211为激光产生器,例如为激光二极管。然而,在其他实施例中,光源211亦可以是发光二极管或其他适当的发光元件。
光源211向虚拟平面V射出一检测光D,其中虚拟平面V从表面111往远离表面111的方向延伸。在本实施例中,光源211例如是沿着虚拟平面V射出一检测光D。此外,在本实施例中,检测光D为不可见光,例如为红外光。然而,在其他实施例中,检测光D亦可以是可见光。另外,在本实施例中,虚拟平面V实质上垂直于表面111。然而,在其他实施例中,虚拟平面V亦可以与表面111夹一个不等于90度的夹角,但虚拟平面V不与表面111平行。
取像元件213沿着虚拟平面V取像,且用以检测虚拟平面V中的物体。在本实施例中,取像元件213为线感测器(linesensor),亦即其检测面呈线状。举例而言,取像元件213例如为互补式金属氧化物半导体感测器(complementarymetaloxidesemiconductorsensor,CMOSsensor)或电荷耦合元件(chargecoupleddevice,CCD)。
当一物体50(如使用者的手或其他适当的物体)与虚拟平面V交会,物体50将在虚拟平面V中传递的检测光D反射成一反射光R,且取像元件213检测反射光R,以获得物体50的信息,例如物体50的位置信息、尺寸信息等。
在本实施例中,光学单元组210的这些光学单元212a及212b的这些光源211的光轴A1与这些取像元件213的光轴A2皆实质上落在虚拟平面V上,如此可进一步确保检测光D在虚拟平面V中传递,且可进一步确保取像元件213沿着虚拟平面V取像,亦即检测在虚拟平面V中传递的反射光R。
关于前述“光源211沿着对应的虚拟平面V射出一检测光D”,及其解释“光学单元212a与212b的光源211的光轴A1皆实质上落在虚拟平面V上”,其中光源211的方向仅是一种实施例。例如,在另一实施例中,如图1D所绘示,光学单元2121的光源211位于对应的虚拟平面V的上方,且光源211向斜下发射检测光D,也就是光源211的光轴与虚拟平面V交叉(在图1D中,代表检测光D的实线例如是与光源211的光轴实质上重合),检测光D照射到物体50一样能产生反射光R,反射光R也依旧能被对应的光学单元2121的取像元件213检测。反过来光源211位于虚拟平面V的下方时亦如是,可知光源211只要向对应的虚拟平面V射出检测光D,便能达到本案发明的实施例所需要的技术。
图2为图1A中的手势感测装置的方块图,图3A绘示以图1B的手势感测装置感测物体的立体示意图,图3B绘示图1B的手势感测装置感测物体的上视示意图,图4A为图1B的光学单元212a的取像元件的成像示意图,而图4B为图1B的光学单元212b的取像元件的成像示意图。请先参照图2、图3A与图3B,在本实施例中,手势感测装置200更包括一平面位置计算单元220,平面位置计算单元220根据来自这些取像元件213(如光学单元212a的取像元件213及光学单元212b的取像元件213)的物体50的数据且利用三角定位法计算出物体50在虚拟平面V中的切面S的位置与大小。如图3A与图3B所示,根据切面S在光学单元212a的取像元件213及光学单元212b的取像元件213上的成像位置与大小可决定切面S至光学单元212a的取像元件213及光学单元212b的取像元件213的连线与显示面111的夹角α及β,且可决定切面S上的每一点在光学单元212a的取像元件213及光学单元212b的取像元件213上所形成的张角。如图4A与图4B所示,纵轴为取像元件213所检测到的光强度,而横轴为取像元件213的感测面上的成像位置。这些横轴上的成像位置皆可换算成入射取像元件213的光的入射角度,例如反射光R的入射角度。因此,通过切面S在光学单元212a的取像元件213及光学单元212b的取像元件213上的成像位置即可得知夹角α及β以及上述切面S所形成的张角。接着,平面位置计算单元220根据夹角α及β,以三角定位法计算出物体50在虚拟平面中的切面S的位置,并根据切面S上的每一点在光学单元212a的取像元件213及光学单元212b的取像元件213上所形成的张角来计算出切面S的大小。
在本实施例中,手势感测装置200更包括一存储单元230,其储存平面位置计算单元220所计算出的物体50的切面S的位置与大小。在本实施例中,手势感测装置200更包括一手势判断单元240,其根据存储单元230所储存的物体50的切面S的位置与大小来判定物体50所产生的手势。具体而言,由于存储单元230可以储存多个不同时间中切面S的位置与大小,因此手势判断单元240可据此判断切面S的动态,进而判断出手势的动态。在本实施例中,手势判断单元240根据存储单元230所储存的物体50的切面S的位置的随时间的变化量与大小的随时间的变化量来判定物体50的手势的动态。
在本实施例中,手势感测装置200更包括一传输单元250,其将手势判断单元240所判定的手势所对应的指令传输至一待指示的电路单元。举例而言,当电子装置100为平板电脑、单体全备电脑、个人数码助理、移动电话、数码相机、数码摄影机或笔记本电脑,待指示的电路单元例如为电子装置100中的中央处理器(centralprocessingunit,CPU)。另一方面,当电子装置100为显示荧幕时,待指示的电路单元例如为电性连接至显示荧幕的电脑或其他适当的主机的中央处理器或控制单元。
举例而言,如图1B所绘示,当手势判断单元240判断出物体50是从荧幕112的左前方移动至荧幕112的右前方时,手势判断单元240例如可下达往左翻一页的指令,并通过传输单元250将此指令传输至待指示的电路单元,而待指示的电路单元则控制荧幕112,以使荧幕112显示往左翻一页的画面。同理,当手势判断单元240判断出物体50是从荧幕112的右前方移动至荧幕112的左前方时,手势判断单元240例如可下达往右翻一页的指令,并通过传输单元250将此指令传输至待指示的电路单元,而待指示的电路单元则控制荧幕112,以使荧幕112显示往右翻一页的画面。具体而言,当手势判断单元240检测到物体50所在位置的x坐标不断地增加,且增加的量达到一定的门槛值时,就可以判断出物体50是向右移动。另一方面,当手势判断单元240检测到物体50所在位置的x坐标不断地减少,且减少的量达到一定的门槛值时,就可以判断出物体50是向左移动。
在本实施例中,由于虚拟平面V是从表面111往远离表面111的方向延伸,例如是实质上垂直于表面111,因此手势感测装置200除了可检测物体50在荧幕112的前方的上下左右的移动,还可检测物体50相对于荧幕112的距离,亦即可检测物体50的深度。举例而言,当物体50往荧幕112靠近时,可以缩小荧幕112中的文字或物件,而当物体50远离荧幕112时,可以放大荧幕112中的文字或物件。此外,其他的手势亦可对应至其他的指令,或者上述手势亦可对应至其他的指令。具体而言,当手势判断单元240检测到物体50所在位置的y坐标不断地增加,且增加的量达到一定的门槛值时,就可以判断出物体50是往远离荧幕112的方向移动。反之,当手势判断单元240检测到物体50所在位置的y坐标不断地减少,且减少的量达到一定的门槛值时,就可以判断出物体50是往靠近荧幕112的方向移动。
由于本实施例的手势感测装置200及具有手势输入功能的电子系统100是通过光学单元组210来定义出虚拟平面V,且检测与虚拟平面V交会的物体50所反射的光(即反射光R),因此本实施例可利用简单的架构即达成空间中手势的感测。相较于现有技术采用昂贵的立体摄影机及判读立体影像的处理单元或软件来感测在空间中的手势,本实施例的手势感测装置200由于架构相对简单而能够以低成本达到有效的手势感测。
此外,由于本实施例的手势感测装置200的机构轻薄短小,因此易于内嵌于电子装置110(例如平板电脑或笔记本电脑)中。再者,由于本实施例的手势感测装置200及具有手势输入功能的电子系统100是检测物体50与虚拟平面V交会处(即切面S)的位置与大小,因此演算过程较为简化,所以可提升手势感测装置200的框速率(framerate),进而可预测物体50的姿势(如手掌的姿势)。
由于使用本实施例的手势感测装置200及具有手势输入功能的电子系统100时,使用者可以在手指不触碰荧幕112的情况下达到手势输入,因此可大幅增加手势感测装置200及具有手势输入功能的电子系统100的应用层面。举例而言,当家庭主妇做菜时,可利用手在荧幕112前方挥动而达到让荧幕112所显示的食谱翻页的效果,因此油腻的手便不会触碰到荧幕而使荧幕112表面沾到油污。或者,外科医师套上无菌手套以进行手术时,可通过手势在荧幕112前方挥动,来查看病历中的影像数据,如此便不会使手套上沾粘细菌而造成污染。另外,机械修理师在修理机械时,可通过手势在荧幕112前方挥动,以查阅技术手册,如此便不会使沾有油污的手弄脏荧幕。另外,当在使用者在浴缸内看电视时,可通过手势在荧幕112前方挥动以选台或调整音量,如此沾湿的手便不会对电视造成不良的影响。上述查看食谱、病历中的影像数据及技术手册的指令及选台及调整音量的指令可以通过简单、不复杂的手势即可达成,因此以本实施例的架构简单的手势感测装置200即可达成,所以可以不用采用昂贵的立体摄影机及用以判读立体影像的处理单元或软件,进而可以有效降低成本。
图5为本发明的另一实施例的具有手势输入功能的电子系统的立体示意图。请参照图5,本实施例的具有手势输入功能的电子系统100a与图1B的具有手势输入功能的电子系统100类似,而两者的差异如下所述。在本实施例的手势输入功能的电子系统100a的手势感测装置200a具有多个光学单元组210’及210”。在图5中是以两个光学单元组210’及210”为例,但在其他实施例中,手势感测装置亦可具有三个以上的光学单元组。如此一来,就可以产生多个虚拟平面V。在本实施例中,这些光学单元组210’及210”所定义出的这些虚拟平面V彼此实质上平行。
在本实施例中,这些虚拟平面V实质上延着荧幕112的上下方向排列,且每一虚拟平面V实质上延着荧幕112的左右方向延伸,因此手势感测装置200a除了可检测物体50相对于荧幕112的左右移动及前后移动(即在深度方向移动)之外,亦可检测物体50相对于荧幕112的上下移动。举例而言,当物体50沿着方向C1由下往上移动时,物体50会依序与图5下方的虚拟平面V及图5上方的虚拟平面V交会,而依序被光学单元组210”与光学单元组210’检测到。如此一来,手势感测装置200a的手势判断单元240便能够判断出物体50是由下往上移动。
在本实施例中,光学单元组210的这些光学单元212的这些光源211的光轴A1与这些取像元件213的光轴A2皆实质上落在靠近图5的下方的虚拟平面V上,且光学单元组210’的这些光学单元212的这些光源211的光轴A1与这些取像元件213的光轴A2皆实质上落在靠近图5的上方的虚拟平面V上。
在另一实施例中,这些虚拟平面V亦可实质上延着荧幕112的左右方向排列,且每一虚拟平面V实质上延着荧幕112的上下方向延伸。或者,这些虚拟平面V亦可延着相对于荧幕112的其他方向排列及延伸。
图6A为本发明的又一实施例的具有手势输入功能的电子系统的立体示意图,图6B为本发明的一实施例的判断手势的方法的流程图,图7A为图6A中的虚拟平面与物体的相互关系的立体示意图,图7B为图7A的侧视示意图,而图7C为图7A中的物体分别在三个虚拟平面中的切面的示意图。请参照图6A、图6B及图7A至图7C,本实施例的具有手势输入功能的电子系统100b与图5的具有手势输入功能的电子系统100a类似,而两者的差异如下所述。在本实施例的具有手势输入功能的电子系统100b中,电子装置110b的表面111b为键盘表面,而电子装置110b例如为笔记本电脑。在本实施例中,手势感测装置200b具有多个光学单元组210b1、210b2及210b3(在图6A中是以三个光学单元组为例),以分别产生三个虚拟平面V1、V2及V3。这些虚拟平面V1、V2及V3实质上垂直于表面111b,这些虚拟平面V1、V2及V3实质上彼此互相平行。
在本实施例中,电子装置110b的荧幕112则位于这些虚拟平面V1、V2及V3的一侧。举例而言,荧幕112可转动至实质上平行于这些虚拟平面V1、V2及V3的位置,或转动至相对于这些虚拟平面V1、V2及V3倾斜一较小的角度。如此一来,手势感测装置200b便能够用来检测荧幕112前方的手势。在一实施例中,荧幕112可用以显示一立体影像,而立体影像与虚拟平面V1、V2及V3在空间中交会。如此一来,通过手势判断单元240将虚拟平面V1、V2及V3的位置坐标与荧幕112所形成的立体影像的位置坐标整合或确认彼此间的转换关系后,在荧幕112前方的手势便能够与立体影像中的立体物件在荧幕前方的空间中达成互动。
由图7A至图7C可知,手的不同部分与虚拟平面V1、V2及V3相交处会分别形成大小不同的切面S1、S2及S3,因此手势判断单元240可根据这些切面S1、S2及S3彼此间的大小关系来判断这些切面S1、S2及S3是在手的哪个部位,进而判断出更为多样化的手势。举例而言,面积较小的切面S1可被判断为对应于使用者的手指,而面积较大的切面S3可被判断为对应于使用者的手掌。
图8绘示在图6A的具有手势输入功能的电子系统的荧幕前方的一种手势在虚拟平面上产生的三个切面的移动情形。请参照图6A、图6B及图8,本实施例的判断手势的方法可应用于图6A的具有手势输入功能的电子系统100b或上述其他实施例的具有手势输入功能的电子系统,而以下以应用于图6A的具有手势输入功能的电子系统100b为例以进行说明。本实施例的判断手势的方法包括下列步骤。首先,执行步骤S10,在一第一时间,在一第一取样处与一第二取样处分别取得物体50的一第一切面信息(例如切面S1的信息)与一第二切面信息(例如切面S3的信息)。在本实施例中,是在第一时间在第一取样处、第二取样处与第三取样处分别取得物体50的切面S1的信息、切面S2的信息及切面S3的信息,其中第一取样处、第二取样处及第三取样处例如分别为虚拟平面V1、虚拟平面V3及虚拟平面V2所在的位置,而切面S1、切面S2与切面S3分别位于虚拟平面V1、虚拟平面V2及虚拟平面V3中。本发明并不限制取样处及切面信息的数量,取样处与切面信息的数量可以是二个、三个或四个以上。
接着,执行步骤S20,在一第二时间,在第一取样处与第二取样处分别取得物体50的一第三切面信息(例如切面S1’的信息)与一第四切面信息(例如切面S3’的信息)。在本实施例中,是在第二时间,在虚拟平面V1、V2及V3分别取得物体50的切面S1’、S2’及S3’的信息,而切面S1’、S2’及S3’分别位于虚拟平面V1、V2及V3中。在本实施例中,切面S1~S3及S1’~S3’的信息各包括切面位置、切面尺寸及切面数量的至少其中之一。
然后,执行步骤S30,比较第一切面信息(例如切面S1的信息)与第三切面信息(例如切面S1’的信息)以得到一第一变化信息。比较第二切面信息(例如切面S3的信息)与第四切面信息(例如切面S3’的信息)以得到一第二变化信息。在本实施例中,更比较切面S2的信息与切面S2’的信息以得到一第三变化信息。在本实施例中,第一变化信息、第二变化信息及第三变化信息各包括切面位移量、切面转动量、切面尺寸变化量及切面数量变化量的至少其中之一。
接着,执行步骤S40,根据第一变化信息与第二变化信息以判断物体的手势变化。在本实施例中,是根据第一变化信息、第二变化信息及第三变化信息以判断物体的手势变化。本实施例的手势(gesture)可以是手的各种姿势的变化,但也可以是其他触控物体(如触控笔)的各种位置变化、形状变化与转动角度变化等。
举例而言,请参照图6A与图8,由图8可知,切面S1、S2及S3分别在虚拟平面V1、V2及V3中往左移动至切面S1’、S2’及S3’的位置,且切面S1的移动距离大于切面S2,而切面S2的移动距离大于切面S3。由于切面S1是对应至手指,而切面S3是对应至手掌,因此手势判断单元240便可判断这样的手势为手腕大致上不动,而手指大致上以手腕为转动中心而从荧幕112的右方转动至左方。这乃是根据切面位移量来判断手势的变化。
图9A、图9B及图9C分别绘示在图6A的具有手势输入功能的电子系统的荧幕前方的三种手势变化。请先参照图6A与图9A,当使用者的手势从图9A左方所示者变成图9A右方所示者,即由伸出一指改变成伸出三指时,手势感测装置200b会检测到虚拟平面V1中的切面S1数量从一个变成三个,如此一来,手势判断单元240便可判断出使用者的手势从伸出一指变成伸出三指。此乃根据切面数量变化量来判断手势的变化。请再参照图6A与图9B,当使用者的手势从图9B左方所示者变成图9B右方所示者时,手势感测装置200b会检测到虚拟平面V1、V2及V3中的切面S1、S2及S3旋转至如图9B右方的切面S1”、S2”及S3”的位置,如此一来,手势判断单元240便可判断出使用者的手的旋转。此乃根据切面转动量来判断手势的变化。请再参照图6A与图9C,当使用者的手势从图9C左方所示者变成图9C右方所示者时,手势感测装置200b会检测到虚拟平面V1、V2及V3中的切面S1、S2及S3的尺寸会变化成如图9C右方的切面S1”’、S2”’及S3”’的尺寸,例如切面S2”’的尺寸明显大于切面S2的尺寸。如此一来,手势判断单元240便可判断出使用者的手往靠近荧幕112的方向移动。此乃根据切面尺寸变化量来判断手势变化。
图8及图9A至图9C举出四种不同的手势变化为例,但实际上图6A的具有手势输入功能的电子系统100b及手势判断单元240根据与上述类似的原理还可用以检测更多不同的手势,再此不一一举例,但其仍属本发明所保护的范围。此外,上述内容是以在第一时间与第二时间等两个时间判断手势的变化为例。本实施例的判断手势的方法还可以在多个时间(例如大于3个的时间)比较每两个相邻的时间的切面信息,以得到变化信息,如此便能够判断出手势的连续变化。
由于本实施例的判断手势的方法是根据物体50的切面信息的变化来判断手势变化,因此本实施例的判断手势的方法较为简化,且可达到良好的判断效果。如此可简化用以执行判断手势方法的演算法,进而降低软件开发成本及硬件制造成本。
图10用以说明图6A的手势感测装置的手势感测及办识过程。请参考图6A及图10,首先,光学单元组210b1、210b2及210b3分别感测在虚拟平面V1、V2及V3上的切面S1、S2及S3。接着,平面位置计算单元220执行步骤S110,其为以三角定位的方式分别决定切面S1的坐标与尺寸参数(x1,y1,size1)、切面S2的坐标与尺寸参数(x2,y2,size2)及切面S3的坐标与尺寸参数(x3,y3,size3)。因此,图6B的步骤S10与S20可通过光学单元组210与平面位置计算单元220来完成。接着,存储单元230储存平面位置计算单元220在不同的时间中所决定的切面S1、S2及S3的坐标与尺寸参数。然后,手势判断单元240执行步骤S120,其为根据参数(x1,y1,size1)、参数(x2,y2,size2)及参数(x3,y3,size3)在连续的多个不同的时间中的变化量来判断手势的挥动方向及姿势。因此,图6B的步骤S30与S40可通过存储单元230与手势判断单元240来完成。之后,传输单元250再将手势判断单元240所判定的手势所对应的指令传输至一待指示的电路单元。
图10的手势感测及办识过程不但可应用于图6A的实施例,亦可应用于如图5的实施例或其他实施例。在一实施例中,图5的荧幕112亦可以用来显示立体影像,而使用者的手仍可在空间中与立体影像中的立体物件产生互动。
综上所述,由于本发明的实施例的手势感测装置及具有手势输入功能的电子系统是通过光学单元组来定义出虚拟平面,且检测与虚拟平面交会的物体所反射的光,因此本发明的实施例可利用简单的架构即达成空间中手势的感测。如此一来,本发明的实施例的手势感测装置便能够以低成本达到有效的手势感测。此外,由于本发明的实施例的判断手势的方法是根据物体的切面信息的变化来判断手势变化,因此本发明的实施例的判断手势的方法较为简化,且可达到良好的判断效果。
虽然本发明已以实施例揭露如上,然其并非用以限定本发明,任何所属技术领域中具有通常知识者,在不脱离本发明的精神和范围内,当可作些许的更动与润饰,故本发明的保护范围当视权利要求范围所界定者为准。
Claims (32)
1.一种手势感测装置,其特征在于,用以配置于一电子装置上,所述手势感测装置包括:
至少一光学单元组,配置于所述电子装置的一表面旁,且每一光学单元组定义出一虚拟平面,所述每一光学单元组包括多个光学单元,每一光学单元包括:
一光源,向所述虚拟平面射出一检测光,其中所述虚拟平面从所述表面往远离所述表面的方向延伸;以及
一取像元件,沿着所述虚拟平面取像,其中当一物体与所述虚拟平面交会,所述物体将在所述虚拟平面中传递的所述检测光反射成一反射光,且所述取像元件检测所述反射光,以获得所述物体的信息。
2.如权利要求1所述的手势感测装置,其特征在于,所述表面为一显示面、一键盘表面或一使用者接口的表面。
3.如权利要求1所述的手势感测装置,其特征在于,所述虚拟平面垂直于所述表面。
4.如权利要求1所述的手势感测装置,其特征在于,所述至少一光学单元组为多个光学单元组,且所述多个光学单元组所定义出的多个虚拟平面彼此平行。
5.如权利要求1所述的手势感测装置,其特征在于,更包括一平面位置计算单元,所述平面位置计算单元根据来自所述取像元件的所述物体的数据且利用三角定位法计算出所述物体在所述虚拟平面中的切面的位置与大小。
6.如权利要求5所述的手势感测装置,其特征在于,更包括一存储单元,储存所述平面位置计算单元所计算出的所述物体的切面的位置与大小。
7.如权利要求6所述的手势感测装置,其特征在于,更包括一手势判断单元,根据所述存储单元所储存的所述物体的切面的位置与大小来判定所述物体所产生的手势。
8.如权利要求7所述的手势感测装置,其特征在于,更包括一传输单元,将所述手势判断单元所判定的手势所对应的指令传输至一待指示的电路单元。
9.如权利要求7所述的手势感测装置,其特征在于,所述手势判断单元根据所述存储单元所储存的所述物体的所述切面的所述位置的随时间的变化量与所述大小的随时间的变化量来判定所述物体的手势的动态。
10.如权利要求1所述的手势感测装置,其特征在于,所述取像元件为线感测器。
11.如权利要求10所述的手势感测装置,其特征在于,所述线感测器为互补式金属氧化物半导体感测器或电荷耦合元件。
12.如权利要求1所述的手势感测装置,其特征在于,所述光源为激光产生器或发光二极管。
13.如权利要求1所述的手势感测装置,其特征在于,所述光学单元组的所述光学单元的所述光源的光轴与所述取像元件的光轴皆落在所述虚拟平面上。
14.一种具有手势输入功能的电子系统,其特征在于,包括:
一电子装置,具有一表面;以及
一手势感测装置,配置于所述电子装置上,所述手势感测装置包括:
至少一光学单元组,配置于所述电子装置的所述表面旁,且每一光学单元组定义出一虚拟平面,所述每一光学单元组包括多个光学单元,每一光学单元包括:
一光源,向所述虚拟平面射出一检测光,其中所述虚拟平面从所述表面往远离所述表面的方向延伸;以及
一取像元件,沿着所述虚拟平面取像,其中当一物体与所述虚拟平面交会,所述物体将在所述虚拟平面中传递的所述检测光反射成一反射光,且所述取像元件检测所述反射光,以获得所述物体的信息。
15.如权利要求14所述的具有手势输入功能的电子系统,其特征在于,所述表面为一显示面、一键盘表面或一使用者接口的表面。
16.如权利要求14所述的具有手势输入功能的电子系统,其特征在于,所述虚拟平面垂直于所述表面。
17.如权利要求14所述的具有手势输入功能的电子系统,其特征在于,所述至少一光学单元组为多个光学单元组,且所述多个光学单元组所定义出的多个虚拟平面彼此平行。
18.如权利要求14所述的具有手势输入功能的电子系统,其特征在于,所述手势感测装置更包括一平面位置计算单元,所述平面位置计算单元根据来自所述取像元件的所述物体的数据且利用三角定位法计算出所述物体在所述虚拟平面中的切面的位置与大小。
19.如权利要求18所述的具有手势输入功能的电子系统,其特征在于,所述手势感测装置更包括一存储单元,储存所述平面位置计算单元所计算出的所述物体的切面的位置与大小。
20.如权利要求19所述的具有手势输入功能的电子系统,其特征在于,所述手势感测装置更包括一手势判断单元,根据所述存储单元所储存的所述物体的切面的位置与大小来判定所述物体所产生的手势。
21.如权利要求20所述的具有手势输入功能的电子系统,其特征在于,所述手势感测装置更包括一传输单元,将所述手势判断单元所判定的手势所对应的指令传输至一待指示的电路单元。
22.如权利要求20所述的具有手势输入功能的电子系统,其特征在于,所述手势判断单元根据所述存储单元所储存的所述物体的所述切面的所述位置的随时间的变化量与所述大小的随时间的变化量来判定所述物体的手势的动态。
23.如权利要求14所述的具有手势输入功能的电子系统,其特征在于,所述取像元件为线感测器。
24.如权利要求23所述的具有手势输入功能的电子系统,其特征在于,所述线感测器为互补式金属氧化物半导体感测器或电荷耦合元件。
25.如权利要求14所述的具有手势输入功能的电子系统,其特征在于,所述光源为激光产生器或发光二极管。
26.如权利要求14所述的具有手势输入功能的电子系统,其特征在于,所述电子装置包括一荧幕,用以显示一立体影像,且所述立体影像与所述虚拟平面在空间中交会。
27.如权利要求14所述的具有手势输入功能的电子系统,其特征在于,所述光学单元组的所述光学单元的所述光源的光轴与所述取像元件的光轴皆落在所述虚拟平面上。
28.一种判断手势的方法,其特征在于,包括:
使用如权利要求1所述的手势感测装置,在一第一时间,在一第一取样处与一第二取样处分别取得一物体的一第一切面信息与一第二切面信息;
在一第二时间,在所述第一取样处与所述第二取样处分别取得所述物体的一第三切面信息与一第四切面信息;
比较所述第一切面信息与所述第三切面信息以得到一第一变化信息;
比较所述第二切面信息与所述第四切面信息以得到一第二变化信息;以及
根据所述第一变化信息与所述第二变化信息以判断所述物体的手势变化。
29.如权利要求28所述的判断手势的方法,其特征在于,所述第一取样处与所述第二取样处分别为空间中的一第一虚拟平面与一第二虚拟平面所在的位置,所述第一切面信息与所述第三切面信息分别为所述物体位于所述第一虚拟平面与所述第二虚拟平面上的切面的信息。
30.如权利要求29所述的判断手势的方法,其特征在于,所述第一虚拟平面平行于所述第二虚拟平面。
31.如权利要求28所述的判断手势的方法,其特征在于,所述第一切面信息、所述第二切面信息、所述第三切面信息及所述第四切面信息各包括切面位置、切面尺寸及切面数量的至少其中之一。
32.如权利要求28所述的判断手势的方法,其特征在于,所述第一变化信息与所述第二变化信息各包括切面位移量、切面转动量、切面尺寸变化量及切面数量变化量的至少其中之一。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW101111860A TWI464640B (zh) | 2012-04-03 | 2012-04-03 | 手勢感測裝置及具有手勢輸入功能的電子系統 |
TW101111860 | 2012-04-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103365410A CN103365410A (zh) | 2013-10-23 |
CN103365410B true CN103365410B (zh) | 2016-01-27 |
Family
ID=49234226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210118158.XA Active CN103365410B (zh) | 2012-04-03 | 2012-04-19 | 手势感测装置及具有手势输入功能的电子系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20130257736A1 (zh) |
CN (1) | CN103365410B (zh) |
TW (1) | TWI464640B (zh) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
DE102012014910A1 (de) * | 2012-07-27 | 2014-01-30 | Volkswagen Aktiengesellschaft | Bedienschnittstelle, Verfahren zum Anzeigen einer eine Bedienung einer Bedienschnittstelle erleichternden Information und Programm |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US20140181710A1 (en) * | 2012-12-26 | 2014-06-26 | Harman International Industries, Incorporated | Proximity location system |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9626015B2 (en) | 2013-01-08 | 2017-04-18 | Leap Motion, Inc. | Power consumption in motion-capture systems with audio and optical signals |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US9696867B2 (en) | 2013-01-15 | 2017-07-04 | Leap Motion, Inc. | Dynamic user interactions for display control and identifying dominant gestures |
WO2014200589A2 (en) | 2013-03-15 | 2014-12-18 | Leap Motion, Inc. | Determining positional information for an object in space |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US9747696B2 (en) | 2013-05-17 | 2017-08-29 | Leap Motion, Inc. | Systems and methods for providing normalized parameters of motions of objects in three-dimensional space |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
TWI528226B (zh) | 2014-01-15 | 2016-04-01 | 緯創資通股份有限公司 | 影像式觸控裝置及其控制方法 |
CN104850271B (zh) * | 2014-02-18 | 2019-03-29 | 联想(北京)有限公司 | 一种输入方法和装置 |
CN104850330B (zh) * | 2014-02-18 | 2018-12-14 | 联想(北京)有限公司 | 信息处理方法、系统及电子设备 |
CN104866073B (zh) * | 2014-02-21 | 2018-10-12 | 联想(北京)有限公司 | 信息处理方法及其系统、包括该信息处理系统的电子设备 |
CN104881109B (zh) * | 2014-02-28 | 2018-08-10 | 联想(北京)有限公司 | 一种动作识别方法、装置及电子设备 |
EP3116616B1 (en) * | 2014-03-14 | 2019-01-30 | Sony Interactive Entertainment Inc. | Gaming device with volumetric sensing |
FR3024262B1 (fr) * | 2014-07-24 | 2017-11-17 | Snecma | Dispositif d'aide a la maintenance d'un moteur d'aeronef par reconnaissance de mouvement a distance. |
CN204480228U (zh) | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
CN106560766A (zh) * | 2015-10-04 | 2017-04-12 | 义明科技股份有限公司 | 非接触式手势判断方法及其装置 |
TWI611340B (zh) * | 2015-10-04 | 2018-01-11 | 義明科技股份有限公司 | 非接觸式手勢判斷方法及其裝置 |
CN110622219B (zh) * | 2017-03-10 | 2024-01-19 | 杰创科增强现实有限公司 | 交互式增强现实 |
US10598786B2 (en) * | 2017-06-25 | 2020-03-24 | Pixart Imaging Inc. | Object state determining apparatus and object state determining method |
US10591730B2 (en) * | 2017-08-25 | 2020-03-17 | II Jonathan M. Rodriguez | Wristwatch based interface for augmented reality eyewear |
CN110502095B (zh) * | 2018-05-17 | 2021-10-29 | 宏碁股份有限公司 | 具备手势感测功能的三维显示器 |
CN110581987A (zh) * | 2018-06-07 | 2019-12-17 | 宏碁股份有限公司 | 具备手势感测功能的三维显示器 |
FR3094191B1 (fr) * | 2019-03-29 | 2021-04-09 | Seb Sa | Appareil electromenager |
US11698457B2 (en) * | 2019-09-04 | 2023-07-11 | Pixart Imaging Inc. | Object detecting system and object detecting method |
TWI788090B (zh) * | 2021-11-08 | 2022-12-21 | 啟碁科技股份有限公司 | 虛擬輸入介面控制方法及虛擬輸入介面控制系統 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7619617B2 (en) * | 2002-11-15 | 2009-11-17 | Smart Technologies Ulc | Size/scale and orientation determination of a pointer in a camera-based touch system |
TWM406774U (en) * | 2011-01-17 | 2011-07-01 | Top Victory Invest Ltd | Touch control assembly and display structure |
CN102299990A (zh) * | 2010-06-22 | 2011-12-28 | 希姆通信息技术(上海)有限公司 | 手势控制的手机 |
TW201207694A (en) * | 2010-08-03 | 2012-02-16 | Qisda Corp | Object detecting system and object detecting method |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7058204B2 (en) * | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
US8169404B1 (en) * | 2006-08-15 | 2012-05-01 | Navisense | Method and device for planary sensory detection |
WO2009062153A1 (en) * | 2007-11-09 | 2009-05-14 | Wms Gaming Inc. | Interaction with 3d space in a gaming system |
US8773352B1 (en) * | 2008-07-16 | 2014-07-08 | Bby Solutions, Inc. | Systems and methods for gesture recognition for input device applications |
CN102511024A (zh) * | 2009-08-25 | 2012-06-20 | 夏普株式会社 | 位置识别传感器、电子设备和显示装置 |
TWI497358B (zh) * | 2009-11-18 | 2015-08-21 | Qisda Corp | 物體偵測系統 |
US20130182079A1 (en) * | 2012-01-17 | 2013-07-18 | Ocuspec | Motion capture using cross-sections of an object |
-
2012
- 2012-04-03 TW TW101111860A patent/TWI464640B/zh active
- 2012-04-19 CN CN201210118158.XA patent/CN103365410B/zh active Active
- 2012-07-13 US US13/548,217 patent/US20130257736A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7619617B2 (en) * | 2002-11-15 | 2009-11-17 | Smart Technologies Ulc | Size/scale and orientation determination of a pointer in a camera-based touch system |
CN102299990A (zh) * | 2010-06-22 | 2011-12-28 | 希姆通信息技术(上海)有限公司 | 手势控制的手机 |
TW201207694A (en) * | 2010-08-03 | 2012-02-16 | Qisda Corp | Object detecting system and object detecting method |
TWM406774U (en) * | 2011-01-17 | 2011-07-01 | Top Victory Invest Ltd | Touch control assembly and display structure |
Also Published As
Publication number | Publication date |
---|---|
TWI464640B (zh) | 2014-12-11 |
TW201342138A (zh) | 2013-10-16 |
US20130257736A1 (en) | 2013-10-03 |
CN103365410A (zh) | 2013-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103365410B (zh) | 手势感测装置及具有手势输入功能的电子系统 | |
US9477324B2 (en) | Gesture processing | |
CA2811868C (en) | Operation input apparatus, operation input method, and program | |
TWI520034B (zh) | 判斷觸控手勢之方法及觸控系統 | |
JP5846662B2 (ja) | 3次元で表示されるオブジェクトのユーザの選択ジェスチャに応答する方法およびシステム | |
Guimbretière et al. | Bimanual marking menu for near surface interactions | |
CN102163108B (zh) | 多触摸点识别方法及装置 | |
CN104407786A (zh) | 实现全息图像显示的交互式显示方法、控制方法及系统 | |
CN102184056B (zh) | 多触摸点识别方法及装置 | |
CN103677240A (zh) | 虚拟触摸交互方法和虚拟触摸交互设备 | |
CN104049779A (zh) | 在多个显示器之间实现鼠标指针快速切换 | |
CN102135839A (zh) | 一种终端及其输入方法 | |
CN103365485A (zh) | 光学式触控感测装置 | |
CN102572073A (zh) | 可检测物体运动方向的移动通讯终端 | |
CN104978018B (zh) | 触控系统及触控方法 | |
CN102156605B (zh) | 物件移动方法、物件移动系统及电子装置 | |
CN104679352B (zh) | 光学触控装置及触控点检测方法 | |
CN104571726A (zh) | 光学触控系统、触控检测方法及电脑程序产品 | |
JP2020052681A (ja) | 操作処理装置 | |
KR20130136313A (ko) | 터치 펜을 이용한 터치 스크린 시스템 및 그 터치 인식 방법 | |
CN103376884A (zh) | 人机交互方法及其装置 | |
CN102253747B (zh) | 触摸屏识别面触摸的方法 | |
CN109308113A (zh) | 非接触式输入装置及方法、能进行非接触式输入的显示器 | |
TWI444875B (zh) | 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法 | |
TWI762007B (zh) | 手勢辨識系統以及手勢辨識方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |