CN105320361A - 光学触控系统 - Google Patents
光学触控系统 Download PDFInfo
- Publication number
- CN105320361A CN105320361A CN201410371592.8A CN201410371592A CN105320361A CN 105320361 A CN105320361 A CN 105320361A CN 201410371592 A CN201410371592 A CN 201410371592A CN 105320361 A CN105320361 A CN 105320361A
- Authority
- CN
- China
- Prior art keywords
- target piece
- touch control
- processor
- control system
- optical touch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 36
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 22
- 238000000034 method Methods 0.000 description 5
- 238000009434 installation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明提供一种光学触控系统,包括:一显示单元;一光源;一图像获取单元,用以获取该显示单元前由该光源所发射出的光线所反射的多张图像;以及一处理器,其中该处理器依据这些图像计算在该显示单元前的一操作空间是否具有一目标物件,其中当该处理器判断该目标物件位于该操作空间的一触控区域时,该处理器判断该目标物件进行一触控操作,其中当该处理器判断该目标物件位于该操作空间的一手势区域时,该处理器判断该目标物件进行一手势操作。
Description
技术领域
本发明涉及光学系统,特别是涉及可利用光学装置判断触控位置的一种光学触控系统。
背景技术
随着科技进步,具有触控面板的电子装置,例如智能手机、智能电视、笔记型计算机、触控屏幕等等也越来越普遍。然而,对于许多使用者来说,其所具有的电子装置,例如传统LCD/LED电视或显示器等等,并未具备触控功能。因此,若使用者欲让传统的电视或显示器具有触控功能,往往仅能更换具有触控功能的电视或显示器,这也往往造成使用者的负担。
发明内容
本发明提供一种光学触控系统,包括:一显示单元;一光源;一图像获取单元,用以获取该显示单元前由该光源所发射出的光线所反射的多张图像;以及一处理器,其中该处理器依据这些图像判断在该显示单元前的一操作空间是否具有一目标物件,其中当该处理器判断该目标物件位于该操作空间的一触控区域时,该处理器判断该目标物件进行一触控操作,其中当该处理器判断该目标物件位于该操作空间的一手势区域时,该处理器判断该目标物件进行一手势操作。
附图说明
图1显示依据本发明一实施例中的光学触控系统的功能方块图。
图2A显示依据本发明一实施例中光学式触控系统的俯视图。
图2B显示依据本发明一实施例中光学式触控系统的侧视图。
图2C显示依据本发明一实施例中的获取图像的示意图。
图3A显示依据本发明一实施例中的利用光学触控系统以校正深度关系的示意图。
图3B显示依据本发明一实施例中的校正基准图像的示意图。
图3C显示依据本发明另一实施例中的校正基准图像的示意图。
图3D显示依据本发明另一实施例中的获取图像的示意图。
图3E显示依据本发明一实施例中的光源120所发射出的特定图案的示意图。
图3F显示依据本发明一实施例中的光源120所发射出的特定图案的示意图。
图4显示依据本发明一实施例中的光学深度计算的示意图。
图5显示依据本发明一实施例中利用光学触控系统计算触控位置的示意图。
图6显示依据本发明一实施例中的触控方法的流程图。
附图符号说明
100-光学触控系统;
110-图像获取单元;
111-透镜;
112-传感器阵列;
120-光源;
130-处理器;
140-显示单元;
200-相机模块
210-操作空间;
220、222-虚线;
230-玻璃区域;
240-触控区域;
250-手势区域;
280-获取图像;
300、400-校正基准平面;
310-340-区块;
350-校正基准图像;
360-校正图像;
270、500-目标物件;
H、f、Z、Z’-距离;
h1、h2-像素坐标位置。
具体实施方式
为使本发明的上述目的、特征和优点能更明显易懂,下文特举一优选实施例,并配合附图详细说明如下。
图1显示依据本发明一实施例中的光学触控系统的功能方块图。如图1所示,光学触控系统100包括一图像获取单元110、一光源120、一处理器130、以及一显示单元140。在一实施例中,图像获取单元110及光源120可整合于一相机模块中,并可安装于显示单元140的边缘。举例来说,图像获取单元110可为一红外线相机,且光源120可为红外光(infraredlight)光源,但本发明并不限于此。图像获取单元110持续获取在显示单元140表面上的触控物件的图像,且处理器130分析图像获取单元110所获取的图像,并判断在图像中的触控物件及其在三维操作空间中的位置。
图2A显示依据本发明一实施例中光学式触控系统的俯视图。图2B显示依据本发明一实施例中光学式触控系统的侧视图。如图2A所示,包括图像获取单元110及光源120的相机模块200安装于显示单元140的其中一角落,其中图像获取单元110具有一操作空间210,例如以上方视角所得到的是介于虚线220及222之间的范围。请参考图2B,一般来说,显示单元140的表面由一层玻璃142所组成,图像获取单元110以一拍摄视角α进行获取图像。因此,处理器130由所获取的图像中判断目标物件270(例如手指、手掌或触控笔)在显示单元140上方的操作空间210中的位置。
图2C显示依据本发明一实施例中的获取图像的示意图。图像获取单元110所拍摄的获取图像280如图2C所示。举例来说,该获取图像可分为几个区域,例如玻璃区域(glasszone)230、触控区域(touchzone)240、以及手势区域(gesturezone)250,其他部分在拍摄范围外的部分均属于无效区(invalidzone)。当目标物件270位于触控区域240,则处理器130判断使用者欲在显示单元140的表面进行触控操作。当目标物件位于手势区域250,处理器130判断使用者欲进行手势操作,且处理器130由获取图像280中计算目标物件270的深度变化及行动轨迹,藉以判断其手势动作。
更进一步而言,触控区域240为在玻璃区域230上面在一预定像素距离之内的空间,其中预定像素距离为10像素,但本发明并不限于此。除此之外,触控区域240及手势区域250藉由获取图像中的像素位置来区分。举例来说,在获取图像280中的左上角的A1点坐标(XA1,YA1)为(0,0),且右下角的B1点坐标(XB1,YB1)为(200,200),其中往右为X轴,往下为Y轴。举例来说,手势区域250的左上角同样为A1点,其坐标为(0,0),且其右下角的B2点坐标为(200,100)。触控区域240的左上角为A2点,其坐标(XA2,YA2)为(0,100),且其右下角的为A3点,其坐标(XA3,YA3)为(200,110)。更进一步而言,当目标物件接近显示单元140的表面时,获取图像280中的触控区域会产生相应在X、Y轴的灰阶信息。处理器130再搭配获取图像280中的像素位置与深度的对应关系,即可算出目标物件在显示单元140的表面上的触控位置。
图3A显示依据本发明一实施例中的利用光学触控系统以校正深度关系的示意图。图3B显示依据本发明一实施例中的校正基准图像的示意图。如图3A所示,在光学触控系统100进行深度关系的校正时利用在一预定距离的一校正基准平面300,例如墙,其中校正基准平面300与光学触控系统100之间的距离是一已知距离D,且光学触控系统100中的光源120对校正基准平面300的墙面发射具有特定图案的校正基准图像350。当图像获取单元110为一红外线照相机时,其所获取的图像仅有灰阶信息。需注意的是,图3B以相反的灰阶值表示。举例来说,如图3B所示,为了便于说明,黑色光斑(实际上白色光斑)为光源120所发射出的特定条码(barcode)或特定图案。光源120所发射出的特定条码或特定图案以区块做为分隔,例如以8x8像素为一区块,其中各区块均有其相应的条码,彼此之间均不相同。例如区块310与区块320的条码均不相同,且区块310与区块330的条码亦不相同。
图3C显示依据本发明另一实施例中的校正基准图像的示意图。图3D显示依据本发明另一实施例中的获取图像的示意图。如图3C所示,当获取图像中没有任何目标物件时,图像获取单元110所获取的图像即为校正基准图像350。如图3D所示,当一目标物件270(例如一手掌)出现于获取图像中,该目标物件与图像获取单元110的距离往往与已知距离D不同,意即在图3C中的校正图像360的区块340的特定图案在图3D中的位置会产生变化,例如往右移动了10个像素。此时,处理器130则可依据校正基准图像350与距离的关系计算出该目标物件与图像获取单元110的距离。
图3E显示依据本发明一实施例中的光源120所发射出的特定图案的示意图。图3F显示依据本发明一实施例中的光源120所发射出的特定图案的示意图。在一实施例中,光源120所发射出的特定图案可为干涉条纹,如图3E所示。在另一实施例中,光源120所发射出的特定图案可为二维条码(2DBarcode),如图3F所示。对于本领域的技术人员应当了解本发明中由光源120所发出的特定图案并未限于上述两种图案的形式,其他可用于光学图案识别的特定图案亦可用于本发明。
图4显示依据本发明一实施例中的光学深度计算的示意图。在一实施例中,图像获取单元110包括一透镜111及一传感器阵列112,其中传感器阵列112包括多个光学传感器,例如CMOS或CCD传感器。如图4所示,距离Z为透镜111至校正基准平面400的距离,其为已知距离。在光学触控系统100进行校正时,光源120投射具有特定图案的校正基准图像至校正基准平面400。距离H表示光源120至透镜111的中心点的距离。距离f表示透镜111至传感器112的距离。h1表示在距离Z的校正基准平面400上的特定图案反射至传感器阵列112的像素坐标位置。h2表示在特定距离Z’的特定图案反射至传感器阵列112的像素坐标位置。其中该特定距离Z’即为待求距离。
利用光学对焦原理,由图4可得知:
h1/f=H/Z(1)
Z=f(h1)(2)
Z’=f(h2)(3)
因此,可利用上列公式(1)、(2)、(3)推得待求距离Z’,意即可求得目标物件与图像获取单元110之间的待求距离Z’。
图5显示依据本发明一实施例中利用光学触控系统计算触控位置的示意图。如图5所示,当利用图4所揭示的方式求得目标物件500与图像获取单元110之间的待求距离Z’后,处理器130还以该图像获取单元110为准,判断该目标物件500与显示单元140的边缘的夹角θ。接着,处理器130即可利用三角函数的关系式求得目标物件500在显示单元140上的触控位置的坐标(X,Y)。例如X=Cosθ*Z’,Y=Sinθ*Z’。
图6显示依据本发明一实施例中的触控方法的流程图。在步骤S610,图像获取单元110持续获取图像数据。在步骤S620,处理器130依据这些图像数据计算一深度信息图。在步骤S630,处理器130判断在触控区域是否有目标物件,若是,则执行步骤S650,若否,则执行步骤S640。在步骤S640,处理器130还判断在手势区域是否有目标物件,若是,则执行步骤S670,若否,则回到步骤S610。更进一步而言,处理器130在判断触控区域或手势区域是否有目标物件时,其利用本发明图4的实施例计算光源120所发射出的特定图案是否产生位移,并利用位移量计算目标物件与图像获取单元之间的距离(即深度),再进一步判断该目标物件位于触控区域或手势区域。
在步骤S650,处理器130计算目标物件的深度以及该目标物件在显示单元140上的触控位置。在步骤S660,处理器130输出相应于该触控位置的一触控指令。在步骤S670,处理器130计算目标物件的深度变化及其行动轨迹以判断其手势动作。在步骤S680,处理器130输出相应的手势操作结果。需注意的是,本领域的技术人员应了解在步骤S670及S680中判断手势的相关算法可参考现有技术,因此其细节这里不再赘述。
综上所述,本发明提供一种光学触控系统及触控方法,其可利用额外的一图像获取单元及光源安装于传统不具有触控功能的显示器或电视上,藉以进行触控操作及手势操作,并可节省使用者更换其电视或显示器的成本。
本发明虽以优选实施例揭示如上,然而其并非用以限定本发明的范围,本领域的技术人员,在不脱离本发明的精神和范围的前提下,应当可以做出一些更动与润饰,因此本发明的保护范围是以本发明的权利要求书为准。
Claims (8)
1.一种光学触控系统,包括:
一显示单元;
一光源;
一图像获取单元,用以获取该显示单元前由该光源所发射出的光线所反射的多张图像;以及
一处理器,其中该处理器依据这些图像判断在该显示单元前的一操作空间是否具有一目标物件,
其中当该处理器判断该目标物件位于该操作空间的一触控区域时,该处理器判断该目标物件进行一触控操作,
其中当该处理器判断该目标物件位于该操作空间的一手势区域时,该处理器判断该目标物件进行一手势操作。
2.如权利要求1所述的光学触控系统,其中该光源为一红外线光源,且该图像获取单元为一红外线照相机。
3.如权利要求1所述的光学触控系统,其中该处理器依据这些图像计算一深度信息图,并依据该深度信息图判断该目标物件位于该触控区域或该手势区域。
4.如权利要求1所述的光学触控系统,其中当该处理器判断该目标物件位于该触控区域时,该处理器计算该目标物件的一深度以及该目标物件相对于该显示单元的一触控位置。
5.如权利要求1所述的光学触控系统,其中当该处理器判断该目标物件位于该手势区域时,该处理器计算该目标物件的深度变化以及其行动轨迹,藉以判断该目标物件的一手势动作。
6.如权利要求1所述的光学触控系统,其中该光源发射出具有多个区块的一校正基准图像,且各区域包括相应的多个特定图案,其中该处理器判断各区域的这些特定图案的一位移量以计算该目标物件的一深度。
7.如权利要求6所述的光学触控系统,其中这些特定图案为多个干涉条纹。
8.如权利要求6所述的光学触控系统,其中这些特定图案为多个二维条码。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW103124207 | 2014-07-15 | ||
TW103124207A TWI506479B (zh) | 2014-07-15 | 2014-07-15 | 光學觸控系統 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105320361A true CN105320361A (zh) | 2016-02-10 |
CN105320361B CN105320361B (zh) | 2018-03-30 |
Family
ID=55074822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410371592.8A Expired - Fee Related CN105320361B (zh) | 2014-07-15 | 2014-07-31 | 光学触控系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20160019424A1 (zh) |
CN (1) | CN105320361B (zh) |
TW (1) | TWI506479B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106969707A (zh) * | 2017-04-07 | 2017-07-21 | 京东方科技集团股份有限公司 | 一种检测装置及其控制方法 |
WO2023202435A1 (zh) * | 2022-04-20 | 2023-10-26 | 陈鸿文 | 非接触式按键触发方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11042244B2 (en) * | 2012-04-24 | 2021-06-22 | Sony Corporation | Terminal device and touch input method |
US10726233B2 (en) * | 2017-08-09 | 2020-07-28 | Fingerprint Cards Ab | Providing test patterns for sensor calibration |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001290602A (ja) * | 2000-04-04 | 2001-10-19 | Newcom:Kk | 光デジタイザ |
CN101849241A (zh) * | 2007-10-17 | 2010-09-29 | 智能技术Ulc公司 | 交互式输入系统、其控制器以及控制装置的方法 |
US20110084938A1 (en) * | 2009-10-08 | 2011-04-14 | Silicon Motion, Inc. | Touch detection apparatus and touch point detection method |
CN102662535A (zh) * | 2011-11-18 | 2012-09-12 | 友达光电股份有限公司 | 可侦测物体的显示器及其控制方法 |
CN102681733A (zh) * | 2011-02-22 | 2012-09-19 | 微软公司 | 光学触摸探测 |
CN102915160A (zh) * | 2011-08-05 | 2013-02-06 | 原相科技股份有限公司 | 光学触控系统及具有该光学触控系统的电子装置 |
CN103472957A (zh) * | 2012-06-06 | 2013-12-25 | 纬创资通股份有限公司 | 双模输入装置 |
CN103902035A (zh) * | 2012-12-24 | 2014-07-02 | 财团法人工业技术研究院 | 三维互动装置及其操控方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6252720B1 (en) * | 1999-08-20 | 2001-06-26 | Disney Entpr Inc | Optical system and method for remotely manipulating interactive graphical elements on television screens and the like |
US7683881B2 (en) * | 2004-05-24 | 2010-03-23 | Keytec, Inc. | Visual input pointing device for interactive display system |
TWI337717B (en) * | 2007-04-12 | 2011-02-21 | Tpo Displays Corp | An image display system with a optical touch panel |
TWI433012B (zh) * | 2010-05-11 | 2014-04-01 | Pixart Imaging Inc | 光學式觸控顯示裝置與光學操作裝置 |
TWI413927B (zh) * | 2010-10-20 | 2013-11-01 | Pixart Imaging Inc | 視屏顯示模組、顯示裝置及其應用之電子裝置 |
TWI536226B (zh) * | 2011-11-30 | 2016-06-01 | 緯創資通股份有限公司 | 光學觸控裝置與觸控影像處理方法 |
-
2014
- 2014-07-15 TW TW103124207A patent/TWI506479B/zh not_active IP Right Cessation
- 2014-07-31 CN CN201410371592.8A patent/CN105320361B/zh not_active Expired - Fee Related
- 2014-08-20 US US14/463,964 patent/US20160019424A1/en not_active Abandoned
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001290602A (ja) * | 2000-04-04 | 2001-10-19 | Newcom:Kk | 光デジタイザ |
CN101849241A (zh) * | 2007-10-17 | 2010-09-29 | 智能技术Ulc公司 | 交互式输入系统、其控制器以及控制装置的方法 |
US20110084938A1 (en) * | 2009-10-08 | 2011-04-14 | Silicon Motion, Inc. | Touch detection apparatus and touch point detection method |
CN102681733A (zh) * | 2011-02-22 | 2012-09-19 | 微软公司 | 光学触摸探测 |
CN102915160A (zh) * | 2011-08-05 | 2013-02-06 | 原相科技股份有限公司 | 光学触控系统及具有该光学触控系统的电子装置 |
CN102662535A (zh) * | 2011-11-18 | 2012-09-12 | 友达光电股份有限公司 | 可侦测物体的显示器及其控制方法 |
CN103472957A (zh) * | 2012-06-06 | 2013-12-25 | 纬创资通股份有限公司 | 双模输入装置 |
CN103902035A (zh) * | 2012-12-24 | 2014-07-02 | 财团法人工业技术研究院 | 三维互动装置及其操控方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106969707A (zh) * | 2017-04-07 | 2017-07-21 | 京东方科技集团股份有限公司 | 一种检测装置及其控制方法 |
US10511780B2 (en) | 2017-04-07 | 2019-12-17 | Boe Technology Group Co., Ltd. | Detecting device, and method for controlling the same |
WO2023202435A1 (zh) * | 2022-04-20 | 2023-10-26 | 陈鸿文 | 非接触式按键触发方法 |
Also Published As
Publication number | Publication date |
---|---|
US20160019424A1 (en) | 2016-01-21 |
TWI506479B (zh) | 2015-11-01 |
CN105320361B (zh) | 2018-03-30 |
TW201602839A (zh) | 2016-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20100103099A1 (en) | Pointing device using camera and outputting mark | |
US8339359B2 (en) | Method and system for operating electric apparatus | |
US8923562B2 (en) | Three-dimensional interactive device and operation method thereof | |
US8723789B1 (en) | Two-dimensional method and system enabling three-dimensional user interaction with a device | |
US9734392B2 (en) | Image processing device and image processing method | |
US20140037135A1 (en) | Context-driven adjustment of camera parameters | |
US9880634B2 (en) | Gesture input apparatus, gesture input method, and program for wearable terminal | |
CN101794171A (zh) | 基于红外光运动捕捉的无线感应交互系统 | |
JP5384449B2 (ja) | タッチシステムのためのポインタ高さ検出方法およびポインタ座標検出方法ならびにタッチシステム | |
CN105320361A (zh) | 光学触控系统 | |
Dai et al. | Touchscreen everywhere: On transferring a normal planar surface to a touch-sensitive display | |
JP2016184362A (ja) | 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム | |
US10386930B2 (en) | Depth determining method and depth determining device of operating body | |
JP2016177491A (ja) | 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム | |
KR101575063B1 (ko) | 뎁스 카메라를 이용한 다중 사용자 멀티 터치 인터페이스 장치 및 방법 | |
WO2018076720A1 (zh) | 单手操控方法及操控系统 | |
Yoo et al. | Symmetrisense: Enabling near-surface interactivity on glossy surfaces using a single commodity smartphone | |
US20180032142A1 (en) | Information processing apparatus, control method thereof, and storage medium | |
CN106204604B (zh) | 投影触控显示装置及其交互方法 | |
RU2602829C2 (ru) | Оценка признаков управления от устройства дистанционного управления с камерой | |
CN104978018A (zh) | 触控系统及触控方法 | |
US20150103005A1 (en) | Pointing device using camera and outputting mark | |
CN103019478A (zh) | 基于曲面显示的触控装置和触控检测方法 | |
Zhang et al. | Near-field touch interface using time-of-flight camera | |
KR102191061B1 (ko) | 2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180330 Termination date: 20200731 |
|
CF01 | Termination of patent right due to non-payment of annual fee |