CN103324356B - 光学触控系统及光学触控位置检测方法 - Google Patents
光学触控系统及光学触控位置检测方法 Download PDFInfo
- Publication number
- CN103324356B CN103324356B CN201210103737.7A CN201210103737A CN103324356B CN 103324356 B CN103324356 B CN 103324356B CN 201210103737 A CN201210103737 A CN 201210103737A CN 103324356 B CN103324356 B CN 103324356B
- Authority
- CN
- China
- Prior art keywords
- touch control
- image
- control object
- lens module
- camera lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 57
- 238000001514 detection method Methods 0.000 title claims abstract description 11
- 238000000034 method Methods 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 claims description 4
- 230000005484 gravity Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008520 organization Effects 0.000 description 4
- 238000000205 computational method Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0428—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
Abstract
本发明提供一种光学触控系统及光学触控位置检测方法。该光学触控系统,包括:一镜头模块,具有一透镜及一影像感测器,使至少一触控物通过该透镜成像于该影像感测器;一主动光源,用以照亮该触控物;以及一处理器,根据该影像感测器的影像大小或影像亮度来判断该触控物与该镜头模块的距离,并且根据在该影像感测器的影像位置来判断该触控物的方向,计算该触控物的位置。
Description
技术领域
本发明涉及一种光学触控系统及光学触控位置检测方法,特别是涉及一种使用单一镜头检测触控物距离及方向的光学触控系统及光学触控位置检测方法。
背景技术
使用于显示器的触控技术除了将屏幕内建电容式或电感式触控面板外,还包括外加具有影像感测器的镜头模块于显示器周边,用以检测触控位置的光学触控技术。
现有的光学触控技术使用两个镜头模块,并配置于触控平面的不同角落,使两者的视野同时涵盖整个触控平面。而触控平面上的触控点位置则是藉由触控物与两个镜头的连线后的交点来决定。
如图1所示,镜头模块101、102配置于触控区域103的两个角落,使镜头模块101与102的视野都能涵盖整个触控区域103。而触控区域103的边缘还配置了线性光源104及反向反射镜(Retro-reflector)105,其中反向反射镜105包围触控区域103的三个边,并可将任意方向入射的光线以接近入射的方向反射回去。因此线性光源104可照亮整个触控区域103并通过反向反射镜105将光线反射回镜头模块101与102。当有一触控物碰触触控区域103产生一触控点107时,因触控物挡住了与镜头模块101、102连线方向的反射光,因此镜头模块101、102都会在其影像感测器的某一像素位置获得暗点。最后,处理器106再根据镜头模块101、102的影像感测器的暗点位置,判断触控点107相对于镜头模块101、102的方向,并计算出触控点107的实际位置。
除此之外,现有的光学触控技术也有使用一个镜头模块配置于触控平面的角落,再搭配平面镜的构造。
如图2所示,镜头模块201配置于触控区域203的一个角落,使镜头模块201的视野涵盖整个触控区域203。另外,触控区域203的边缘还配置了线性光源204及平面镜(Mirror)205。因为平面镜205可将镜头模块201镜像至对称的位置,故此架构实质上仍等同于有两个镜头模块存在。而线性光源204通过平面镜205照亮整个触控区域203并将光线反射回镜头模块201。当有一触控物碰触触控区域203产生一触控点207时,因触控物挡住了两个方向的光线经由平面镜205反射至镜头模块201,故镜头模块201内的影像感测器会在某两个像素位置产生暗点。最后,处理器206再根据镜头模块201的影像感测器的两个暗点位置对应的方向,计算出触控点207的实际位置。
因此,现有技术的光学触控系统无论是使用两个镜头模块搭配反向反射镜或是一个镜头模块搭配平面镜的架构,都会导致制造成本提高。本发明有鉴于此,而提出一种仅使用一个镜头模块来检测触控点位置的光学触控系统及光学触控位置检测方法,因本发明的光学触控系统不需要线性光源、平面镜、反向反射镜等组件,故可以降低整个光学触控系统的制造成本。
发明内容
有鉴于上述降低制造成本的需求,本发明提供一种光学触控系统,包括:一镜头模块,具有一透镜及一影像感测器,使至少一触控物通过该透镜成像于该影像感测器;一主动光源,用以照亮该触控物;一处理器,根据该影像感测器的影像大小或影像亮度来判断该触控物与该镜头模块的距离,并且根据在该影像感测器的影像位置来判断该触控物的方向,计算该触控物的位置;以及一触控面,提供该触控物进行触控操作,其中该镜头模块配置于该触控面的周边,使该镜头模块的视野可涵盖该触控面上的任意位置。
上述的光学触控系统中,该主动光源设置于该镜头模块上,并且提供足够强度的光,使该触控物可将来自该主动光源的光反射回该透镜模块。
根据本发明一个实施例,上述的光学触控系统中的该主动光源为红外光发光二极管或红外光激光二极管,且该影像感测器的影像检测范围为红外线影像。
根据本发明一个实施例,上述的光学触控系统中,该影像感测器的影像大小是由该影像所占像素数目而定。且该处理器根据该影像感测器的影像大小来判断该触控物与该镜头模块的距离时,依据以下公式计算:
W1/W2=D2/D1,
其中,D1、D2为该触控物与该镜头模块的距离,W1、W2为该触控物与该镜头模块距离D1、D2时的影像宽度。
根据本发明一个实施例,上述的光学触控系统中,该影像感测器的影像亮度是由该影像灰阶值高低而定。且该处理器根据该影像感测器的影像亮暗来判断该触控物与该镜头模块的距离时,依据以下公式计算:
L1/L2=(D2/D1)2,
其中,D1、D2为该触控物与该镜头模块的距离,L1、L2为该触控物与该镜头模块距离D1、D2时的影像亮度。
根据本发明一个实施例,上述的光学触控系统中该触控物的方向是由该触控物位置至该透镜模块的连线与一既定的基准线的夹角来表示,该处理器根据该影像的中心所对应的该影像感测器的像素决定该夹角。
本发明还提供一种光学触控位置检测方法,包括:使用一具有影像感测器的镜头模块来接收至少一触控物的影像;根据该影像感测器的触控物影像大小或影像亮度来判断该触控物与该镜头模块的距离;根据在该影像感测器的触控物影像位置来判断该触控物的方向;根据该距离及该方向的信息,计算该触控物的位置。
上述的光学触控位置检测方法中,该影像感测器的影像大小是由该影像所占像素数目而定,且该影像感测器的影像亮度是由该影像灰阶值高低而定。另外,该触控物影像位置是由该影像的中心所对应的该影像感测器的像素而定。
根据本发明的光学触控系统及其触控位置检测方法,只用单一镜头模块来检测触控位置,且因采用设置于镜头模块上的主动光源来照亮触控物,使镜头模块接收触控物的反射光的方式来成像,故可省去现有技术的反向反射镜或平面镜等组件。因此本发明的光学触控系统相对于现有技术可有效地降低生产成本。
附图说明
图1是现有技术的光学触控系统架构图。
图2是现有技术的光学触控系统架构图。
图3是根据本发明实施例的光学触控系统架构图。
图4是本发明实施例的光学触控系统的距离计算的示意图。
图5是说明本发明实施例的距离计算方法的示意图。
图6是本发明实施例的光学触控系统的夹角计算的示意图。
图7是根据本发明实施例光学触控系统的触控位置检测步骤流程图。
图8是校正镜头模块角度参数的说明图。
图9是校正触控物距离参数的说明图。
图10是实际触控点计算的说明图。
附图符号说明
101、102、201、301~镜头模块;
104、204~线性光源;
105~反向反射镜;
205~平面镜;
302~主动光源;
106、206、303~处理器;
103、203、304~触控区域;
107、207、305~触控点;
306~透镜;
307~影像感测器;
D、D1、D2~距离;
O1、O2~触控物;
I、I1、I2~影像;
L1、L2~亮度
W1、W2~宽度
θ~夹角;
FOV~视野。
具体实施方式
图3是根据本发明实施例的光学触控系统架构图。如图3所示,本发明实施例的光学触控系统仅包括:一个镜头模块301、一个主动光源302、及一个处理器303。镜头模块301配置于触控区域304的一个角落,使镜头模块301的视野至少能涵盖整个触控区域304。主动光源302固定于镜头模块301上。用以照亮触控区域304上出现的触控物,使得主动光源302所发出的光能自触控物反射回镜头模块301。处理器303则用以计算触控物的触控点305位置。
接下来,将说明此光学触控系统的触控点位置检测方法。如图3所示,假设触控点305至镜头模块301之间的距离(为了方便说明,以后仅称为距离或触控物距离)为D,并且触控点305至镜头模块301的连线与触控区域304的一边缘的夹角(为了方便说明,以后仅称为夹角或触控物夹角)为θ。因此只要能求得距离D及夹角θ就能决定出触控点305在触控区域304上唯一的位置。以下将依序说明距离D的计算方法及夹角θ的计算方法。
图4是本发明实施例的光学触控系统的距离计算的示意图。镜头模块301包括一透镜306及一影像感测器307,此透镜306与影像感测器307的搭配可以决定出镜头模块301的视野FOV。在视野FOV内,触控物O1会通过透镜306于影像感测器307形成影像I1,触控物O2会通过透镜306于影像感测器307形成影像I2。而本发明的距离计算方法有两种:根据影像大小来决定距离或根据影像亮度来决定距离。
当采用根据影像大小来决定距离时,因较远离透镜306的触控物O1会在影像感测器307形成较小的影像I1,较靠近透镜306的触控物O2会在影像感测器307形成较大的影像I2。因此本发明可根据影像感测器307上的影像所占的像素数目(即影像宽度),来判断触控物距离镜头模块301的远近。
如图5所示,假设当触控物与镜头模块301距离D1时,影像感测器307上形成了宽度W1的影像;当触控物与镜头模块301距离D2时,影像感测器307上形成了宽度W2的影像。根据几何比例关系,影像宽度与触控物距离成反比,故上述四个参数的关系式如下:
W1/W2=D2/D1............................................(1)
因此根据式子(1),只要处理器303内先储存一组已知的触控物距离及其对应的影像宽度(像素数目),就可以根据任意的触控物影像宽度计算出该触控物的距离。
回到图4,当采用根据影像亮度来决定距离时,因较远离透镜306的触控物O1会在影像感测器307形成较暗的影像I1(因反射回来的光量较少),较靠近透镜306的触控物O2会在影像感测器307形成较亮的影像I2(因反射回来的光量较多)。因此本发明也可根据影像感测器307上的影像灰阶值(即影像亮度),来判断触控物距离镜头模块301的远近。
如图5所示,假设当触控物与镜头模块301距离D1时,影像感测器307上形成了亮度L1的影像;当触控物与镜头模块301距离D2时,影像感测器307上形成了亮度L2的影像。因为亮度大小与触控物距离平方成反比,故上述四个参数的关系式如下:
L1/L2=(D2/D1)2...........................................(2)
因此根据式子(2),只要处理器303内先储存一组已知的触控物距离及其对应的影像亮度(灰阶值),就可以根据任意的触控物影像亮度计算出该触控物的距离。
以上即为本发明的两种触控物的距离计算方式,接着将说明触控物的夹角的计算方式。
如先前所述,镜头模块301包括一透镜306及一影像感测器307。因此,位于不同的夹角位置的触控物通过透镜306会成像于影像感测器307上唯一的对应像素位置。利用此特性即可从影像感测器307的影像像素位置反推回触控物在触控区域304上相对于镜头模块301的夹角θ。
图6是本发明实施例的光学触控系统的夹角计算的示意图。假设镜头模块301的视野FOV为90度,恰好涵盖整个触控区域304,以影像感测器307的像素数目为900个(像素编号0~899)为例。因此触控物夹角每移动0.1度影像的像素位置就会移动1个像素。如图6所示,当触控物位于夹角0度时,影像I位于第0个像素的位置;当触控物位于夹角45度时,影像I位于第450个像素的位置;当触控物位于夹角67.5度时,影像I位于第675个像素的位置。
根据上述方法,即可由影像所在的像素位置推得触控物的夹角θ。需注意的是,本发明镜头模块的视野与影像感测器的像素数目并未限定于上述的90度与900个,图6仅是举出一个较容易理解的例子来做说明而已。
当获得触控物的距离D及夹角θ两项信息后,触控物的在触控区域上的唯一位置即可被确定。了解本发明实施例的光学触控系统的触控点位置检测方法后,接下来将参照图7-图10,以一个例子说明此光学触控系统的触控位置检测步骤。
图7是根据本发明实施例光学触控系统的触控位置检测步骤流程图。图8是校正镜头模块角度参数的说明图。图9是校正触控物距离参数的说明图。图10是实际触控点计算的说明图。
首先,进行步骤1:校正镜头模块的角度参数。将触控区域在镜头模块的视野内的最大涵盖区域边缘分成数个校正参考点,记录触控区域上每个参考点所对应到的触控感测器的像素中心/重心位置。
如图8所示,将触控区域从右上角沿着右侧边缘及下侧边缘至左下角依序分为1~N个参考点,每个参考点具有一特定的夹角(即参考点至镜头模块与触控区域边缘的夹角)。接着使触控物接触上述一个以上的参考点,并记录触控物接触的参考点所对应的像素中心/重心位置,如在总共640个像素的影像感测器中,参考点1的影像中心/重心位置在第12.5个像素的位置、参考点2的影像中心/重心位置在第100个像素的位置、参考点3的影像中心/重心位置在第160个像素的位置、参考点N的影像中心/重心位置在第626个像素的位置。如此一来,即可根据每一参考点的夹角与影像所在像素位置,求出一角度对影像位置的角度校正参数曲线。
接着,进行步骤2:校正触控物的距离参数。将触控域内依距离的远近分成几个参考点,并记录触控区域上每个参考点所对应到的触控感测器的影像亮度或影像大小。
如图9所示,将触控区域的对角线方向依距离的远近分为几个参考点(距离D1及D2的参考点)。接着使触控物接触上述一个以上的参考点,并记录触控物接触的参考点所对应的影像亮度(L1、L2)或影像大小(W1、W2)。例如,距离30mm的参考点的影像亮度为1000个灰阶;距离70mm的参考点的影像亮度为183.67个灰阶;距离100mm的参考点的影像亮度为90个灰阶。或者是,例如距离30mm的参考点的影像大小占630个像素;距离70mm的参考点的影像大小占270个像素;距离100mm的参考点的影像大小占189个像素。如此一来,即可根据每一参考点的距离与影像亮度,求出一距离对影像亮度的距离校正参数曲线,或者是根据每一参考点的距离与影像大小,求出一距离对影像大小的距离校正参数曲线。
最后,进行步骤3:实际触控点计算。在此步骤下,使用者做实际的触控操作,而本光学触控系统根据触控物的影像位置决定触控物的角度,根据触控物的影像亮度或影像大小决定触控物的距离。计算完触控点位置后,若使用者继续触控操作则重复步骤3。
如图10所示,假设当触控物碰触触控区域时,影像感测器产生对应的影像。此影像的中心/重心位于第300个像素,故根据角度对影像位置角度校正参数曲线,可得知此触控物的触控点位于夹角40度的延伸方向。而若此影像大小共占270个像素(横跨第165至435个像素),故根据的距离对影像大小的距离校正曲线,可得知此触控物位于距离镜头模块70mm的位置。处理器根据上述的夹角及距离计算出实际的触控点位置。
以上即为本发明的光学触控系统的触控位置检测步骤。因不同触控物会有不同的特征,例如粗细不同的触控物,故在实际触控操作前先让触控物点击一个以上的指定参考点,进行角度参数及距离参数的校正,可让实际操作时触控点位置的计算更为精确。
根据本发明的实施例的光学触控系统及其触控位置检测方法,只用单一镜头模块来检测触控位置,且因采用设置于镜头模块上的主动光源来照亮触控物,使镜头模块接收触控物的反射光的方式来成像,故可省去现有技术的反向反射镜或平面镜等组件。因此本发明的光学触控系统相对于现有技术可有效地降低生产成本。
以上说明仅为部分实施例,并非用以限定本发明,本发明的范围将由本发明的权利要求来界定,在不脱离本发明技术思想的前提下实施例可做各种变更。例如,镜头模块不一定要置于触控区域的角落,也可以在满足镜头模块的视野涵盖整个触控区域的条件下,置于触控区域周边的任意位置。另外,主动光源可例如是红外光发光二极管或红外光激光二极管,此时影像感测器的影像检测范围则必须涵盖红外线影像。而实施例的镜头模块虽只包括一透镜,但也可以是多个透镜构成的透镜组。
Claims (10)
1.一种光学触控系统,包括:
一镜头模块,具有一透镜及一影像感测器,使至少一触控物通过该透镜成像于该影像感测器;
一主动光源,用以照亮该触控物;一处理器,根据该影像感测器的影像大小或影像亮度来判断该触控物与该镜头模块的距离,并且根据在该影像感测器的影像位置来判断该触控物的方向,计算该触控物的位置;以及
一触控面,提供该触控物进行触控操作,
其中该镜头模块配置于该触控面的周边,使该镜头模块的视野可涵盖该触控面上的任意位置,并且
其中该处理器根据该影像感测器的影像大小来判断该触控物与该镜头模块的距离时,是依据以下公式计算:
W1/W2=D2/D1,
其中,D1、D2为该触控物与该镜头模块的距离,W1、W2为该触控物与该镜头模块距离D1、D2时的影像宽度。
2.如权利要求1所述的光学触控系统,其中该主动光源设置于该镜头模块上,并且提供足够强度的光,使该触控物可将来自该主动光源的光反射回该镜头模块。
3.如权利要求2所述的光学触控系统,其中该主动光源为红外光发光二极管或红外光激光二极管,且该影像感测器的影像检测范围为红外线影像。
4.如权利要求1所述的光学触控系统,其中该影像感测器的影像大小是由该影像所占像素数目而定。
5.如权利要求1所述的光学触控系统,其中该影像感测器的影像亮度是由该影像灰阶值高低而定。
6.如权利要求1所述的光学触控系统,其中该处理器根据该影像感测器的影像亮度来判断该触控物与该镜头模块的距离时,是依据以下公式计算:
L1/L2=(D2/D1)2,
其中,D1、D2为该触控物与该镜头模块的距离,L1、L2为该触控物与该镜头模块距离D1、D2时的影像亮度。
7.如权利要求1所述的光学触控系统,其中该触控物的方向是由该触控物位置至该透镜模块的连线与一既定的基准线的夹角来表示,该处理器根据该影像的中心所对应的该影像感测器的像素决定该夹角。
8.一种光学触控位置检测方法,包括:
使用一具有影像感测器的镜头模块来接收至少一触控物的影像;
根据该影像感测器的触控物影像大小或影像亮度来判断该触控物与该镜头模块的距离;
根据在该影像感测器的触控物影像位置来判断该触控物的方向;
根据该距离及该方向的信息,计算该触控物的位置,
其中根据该影像感测器的触控物影像大小来判断该触控物与该镜头模块的距离时,是依据以下公式计算:
W1/W2=D2/D1,
其中,D1、D2为该触控物与该镜头模块的距离,W1、W2为该触控物与该镜头模块距离D1、D2时的影像宽度。
9.如权利要求8所述的光学触控位置检测方法,其中该影像感测器的影像大小是由该影像所占像素数目而定,且该影像感测器的影像亮度是由该影像灰阶值高低而定。
10.如权利要求8所述的光学触控位置检测方法,其中该触控物影像位置是由该影像的中心所对应的该影像感测器的像素而定。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW101109281 | 2012-03-19 | ||
TW101109281A TWI460637B (zh) | 2012-03-19 | 2012-03-19 | 光學觸控系統及光學觸控位置檢測方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103324356A CN103324356A (zh) | 2013-09-25 |
CN103324356B true CN103324356B (zh) | 2016-06-01 |
Family
ID=49157156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210103737.7A Active CN103324356B (zh) | 2012-03-19 | 2012-04-10 | 光学触控系统及光学触控位置检测方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8982101B2 (zh) |
CN (1) | CN103324356B (zh) |
TW (1) | TWI460637B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI475446B (zh) * | 2012-04-24 | 2015-03-01 | Wistron Corp | 光學式觸控系統及其擷取訊號調整之方法 |
TWI525507B (zh) * | 2013-10-22 | 2016-03-11 | 緯創資通股份有限公司 | 光學觸控系統、觸控偵測方法及電腦程式產品 |
TWI534687B (zh) | 2014-01-24 | 2016-05-21 | 原相科技股份有限公司 | 光學觸控系統及其物件分析方法 |
LU92408B1 (en) * | 2014-03-21 | 2015-09-22 | Olivier Raulot | User gesture recognition |
EP2993645B1 (en) * | 2014-09-02 | 2019-05-08 | Nintendo Co., Ltd. | Image processing program, information processing system, information processing apparatus, and image processing method |
TWI562046B (en) | 2015-06-25 | 2016-12-11 | Wistron Corp | Optical touch apparatus and width detecting method thereof |
TWI612445B (zh) * | 2015-09-21 | 2018-01-21 | 緯創資通股份有限公司 | 光學觸控裝置及觸控位置的決定方法 |
TWI574196B (zh) * | 2016-01-21 | 2017-03-11 | 緯創資通股份有限公司 | 光學觸控裝置、觸控指示點位置決定方法以及光學觸控系統 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011210007A (ja) * | 2010-03-30 | 2011-10-20 | Touch Panel Kenkyusho:Kk | 光学式位置検出装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4033582B2 (ja) * | 1998-06-09 | 2008-01-16 | 株式会社リコー | 座標入力/検出装置および電子黒板システム |
JP4083941B2 (ja) * | 1999-09-03 | 2008-04-30 | 株式会社リコー | 座標入力装置 |
US7557935B2 (en) * | 2003-05-19 | 2009-07-07 | Itzhak Baruch | Optical coordinate input device comprising few elements |
US20060039627A1 (en) * | 2004-08-21 | 2006-02-23 | Xerox Corporation | Real-time processing of grayscale image data |
KR20080044017A (ko) * | 2006-11-15 | 2008-05-20 | 삼성전자주식회사 | 터치 스크린 |
TWM359744U (en) * | 2008-06-02 | 2009-06-21 | Tron Intelligence Inc | Sensing coordinate input device |
CN102365863A (zh) * | 2009-03-27 | 2012-02-29 | 皇家飞利浦电子股份有限公司 | 用于置于显示装置前方的装置 |
KR101706778B1 (ko) * | 2010-07-19 | 2017-02-27 | 엘지이노텍 주식회사 | 광학 터치 스크린 |
TWI421753B (zh) * | 2010-08-12 | 2014-01-01 | Lite On Semiconductor Corp | Calibration method, detection device and optical touch panel for optical touch panel |
-
2012
- 2012-03-19 TW TW101109281A patent/TWI460637B/zh active
- 2012-04-10 CN CN201210103737.7A patent/CN103324356B/zh active Active
-
2013
- 2013-02-11 US US13/764,270 patent/US8982101B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011210007A (ja) * | 2010-03-30 | 2011-10-20 | Touch Panel Kenkyusho:Kk | 光学式位置検出装置 |
Also Published As
Publication number | Publication date |
---|---|
US8982101B2 (en) | 2015-03-17 |
TW201339920A (zh) | 2013-10-01 |
US20130241883A1 (en) | 2013-09-19 |
TWI460637B (zh) | 2014-11-11 |
CN103324356A (zh) | 2013-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103324356B (zh) | 光学触控系统及光学触控位置检测方法 | |
US8619061B2 (en) | Optical touch apparatus and operating method thereof | |
CN101836180B (zh) | 检测视觉系统中的环境光级别 | |
US20100321309A1 (en) | Touch screen and touch module | |
TWI442286B (zh) | 觸控式輸入方法及其裝置 | |
US20120229384A1 (en) | Display device with location detection function and input location detection system | |
KR20060096182A (ko) | 에어리어 이미지 센서를 사용한 위치 검출 장치 | |
CN101816547A (zh) | 基于瞳孔对称性的自动直视检测方法和系统 | |
CN102449584A (zh) | 光学位置检测设备 | |
US20180373348A1 (en) | Systems and methods of active brightness depth calculation for object tracking | |
CN104102394A (zh) | 一种光学多点触控设备及方法 | |
CN101609381A (zh) | 使用摄像头和反光镜的触摸检测传感装置 | |
TWI719728B (zh) | 指紋採集方法及裝置 | |
TW201324259A (zh) | 使用者介面顯示裝置 | |
CN104132621A (zh) | 一种拼接屏的拼接处的检查方法 | |
US8629856B2 (en) | Apparatus and method for acquiring object image of a pointer | |
CN111189840A (zh) | 近场均匀照明的纸病检测方法 | |
CN101667083A (zh) | 位置侦测系统及其安排方法 | |
CN102163103B (zh) | 触控式输入方法及其装置 | |
EP3015839B1 (en) | Laser pointing system for monitoring stability of structures | |
US20130241882A1 (en) | Optical touch system and optical touch position detecting method | |
CN102132239B (zh) | 交互式显示屏 | |
CN105278760B (zh) | 光学触控系统 | |
CN101923418B (zh) | 物体侦测系统及方法 | |
CN102043543A (zh) | 光学式触控系统及其方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |