CN103324357A - 光学触控系统及光学触控位置检测方法 - Google Patents

光学触控系统及光学触控位置检测方法 Download PDF

Info

Publication number
CN103324357A
CN103324357A CN2012101037396A CN201210103739A CN103324357A CN 103324357 A CN103324357 A CN 103324357A CN 2012101037396 A CN2012101037396 A CN 2012101037396A CN 201210103739 A CN201210103739 A CN 201210103739A CN 103324357 A CN103324357 A CN 103324357A
Authority
CN
China
Prior art keywords
lens
touch
image sensor
control object
optical touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012101037396A
Other languages
English (en)
Inventor
梁次震
柳昀呈
林建宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Quanta Computer Inc
Original Assignee
Quanta Computer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Quanta Computer Inc filed Critical Quanta Computer Inc
Publication of CN103324357A publication Critical patent/CN103324357A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明提供一种光学触控系统及光学触控位置检测方法。该光学触控系统,用以检测一触控区域上的触控物的位置,包括:至少一主动光源,照亮该触控区域;一镜头模块,具有两透镜及一影像感测器,使该触控物分别通过该两透镜于该影像感测器形成两个影像;以及一处理器,根据该两个影像在该影像感测器的影像位置来计算该触控物的位置。

Description

光学触控系统及光学触控位置检测方法
技术领域
本发明涉及一种光学触控系统及光学触控位置检测方法,特别是涉及一种使用双透镜的镜头模块来检测触控位置的光学触控系统及光学触控位置检测方法。
背景技术
使用于显示器的触控技术除了将屏幕内建电容式或电感式触控面板外,还包括外加具有影像感测器的镜头模块于显示器周边,用以检测触控位置的光学触控技术。
现有的光学触控技术使用两个镜头模块,并配置于触控平面的不同角落,使两者的视野同时涵盖整个触控平面。而触控平面上的触控点位置则是藉由触控物与两个镜头的连线后的交点来决定。
如图1所示,镜头模块101、102配置于触控区域103的两个角落,使镜头模块101与102的视野都能涵盖整个触控区域103。而触控区域103的边缘还配置了线性光源104及反向反射镜(Retro-reflector)105,其中反向反射镜105包围触控区域103的三个边,并可将任意方向入射的光线以接近入射的方向反射回去。因此线性光源104可照亮整个触控区域103并通过反向反射镜105将光线反射回镜头模块101与102。当有一触控物碰触触控区域103产生一触控点107时,因触控物挡住了与镜头模块101、102连线方向的反射光,因此镜头模块101、102都会在其影像感测器的某一像素位置获得暗点。最后,处理器106再根据镜头模块101、102的影像感测器的暗点位置,判断触控点107相对于镜头模块101、102的方向,并计算出触控点107的实际位置。
除此之外,现有的光学触控技术也有使用一个镜头模块配置于触控平面的角落,再搭配平面镜的构造。
如图2所示,镜头模块201配置于触控区域203的一个角落,使镜头模块201的视野涵盖整个触控区域203。另外,触控区域203的边缘更配置了线性光源204及平面镜(Mirror)205。因为平面镜205可将镜头模块201镜像至对称的位置,故此架构实质上仍等同于有两个镜头模块存在。而线性光源204通过平面镜205照亮整个触控区域203并将光线反射回镜头模块201。当有一触控物碰触触控区域203产生一触控点207时,因触控物挡住了两个方向的光线经由平面镜205反射至镜头模块201,故镜头模块201内的影像感测器会在某两个像素位置产生暗点。最后,处理器206再根据镜头模块201的影像感测器的两个暗点位置对应的方向,计算出触控点207的实际位置。
然而,无论是使用两个镜头模块搭配反向反射镜或是一个镜头模块搭配平面镜的架构,现有技术的镜头模块都是一组透镜搭配一个影像感测器的构造。有鉴于此,本发明提出一种有别于现有技术的光学触控系统及光学触控位置检测方法,其使用两组透镜搭配一个影像感测器的镜头模块来检测触控位置。
发明内容
本发明提出一种光学触控系统,用以检测一触控区域上的触控物的位置,包括:至少一主动光源,照亮该触控区域;一镜头模块,具有两透镜及一影像感测器,使该触控物分别通过该两透镜于该影像感测器形成两个影像;以及一处理器,根据该两个影像在该影像感测器的影像位置来计算该触控物的位置,其中该镜头模块配置于该触控区域的周边,使该两透镜的视野都可涵盖该触控区域,并且完全成像于该影像感测器上。
上述光学触控系统中,该两个影像在该影像感测器中的影像位置分别对应两个角度参数,该角度参数是指该触控物的位置至该两透镜中一个的连线与一既定的基准线的夹角。而一平面座标系统用以定义该触控区域的平面各点位置,该处理器利用该两个角度参数及该两透镜所在的位置座标计算出该触控物的位置座标。
上述光学触控系统中,该既定的基准线平行于x轴的直线,则该处理器根据以下公式计算出该触控物的位置座标(x,y):
(y-y1)/(x-x1)=tanθ1
(y-y2)/(x-x2)=tanθ2
其中(x1,y1)是该两透镜的第1透镜的位置座标,θ1是该第1透镜所对应的角度参数,(x2,y2)是该两透镜第2透镜的位置座标,θ2是该第2透镜所对应的角度参数。
上述光学触控系统中,该第1透镜的该角度参数θ1对应该第1透镜于该影像感测器的成像范围内的一像素位置,该第2透镜的该角度参数θ2对应该第2透镜于该影像感测器的成像范围内的一像素位置,该角度参数θ1、θ2根据该第1透镜及该第2透镜于该影像感测器中成像的两个像素位置而定。
根据本发明一个实施例,光学触控系统中的该主动光源设置于该镜头模块上,并提供足够强度的光,使该触控物可将来自该主动光源的光反射回该镜头模块。
根据本发明一个实施例,光学触控系统还包括:至少一反向反射镜(Retro-reflector),配置于该触控区域的周边,将该主动光源发出的光反射回该镜头模块,使该影像感测器撷取的影像背景为亮背景。
根据本发明一个实施例,光学触控系统中的该主动光源为红外光发光二极管或红外光激光二极管,且该影像感测器的影像检测范围为红外线影像。
本发明还提出一种光学触控位置检测方法,包括:使用一具有两个透镜及一个影像感测器的镜头模块来接收一触控物的影像;根据该触控物通过该两个透镜成像于该影像感测器的两个影像位置来计算该触控物的位置。
上述光学触控位置检测方法中,该两个位置分别对应两个角度参数,该角度参数是指该触控物的位置至该两个透镜中一个的连线与一既定的基准线的夹角。
上述光学触控位置检测方法中,还包括:使用一平面座标系统来定义该触控区域的平面各点位置;以及利用该两个角度参数及该两个透镜所在的位置座标计算计算出该触控物的位置座标。
上述光学触控位置检测方法中,该既定的基准线平行于x轴的直线,则该触控物的位置座标(x,y)根据以下公式求得:
(y-y1)/(x-x1)=tanθ1
(y-y2)/(x-x2)=tanθ2
其中(x1,y1)是该两个透镜的第1透镜的位置座标,θ1是该第1透镜所对应的角度参数,(x2,y2)是该两个透镜第2透镜的位置座标,θ2是该第2透镜所对应的角度参数。
上述光学触控位置检测方法中,该第1透镜的该角度参数θ1对应该第1透镜于该影像感测器的成像范围内的一像素位置,该第2透镜的该角度参数θ2对应该第2透镜于该影像感测器的成像范围内的一像素位置,该角度参数θ1、θ2根据该第1透镜及该第2透镜于该影像感测器中成像的两个像素位置而定。
根据本发明的光学触控系统及其触控位置检测方法,使用了两组透镜搭配一个影像感测器的镜头模块来检测触控位置,且因采用设置于镜头模块上的主动光源照亮触控物,使镜头模块接收触控物的反射光的方式来成像,故本发明有别于现有技术的新的光学触控系统及触控位置检测方法。
附图说明
图1是现有技术的光学触控系统架构图。
图2是现有技术的光学触控系统架构图。
图3是根据本发明实施例的光学触控系统架构图。
图4是本发明实施例的光学触控系统的夹角计算的说明图。
图5是本发明实施例的光学触控系统的夹角计算的说明图。
图6是本发明实施例的光学触控系统的夹角计算的说明图。
图7是根据本发明另一实施例的光学触控系统架构图。
图8是根据本发明另一实施例的光学触控系统架构图。
附图符号说明
101、102、201、301~镜头模块;
104、204~线性光源;
105、306~反向反射镜;
205~平面镜;
302~主动光源;
106、206、303~处理器;
103、203、304~触控区域;
107、207、305~触控点;
L1、L2~透镜;
S~影像感测器;
I1、I2~成像;
R1、R2~成像范围;
θ1、θ2~夹角;
FOV~视野。
具体实施方式
图3是根据本发明实施例的光学触控系统架构图。如图3所示,本发明实施例的光学触控系统包括:一个镜头模块301、一个主动光源302、及一个处理器303。镜头模块301具有两组透镜L1、L2及一个影像感测器S。镜头模块301配置于触控区域304的一个角落,使两组透镜L1、L2的视野(field of view)都能涵盖整个触控区域304,并且触控物无论通过透镜L1或L2都能完全成像于影像感测器S上。主动光源302固定于镜头模块301上。用以照亮触控区域304上出现的触控物,使得主动光源302所发出的光能被触控物反射回镜头模块301。处理器303则用以计算触控物的触控点305位置。
接下来,说明此光学触控系统的触控点位置检测方法。如图3所示,首先将触控区域304所在的平面以一个平面座标系统定义该平面上的各点的位置,假设触控点的座标位置为(x,y),且透镜L1于其视野的交点(在图中即为透镜L1的中心)的座标位置为(x1,y1),透镜L2于其视野的交点(在图中即为透镜L2的中心)的座标位置为(x2,y2)。而触控点305至透镜L1的连线与触控区域304的一边缘(本实施例为矩形触控区域304的长边)的夹角假设为θ1,触控点305至透镜L2的连线与触控区域304的同一边缘的夹角假设为θ2。因此,根据三角函数,可以获得以下的线性方程式:
(y-y1)/(x-x1)=tanθ1.......................................(1)
(y-y2)/(x-x2)=tanθ2.......................................(2)
由于透镜L1、L2的位置固定,故x1,、y1、x2,、y2都为已知的常数,因此只要能求得θ1与θ2就能根据上述的联立方程式算出触控点305的座标位置(x,y)。因此,以下将说明夹角θ1与θ2的计算方法。
图4-图6是本发明实施例的光学触控系统的夹角计算的说明图。图4显示透镜L1、L2的视野FOV与成像于影像感测器S的范围。假设此影像感测器S具有1280个像素(像素编号0~1279),而透镜L1、L2的成像范围皆为800个像素,故两者的成像范围会有重迭的区域。同时参考图6,透镜L1在影像感测器S的成像范围R1为第0~799个像素,透镜L2在影像感测器S的成像范围R2为第480~1279个像素。
而如图5所示,两个透镜L1、L2的视野FOV必须都涵盖整个触控区域304,也就是说,两个透镜L1、L2至少都必须可检测到A点与C点的触控。在此为了方便理解,假设透镜L1、L2的视野FOV恰好等于A点到C点的范围。当触控物触碰A点时,因主动光源302的光被触控物反射回镜头模块301,故A点的触控经透镜L1、L2在影像感测器S产生两个亮点,如图6所示,分别位于第0个像素与第480个像素,位于第0个像素的是透镜L1的成像I1,位于第480个像素的是透镜L2的成像I2。另外,当触控物触碰C点时,影像感测器S所产生的两个亮点则分别位于第799个像素与第1279个像素,位于第799个像素的是透镜L1的成像I1,位于第1279个像素的是透镜L2的成像I2。
由以上可知,对一个透镜而言,不同夹角位置的触控物会成像于触控感测器S上的唯一对应像素位置。触控点305至透镜L1的连线与触控区域304边缘的夹角θ1会对应影像感测器S上第0~799个像素之间唯一的像素位置;同一个触控点305至透镜L2连线与触控区域304边缘的夹角θ2会对应影像感测器S上第480~1279个像素之间唯一的像素位置。利用此特性即可订出每个像素位置对夹角的关系曲线图,接着再从影像感测器S的两个影像像素位置反推回触控点305在触控区域304上相对于两个透镜L1、L2的夹角θ1、θ2
最后再将夹角θ1、θ2代入前述的方程式(1)、(2)即可解出触控点305的位置座标(x,y)。
根据上述的实施例,本发明光学触控系统使用了两组透镜搭配一个影像感测器的镜头模块来检测触控位置。但本发明的光学触控系统仍可有其他方式的配置,如图7所示,镜头模块301不一定要设置于触控区域304的角落,只要两透镜L1、L2的视野FOV都能涵盖整个触控区域304,镜头模块301也可以设置于例如触控区域304的上方边缘。
再者,本发明实施例的光学触控系统是利用触控物反射主动光源302的光,以检测影像感测器S的亮点位置的方式来计算触控位置。然而,也可以如图8所示,在位于镜头模块301对角的触控区域304两侧边缘设置反向反射镜(Retro-reflector)306。如此一来,反向反射镜306会将各个角度的光反向反射回镜头模块301,使得影像感测器S呈现全亮。当有触控物进行触控时,因触控物会挡住特定角度的反射光,使得影像感测器S中的亮背景产生两个暗点。故此方法与前述在暗背景中检测亮点的方式恰好相反,是以检测影像感测器S的暗点位置的方式来计算触控位置。
以上即为本发明的光学触控系统及触控位置检测方法。然而,因不同触控物会有不同的特征,例如粗细不同的触控物,故在实际触控操作前也可先让触控物点击一个以上的指定参考点,进行角度参数的校正,如此一来,可使实际操作时触控点位置的计算更为精确。
根据本发明实施例的光学触控系统及其触控位置检测方法,使用了两组透镜搭配一个影像感测器的镜头模块来检测触控位置,且因采用设置于镜头模块上的主动光源照亮触控物,使镜头模块接收触控物的反射光的方式来成像,故本发明有别于现有技术的新的光学触控系统及触控位置检测方法。
以上说明仅为部分实施例,并非用以限定本发明,本发明的范围将由本发明的权利要求来界定,在不脱离本发明技术思想的前提下实施例可做各种变更。例如,主动光源可例如是红外光发光二极管或红外光激光二极管,此时影像感测器的影像检测范围则必须涵盖红外线影像。而实施例的透镜L1或L2分别都以一个透镜为例说明,但透镜L1或L2也可以是多个透镜构成的透镜组。

Claims (13)

1.一种光学触控系统,用以检测一触控区域上的触控物的位置,包括:
至少一主动光源,照亮该触控区域;
一镜头模块,具有两透镜及一影像感测器,使该触控物分别通过该两透镜于该影像感测器形成两个影像;以及
一处理器,根据该两个影像在该影像感测器的影像位置来计算该触控物的位置,
其中该镜头模块配置于该触控区域的周边,使该两透镜的视野都可涵盖该触控区域,并且完全成像于该影像感测器上。
2.如权利要求1所述的光学触控系统,其中该两个影像在该影像感测器中的影像位置分别对应两个角度参数,该角度参数是指该触控物的位置至该两透镜中一个的连线与一既定的基准线的夹角。
3.如权利要求2所述的光学触控系统,其中一平面座标系统用以定义该触控区域的平面各点位置,该处理器利用该两个角度参数及该两透镜所在的位置座标计算出该触控物的位置座标。
4.如权利要求3所述的光学触控系统,其中该既定的基准线平行于x轴的直线,则该处理器根据以下公式计算出该触控物的位置座标(x,y):
(y-y1)/(x-x1)=tanθ1
(y-y2)/(x-x2)=tanθ2
其中(x1,y1)是该两透镜的第1透镜的位置座标,θ1是该第1透镜所对应的角度参数,(x2,y2)是该两透镜第2透镜的位置座标,θ2是该第2透镜所对应的角度参数。
5.如权利要求4所述的光学触控系统,其中该第1透镜的该角度参数θ1对应该第1透镜于该影像感测器的成像范围内的一像素位置,该第2透镜的该角度参数θ2对应该第2透镜于该影像感测器的成像范围内的一像素位置,该角度参数θ1、θ2根据该第1透镜及该第2透镜于该影像感测器中成像的两个像素位置而定。
6.如权利要求1所述的光学触控系统,其中该主动光源设置于该镜头模块上,并提供足够强度的光,使该触控物可将来自该主动光源的光反射回该镜头模块。
7.如权利要求1所述的光学触控系统,还包括:至少一反向反射镜,配置于该触控区域的周边,将该主动光源发出的光反射回该镜头模块,使该影像感测器撷取的影像背景为亮背景。
8.如权利要求1所述的光学触控系统,其中该主动光源为红外光发光二极管或红外光激光二极管,且该影像感测器的影像检测范围为红外线影像。
9.一种光学触控位置检测方法,包括:
使用一具有两个透镜及一个影像感测器的镜头模块来接收一触控物的影像;
根据该触控物通过该两个透镜成像于该影像感测器的两个影像位置来计算该触控物的位置。
10.如权利要求9所述的光学触控位置检测方法,其中该两个影像位置分别对应两个角度参数,该角度参数指该触控物的位置至该两个透镜中一个的连线与一既定的基准线的夹角。
11.如权利要求10所述的光学触控位置检测方法,还包括:
使用一平面座标系统来定义该触控区域的平面各点位置;以及
利用该两个角度参数及该两个透镜所在的位置座标计算出该触控物的位置座标。
12.如权利要求11所述的光学触控位置检测方法,其中该既定的基准线平行于x轴的直线,则该触控物的位置座标(x,y)根据以下公式求得:
(y-y1)/(x-x1)=tanθ1
(y-y2)/(x-x2)=tanθ2
其中(x1,y1)是该两个透镜的第1透镜的位置座标,θ1是该第1透镜所对应的角度参数,(x2,y2)是该两个透镜第2透镜的位置座标,θ2是该第2透镜所对应的角度参数。
13.如权利要求12所述的光学触控位置检测方法,其中该第1透镜的该角度参数θ1对应该第1透镜于该影像感测器的成像范围内的一像素位置,该第2透镜的该角度参数θ2对应该第2透镜于该影像感测器的成像范围内的一像素位置,该角度参数θ1、θ2根据该第1透镜及该第2透镜于该影像感测器中成像的两个像素位置而定。
CN2012101037396A 2012-03-19 2012-04-10 光学触控系统及光学触控位置检测方法 Pending CN103324357A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW101109283A TWI587196B (zh) 2012-03-19 2012-03-19 光學觸控系統及光學觸控位置檢測方法
TW101109283 2012-03-19

Publications (1)

Publication Number Publication Date
CN103324357A true CN103324357A (zh) 2013-09-25

Family

ID=49157155

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012101037396A Pending CN103324357A (zh) 2012-03-19 2012-04-10 光学触控系统及光学触控位置检测方法

Country Status (3)

Country Link
US (1) US20130241882A1 (zh)
CN (1) CN103324357A (zh)
TW (1) TWI587196B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106201117A (zh) * 2015-01-30 2016-12-07 中强光电股份有限公司 光学式物件定位装置及其定位方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI543047B (zh) * 2014-12-30 2016-07-21 廣達電腦股份有限公司 光學式觸控面板
TWI582672B (zh) * 2015-01-20 2017-05-11 緯創資通股份有限公司 光學觸控裝置及其觸控偵測方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4507557A (en) * 1983-04-01 1985-03-26 Siemens Corporate Research & Support, Inc. Non-contact X,Y digitizer using two dynamic ram imagers
US20080062149A1 (en) * 2003-05-19 2008-03-13 Baruch Itzhak Optical coordinate input device comprising few elements
CN102243550A (zh) * 2010-05-10 2011-11-16 原相科技股份有限公司 光学式触控装置及其光感测模组

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWM359744U (en) * 2008-06-02 2009-06-21 Tron Intelligence Inc Sensing coordinate input device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4507557A (en) * 1983-04-01 1985-03-26 Siemens Corporate Research & Support, Inc. Non-contact X,Y digitizer using two dynamic ram imagers
US20080062149A1 (en) * 2003-05-19 2008-03-13 Baruch Itzhak Optical coordinate input device comprising few elements
CN102243550A (zh) * 2010-05-10 2011-11-16 原相科技股份有限公司 光学式触控装置及其光感测模组

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106201117A (zh) * 2015-01-30 2016-12-07 中强光电股份有限公司 光学式物件定位装置及其定位方法
CN106201117B (zh) * 2015-01-30 2019-09-10 中强光电股份有限公司 光学式物件定位装置及其定位方法

Also Published As

Publication number Publication date
US20130241882A1 (en) 2013-09-19
TW201339921A (zh) 2013-10-01
TWI587196B (zh) 2017-06-11

Similar Documents

Publication Publication Date Title
US8619061B2 (en) Optical touch apparatus and operating method thereof
WO2010137277A1 (en) Optical position detection apparatus
US20100321309A1 (en) Touch screen and touch module
US20110199335A1 (en) Determining a Position of an Object Using a Single Camera
CN103324356B (zh) 光学触控系统及光学触控位置检测方法
KR101956659B1 (ko) 비접촉 입력 장치 및 방법
US20110069037A1 (en) Optical touch system and method
CN102799318A (zh) 一种基于双目立体视觉的人机交互方法及系统
US20110115904A1 (en) Object-detecting system
MX2010012264A (es) Sistema de entrada interactivo y montaje de iluminacion para el mismo.
CN101609381A (zh) 使用摄像头和反光镜的触摸检测传感装置
WO2013035553A1 (ja) ユーザインタフェース表示装置
US20110199337A1 (en) Object-detecting system and method by use of non-coincident fields of light
TW201640299A (zh) 非接觸輸入裝置及方法
JP2001142630A (ja) 光デジタイザ
US20110175849A1 (en) Optical touch display device and method
US20150042618A1 (en) Optical touch system and touch display system
CN102591532B (zh) 双反射镜交叉定位电子白板装置
CN103324357A (zh) 光学触控系统及光学触控位置检测方法
KR20130031050A (ko) 터치 인식 디스플레이 장치
US20130099092A1 (en) Device and method for determining position of object
US20150331543A1 (en) Optical touch module
CN102364418B (zh) 一种光学触控定位系统及方法
CN202533909U (zh) 双反射镜交叉定位电子白板装置
JP2022188689A (ja) 空間入力システム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20130925