CN101996002A - 用于光学姿态识别的装置和方法 - Google Patents

用于光学姿态识别的装置和方法 Download PDF

Info

Publication number
CN101996002A
CN101996002A CN2009102585038A CN200910258503A CN101996002A CN 101996002 A CN101996002 A CN 101996002A CN 2009102585038 A CN2009102585038 A CN 2009102585038A CN 200910258503 A CN200910258503 A CN 200910258503A CN 101996002 A CN101996002 A CN 101996002A
Authority
CN
China
Prior art keywords
light source
time point
reflected value
gesture recognition
optics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2009102585038A
Other languages
English (en)
Other versions
CN101996002B (zh
Inventor
M·斯瓦达
W·T·霍尔柯姆比
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Silicon Laboratories Inc
Original Assignee
Silicon Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Silicon Laboratories Inc filed Critical Silicon Laboratories Inc
Publication of CN101996002A publication Critical patent/CN101996002A/zh
Application granted granted Critical
Publication of CN101996002B publication Critical patent/CN101996002B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • User Interface Of Digital Computer (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Position Input By Displaying (AREA)

Abstract

示出了一种具有第一光源和第一光学接收器的光学姿态识别系统,第一光学接收器被配置为当第一光源被激活时,接收来自对象的反射光,并且输出与所述反射光的振幅对应的第一测量反射值。处理器被配置为接收第一测量反射值,并且比较第一时间点和第二时间点的第一测量反射值以便追踪对象的运动,并且识别与所追踪的对象的运动对应的对象姿态。

Description

用于光学姿态识别的装置和方法
技术领域
本发明涉及姿态识别,并且更具体地,涉及光学系统中的姿态识别。
背景技术
存在的常规系统用来执行姿态识别,即,将用户运动解释为对系统的输入。例如,基于触摸屏的系统使用触摸屏收集用户输入,触摸屏监视触摸屏上的电容的改变,以便识别来自与触摸屏接触的输入笔或手指的用户输入的位置。解释电容的改变,以便确定用户的运动。作为另一个例子,某些光学系统基于像素捕捉光学输入,并且通过分析像素数据的改变识别运动。
发明内容
在一个实施例中,示出了一种光学姿态识别系统,该光学姿态识别系统具有第一光源和第一光学接收器,当第一光源被激活时,第一光学接收器接收来自对象的反射光,并且输出与该反射光的振幅对应的第一测量反射值。处理器接收第一测量反射值,并且比较第一时间点和第二时间点的第一测量反射值以便追踪对象的运动,并且识别与所追踪的对象的运动对应的对象姿态。
这个实施例的另一种改进包括第二光源,并且该处理器还配置为独立地激活第一光源和第二光源,并且捕捉第一光源和第二光源中的每一个光源在第一和第二时间点中的每一个时间点的第一测量反射值,以便追踪对象的运动,并且利用为第一光源和第二光源两者捕捉的第一测量反射值识别对象的姿态。在另一个改进中,沿第一轴以预定的彼此之间的相对位置布置第一光源和第二光源以及光学接收器。
在这个实施例的另一种改进中,系统具有第三光源。所述处理器还配置为独立地激活第一光源、第二光源和第三光源,并且捕捉第一光源、第二光源和第三光源中的每一个光源在第一时间点和第二时间点中的每一个时间点的测量反射值,以便追踪对象的运动,并且利用第一光源、第二光源和第三光源的第一测量反射值识别对象姿态。
在对这个实施例的一种不同改进中,所述系统具有第二光学接收器,第二光学接收器配置为当第一光源被激活时,接收来自对象的反射光,并且输出与该反射光的振幅对应的第二测量反射值。所述处理器还配置为捕捉第一时间点和第二时间点中的每一个时间点的第二测量反射值,以便追踪对象的运动,并且利用第一时间点和第二时间点的第一测量反射值和第二测量反射值识别对象姿态。
用于光学系统中的姿态识别的方法的一个实施例需要测量第一时间点的来自对象的反射光的振幅以便获得第一测量反射值,并且测量第二时间点的来自对象的反射光的振幅以便获得第二测量反射值。所述方法还提及对第一测量反射值和第二测量反射值进行比较,以便确定对象的相对运动,并且识别与对象的相对运动对应的姿态。
在对这个方法实施例的一种改进中,测量第一时间点的来自对象的反射光的振幅以便获得第一测量反射值的步骤还包括:测量第一时间点的第一反射和第二反射的反射光的振幅以便获得第一测量反射值。测量第二时间点的来自对象的反射光的振幅以便获得第二测量反射值的步骤还包括:测量第二时间点的第一反射和第二反射的反射光的振幅以便获得第二测量反射值。
在对该方法实施例的另一种改进中,测量第一时间点的来自对象的反射光的振幅以便获得第一测量反射值的步骤还包括:测量第一时间点的第一反射、第二反射和第三反射的反射光的振幅以便获得第一测量反射值。测量第二时间点的来自对象的反射光的振幅以便获得第二测量反射值的步骤还包括:测量第二时间点的第一反射、第二反射和第三反射的反射光的振幅以便获得第二测量反射值。
附图说明
下面参考附图讨论本发明的某些示例实施例,其中:
图1是根据本发明的基于单个发光二极管和一个光学接收器的光学姿态识别系统的实施例的侧视图;
图2是根据本发明的基于两个发光二极管和一个光学接收器的光学姿态识别系统的实施例的侧视图;
图3-5是示出了使用图2的光学系统执行的一系列反射测量的侧视图,其中涉及相对于该光学系统位于一系列不同位置的对象;
图6是根据本发明的基于四个发光二极管和一个光学接收器的光学姿态识别系统的实施例的透视图;
图7是根据本发明的基于一个发光二极管和两个光学接收器的光学姿态识别系统的实施例的侧视图;
图8是根据本发明的基于一个发光二极管和四个光学接收器的光学姿态识别系统的实施例的透视图;
图9是根据本发明的基于三个发光二极管和一个光学接收器的光学姿态识别系统的实施例的透视图;
图10是根据本发明的基于一个发光二极管和三个光学接收器的光学姿态识别系统的实施例的透视图;
图11是示出了适用于图1-8所示的光学系统的用于姿态识别的处理的一个例子的控制流程图;
图12是根据本发明的基于两个发光二极管和一个光学接收器,适合于使用的光学姿态识别系统的一个例子的功能方框图;
图13是示出了作为图10的光学姿态识别系统的一部分的用于光学接收的电路的一个例子的电路图;
图14是示出了使用图11的处理的姿态识别步骤中所涉及的反射测量的、用于基于位置改变的近似的姿态识别的处理的一个例子的控制流程图;
图15是根据本发明的基于四个联网的LED和接收器对的光学姿态识别系统的实施例的透视图;
图16是根据本发明的基于两组接收器和发光二极管的光学姿态识别系统的实施例的透视图,每组接收器和发光二极管具有一个接收器和两个发光二极管,其中接收器被联网;
图17是示出了根据本发明的基于两个发光二极管和一个接收器的光学姿态识别系统的功能方框图,其中所述二极管具有不同的半角和光学功率特性;
图18是示出了根据本发明的基于两个发光二极管和一个接收器的光学姿态识别系统的功能方框图,其中所述二极管具有不同的功率特性,但是具有相同的半角特性;和
图19是示出了根据本发明的基于两个发光二极管和一个接收器的光学姿态识别系统的功能方框图,其中所述二极管具有不同半角特性。
具体实施方式
下面描述的若干光学姿态识别系统和方法的示例实施例,用于使用诸如近距离传感器或红外数据收发器的相对简单的光学接收器执行反射测量,基于近似位置确定进行光学姿态识别。一般而言,姿态识别基于反复测量来自对象的反射以便确定对象的近似位置,比较测量的反射以便识别对象的近似位置随时间的改变,和将对象的近似位置的改变解释为与特定姿态相关的运动,其中所述近似位置的改变可被解释为用户移动或被解释为对象的运动矢量。
由于反射测量高度依赖对象表面的反射以及对象表面的朝向,所述位置一般是大体的近似。使用来自单个光学系统的反射测量值以便获得距离的绝对测量通常不够准确。即使是针对特定对象进行了校准的系统也将遇到环境光的改变和有缺陷的方位,例如,在该方位对象具有与距离无关地影响反射、降低基于测量的反射的距离测量的准确性的小平面或其它特性。
由于反射的变化,距离测量不可靠,但是可以有用地测量相对运动。因此本发明的用于姿态识别的系统和方法依赖相对位置改变。虽然相对运动的测量假设对象的反射变化是由运动而不是诸如方位的其它因素引起的。使用随时间的改变而重复的单个反射测量,例如,基于单个LED和接收器的系统,可以在Z轴上识别对象朝着系统或远离系统的运动。这可用于简单的实现,诸如灯开关或开门装置,或可用于机器视觉和控制应用,例如,机器人手臂相对于对象的停止方法。使用两个反射测量,例如,两个LED和一个接收器,或两个接收器和一个LED,可以获得X轴上的位置的合理的准确度,以及对Z轴上的运动的某种相对感测。这可用于相对简单的无触摸移动电话接口或滑动调光器(slider light dimmer),或用于机器视觉和控制应用,例如,对象沿着传送带的移动。使用三个或更多反射测量,例如,三个LED和一个接收器或三个接收器和一个LED,系统可以获得X轴和Y轴上的位置的合理的准确度,以及Z轴上的相对运动。这可用于更复杂的应用,诸如,个人数字助理设备的无触摸接口,或自动装置的基于视觉的控制。可以通过使用多个接收器和/或LED实现大量反射测量,以便为改进的姿态识别提高分辨率。
在一个优选实施例中,为了进行反射测量,激活诸如LED的光源,并且测量产生的光电二极管电流。在多个LED的实现中,有选择地激活每个LED,并且接收器测量每个LED被激活时所产生的光电二极管电流。光电二极管电流被转换为数字值,并且被诸如微处理器处理器的控制器存储。在该处理器的控制下以固定的或可变的时间间隔重复测量。比较每个时间的测量,以便获得对X轴和Y轴上的位置的近似确定。由处理器比较这些时间间隔之间的测量,以便确定对象的相对运动,即,矢量运动。
对象的相对运动可被解释为姿态。例如,主要在X轴上的正的运动可被解释为向右滚动,并且负的运动可被解释为向左滚动。Y轴上的正的运动为向下滚动,并且负的运动为向上滚动。Z轴上的正的运动可被解释为选择或点击(或两个正的运动的序列可被解释为双击)。相对于X轴和Y轴的运动可用于移动光标。姿态还可以是对象或安装在一件装置例如机器人手臂上的接收系统的运动矢量。例如,在自动装置应用中,可以追踪对象沿着一个轴的运动,以便检测沿着传送带移动的对象。作为另一个例子,可以追踪运动矢量,以便确认机器人手臂或计算机数字控制(CNC)的机械组件相对于工件的正确运动,或检测机械的路径内的非预期对象,例如,工人的肢体或废弃材料的堆积阻塞。
多个LED和具有光电二极管的单个接收器的方法对于具有已被提供在设备中的光学接收器,诸如,移动电话或PDA中的红外线收发器或反射近距离传感器的应用可能是优选实现。一种替代的方法使用单个LED和具有光电二极管的多个接收器,这对于专用于姿态识别的应用,或涉及高速姿态识别的实现可能是优选的。另一种替代是使用多对LED-接收器的网络。
图1是根据本发明的基于单个发光二极管(LED)4和一个光学接收器2的光学姿态识别系统1的实施例的侧视图。该光学系统可以基于红外线波长或可视光波长。在这个实施例中,接收器2和LED4安装在诸如电路板的公共基底6上。激活LED4,并且接收器2中的光电二极管检测,如果有的话,来自目标对象12的反射光R1。以光学接收器2测量反射光信号R1的强度。假设反射光信号的强度粗略地表示对象12距离光学姿态识别系统1的距离。下面讨论的图10和11示出了可以适合于用作图1所示的接收器2和LED4的组合的光学电路的例子。
通过对反射光信号R1的强度进行多次测量,并且比较这些随时间变化的测量,接收器2可以检测对象12正在向着光学姿态识别系统1移动还是远离光学姿态识别系统1移动。例如,如果后来时间进行的反射测量较高,则控制器,诸如接收器2中的微处理器或微控制器,得出结论对象12正在向着系统1移动。例如,如果在灯开关应用中使用系统1,控制器可以解释这种姿态以便激活灯。如果后来时间进行的反射测量较低,则控制器得出结论对象12正在远离系统1移动,并且可以解释这种姿态,以便去除灯激活。图9示出了适合于在图10的微处理器108中使用以便实现图1的光学姿态识别系统1的处理。
图2是根据本发明的基于一个光学接收器22和两个发光二极管24、26的光学姿态识别系统的实施例的侧视图。在这个实施例中,沿着诸如电路板的公共基底20上的轴例如X轴安装接收器22和LED24、26。独立地激活LED24、26,并且接收器22中的光电二极管分别检测来自目标对象的反射光R1和R2。由光学接收器22测量反射光信号R1和R2的强度。假设反射光信号的强度粗略地表示对象12距离光学姿态识别系统10的距离。下面讨论的图10和11示出了可以适合于用作图2所示的接收器22和LED24、26的组合的光学电路的例子。
图2的光学姿态识别系统10配置为确定由接收器22和LED24、26定义的对象12沿X轴的位置。基于来自每个LED24和26的反射光R1和R2测量的相对强度进行对象12的定位。图3-5是示出了使用图2的光学系统执行的对R1和R2的一系列反射测量的侧视图,其中涉及沿X轴相对于该光学系统处于一系列不同位置的对象12。
在图3的例子中,对象12位于LED24附近,并且因此,以接收器22测量的来自LED24的反射光R1的振幅比来自LED26的反射光R2大得多。基于对R1和R2测量的相对振幅,接收器22中的控制器确定对象12位于沿X轴的-X处。在图4的例子中,对象12位于LED26附近,并且因此,以接收器22测量的来自LED26的反射光R2的振幅比来自LED24的反射光R1大得多。基于对R1和R2测量的相对振幅,接收器22中的控制器确定对象12位于沿X轴的+X处。在图5中,对象12位于LED22附近,并且因此,以接收器22测量的来自LED24的反射光R1的振幅和来自LED26的反射光R2大体相同。基于R1和R2的粗略相等的振幅测量,接收器22中的控制器确定对象12位于沿X轴的0处。
使用图3-5,如果接收器22记录了对象12在时间上顺序为-X,0和+X的一系列位置测量,则接收器22中的控制器可以将对象12从左到右的运动识别为姿态。例如,在涉及移动电话或PDA设备的应用中,该姿态可被识别为用于控制在设备的显示器上显示的数据的向右滚动命令。类似地,从右到左的运动,例如,+X,0和-X的一系列位置确定,可被识别为向左滚动命令。滚动的数量可以与位置改变的数量相关。例如,以接收器22的+X/2,0和-X/2的一系列位置测量定义的姿态可被解释为向左滚动由序列+X,0和-X定义的姿态的数量的一半。该姿态还可以被解释为对象相对于一件自动机械,例如,在CNC机械中移动的工件或工具的运动。还应注意,虽然对象被描述为正在运动,该方法还可以用类似方式应用于接收器相对于对象的运动。作为例子给出这些值,并且本领域的普通技术人员将会认识到,可以将用于根据位置测量解释姿态的复杂的概率或非线性算法应用于这个例子,而不脱离本发明的范围。
还应注意,还可以基于相对关系确定对象12距离接收器22的距离。例如,如果R1和R2的比值对于一系列测量保持为大体相同,但是为R1和R2测量的绝对值增加或减小,这可以分别表示对象12向着接收器22和远离接收器22的运动。对象12的这种运动例如可被解释为选择或激活显示器上的图形对象的姿态,例如,点击或双击。可替换地,对象12的运动可被解释为工件或工具移动到位,以便例如在自动装置中进一步处理。
上面以图1-5描述的二维对象位置确定和姿态识别的原理可被扩展到三维应用。图6是根据本发明的基于光学接收器22和四个发光二极管25、26、32、34的光学姿态识别系统30的实施例的透视图。在这个实施例中,接收器22和LED24和26如上所述沿X轴布置。由接收器22和LED32和34的准线定义Y轴。接收器22和LED25、26、32、34安装在公共基底31上。可以使用接收器22和LED32和34以类似于上面关于X轴和LED24和26所述的方式确定对象12沿Y轴的相对位置。LED32和34被彼此独立地、并且与LED24和26独立地激活,并且接收器22测量来自对象12的结果反射。通过确定对象12,例如,用户的手指或工件在X轴和Y轴上的位置,可以使用接收器22追踪和识别更复杂的运动和姿态。当测量的反射的相对比大体保持相同时,还可以通过监视来自LED24、26、32、34的测量的振幅的改变,来识别涉及距接收器22的距离改变的运动。为了测量距接收器的距离,可以同时激活所有LED,并且产生的测量反射与所有单个反射贡献的总和成比例。可以使用这种简单的方法,以便检测对象是否在启动姿态识别算法的范围内。
可以使用多个光学接收器设备和单个LED实现本发明。图7是根据本发明的基于安装在公共基底41上的一个发光二极管42和两个光学接收器44和46的光学姿态识别系统40的实施例的侧视图。在这个实施例中,激活LED42,并且光学接收器44和46独立地测量分别来自对象12的反射R1和R2。可以用类似于上面关于图2-5所述的方式确定相对位置、距离和运动。可以利用R1和R2的比,以便近似地确定对象12沿X轴的位置,LED42和光学接收器44和46被布置在X轴上。R1比R2更强的测量反射一般指示对象12接近接收器44。同样地,R2比R1更强的测量反射一般指示对象12接近接收器46。大体相等的测量反射R1和R2一般指示对象12接近LED42。随着增加或减小的R1和R2数量,但R1和R2的比大体恒定一般指示对象12移动为更靠近或远离LED42。
上面以图7描述的二维对象位置确定和姿态识别的原理可被扩展到三维应用。图8是根据本发明的基于一个发光二极管42和四个光学接收器44、46、52、54的光学姿态识别系统50的实施例的透视图。类似于图6的布置,LED42和接收器44和46沿X轴布置,而LED42和接收器52以及54沿Y轴布置。通过以类似于上面以图6的布置描述的方式测量从LED42到每个接收器44、46、52、54的光反射,获得对象12相对于光学姿态识别系统50的X轴和Y轴的位置。
在图7和8的实施例中,可以激活LED42,并且每个光学接收器同时测量反射。反射测量被传输到处理器,以便进行位置计算和姿态识别。这可被以各种方式实现。例如,光学接收器可与执行姿态识别的处理器连接。在另一个例子中,光学接收器可以联网,并且可以利用这些接收器之一中的处理器执行姿态识别。还可以通过形成近距离传感器的同步阵列的联网的接收器-LED对实现反射测量。
用于反射测量和姿态识别的元件数目可以根据给定应用的需要而改变。仅需要使得确定对象的相对位置的方式和姿态识别所采用的算法适合于这些元件的数目和位置。例如,图9是根据本发明的基于一个光学接收器63和三个发光二极管64、66、68的光学姿态识别系统60的实施例的透视图。类似地,图10是根据本发明的基于一个发光二极管72和三个光学接收器74、76、78的光学姿态识别系统70的实施例的透视图。图9和10中的每个实施例可以测量对象12的近似位置,并且检测可被解释为姿态的对象12的三维移动。在图9的实施例中,基于反射的位置计算和姿态识别仅适合于LED65、66、68相对于接收器62的位置,并且类似地,在图10的实施例中,适合于接收器74、76、78相对于LED72的位置。
图11是示出了适用于图1-10所示的光学系统的用于姿态识别的处理80的一个例子的控制流程图。该处理涉及使用取决于该光学系统的一个或多个LED,在步骤82测量反射。在多个LED的实施例中,通过选择性地激活每个LED,并且测量由光学接收器针对每个LED检测到的反射来测量反射。例如,在图9的实施例中,由控制器诸如接收器62中的控制器独立地激活LED64、66、68,并且为每个LED测量由接收器62检测到的反射。在图10的实施例中,激活LED72,并且每个接收器74、76和78测量反射光,例如,在控制器诸如接收器74、76、78内的控制器之一中,或在单独的控制器设备中收集该测量,从而可以进行进一步的处理。
如果测量的反射REFL指示没有对象足够靠近光学系统以便反射光,例如,测量的反射在所选择的阈值之下,则步骤84的控制分支返回步骤82,以便再次测量反射。如果测量的反射REFL指示对象处于附近,例如,测量的反射达到或超过所选择的阈值,则控制分支到达步骤86。可以采用用于确定接近的各种方法。例如,在使用多个LED或多个接收器的光学接收器的实施例中,设计者可以选择当LED或接收器中的任意一个超过了所选择的阈值时检测到接近。可替换地,在多个LED的实施例中,当多于一个LED测量到超过所选择的阈值的反射时,或在多个接收器的实施例中,当多于一个接收器测量到超过所选择的阈值的反射,接近判定可以是肯定的。还可以通过同时激活所有LED,并且测量产生的总反射,获得接近状态,总反射是所有单个反射贡献的总和。
为了检测移动,在多个时间点测量反射,并且比较不同时间的测量,以便确定对象12的相对运动。在步骤86,存储反射测量REFL以便以后进行比较。在步骤88,进行下一组反射测量。注意,不同的实现可能需要多于两个测量,并且可以修改处理,以便执行特定实现的姿态识别所需次数的测量。如果步骤88的反射测量指示对象12已经移出了量程,例如,测量的反射在所选择的阈值之下,则步骤90的控制分支返回步骤82,在步骤82处理等待,以便检测回到邻近的对象12。否则,控制分支达到步骤92以便进行姿态识别。
在步骤92执行基于测量的反射的姿态识别。例如,可以基于给定的时间点,例如,T1的反射测量确定检测到的对象,例如,对象12的近似位置。然后,分析从一个时间点到下一个时间点,例如,T2的位置改变,或取决于实现,若干时间点上的位置改变,以便确定位置改变是否代表姿态,并且在某些实施例中,姿态的性质。在一种方法中,可以采用查找表,以便将位置改变解释为标识出的姿态。可替换地,解释算法可将位置改变与一个符号表相关联,并且基于从测量到的位置改变到该符号表中关于一种姿态的符号的数学距离确定姿态。用于常规输入笔输入设备,诸如,输入笔输入个人数字助理(PDA)的符号识别可适用于本发明。见图14。姿态还可被解释为运动矢量,以便例如用于机械控制算法或机器视觉应用。本领域的普通技术人员将会认识到,可以采用用于姿态识别的各种方法,而不脱离本发明的教导,并且描述的这些例子不应被解释为限制本发明的范围。
在需要多个反射测量或位置改变对于步骤92的姿态识别来说是不明确的实施例中,步骤94的控制分支返回步骤86,以便进行另一组反射测量。如果识别出了姿态,并且不需要其它的反射数据,则步骤94的控制分支返回步骤82,以便再次开始处理。
图12是根据本发明的基于两个发光二极管和一个光学接收器的适合于使用的光学姿态识别系统100的一个例子的功能方框图。适用于本发明的光学系统一般提供指示接收的光学信号的振幅的反射测量。近距离传感器100被配置为“激活”光学反射近距离传感器(OPRS)设备,OPRS设备可以通过测量在光电二极管(PD)105处接收的来自驻留在或移动通过该模块的检测通道或经校准的检测空间的对象102的反射信号来感测接近。非常基本地,传感器100通过以一个或多个发光二极管(LED),例如,在这个例子中实现的LED-1(104)和LED-2(103)发光来工作。在这个例子中,从LED103和104发出的光被一般地定向到这样的区域,在该区域中通过对象12的介入和/或移动通过传感器的检测通道或“可视”区域,对象12可以引起检测。在作为该传感器的一部分提供的、并且适用于此目的的PD105处接收来自对象102的反射光和来自背景或其它噪声源的环境光。使用从噪声和其它环境信号中可靠地确定从对象102接收的反射数量的电路增强传感器100,以便达到高的灵敏度和可靠性。
可以存在安装在传感器100附近的一个或多个LED,诸如,LED103和104,而不脱离本发明的精神和范围。发明人示出了两个LED,并且相信该图示足以用于解释本发明的目的。在一个实施例中,可以存在被并行链接、多路复用或独立布线的多于两个的LED。这个例子中的LED103和104可以是能够发出连续光(连续不断地)的非常小的紧凑设备,或它们可被配置为在调制控制下发光。类似地,它们可被在接近测量周期之间的睡眠模式中关闭。来自LED的实际光可以是人眼可见或不可见的,诸如红光和/或红外线光。在一个实施例中,可以为光学反射测量提供至少一个可视光LED。
在这个逻辑方框图中,组件的准确布置和传感器100的组件之间的迹线连接仅具逻辑含义,并且不反映任意特定设计的迹线配置。图1-10示出了给出了LED和光学接收器的可能布置的例子的实施例,虽然这些例子不是详尽的,并且不限制本发明的范围。在优选实施例中,LED103和104被策略性地接近PD105定位,从而光(以间断的方向箭头示出)被从对象102反射,并且作为反射被PD105高效地接收。
ORPS100包括DC环境校正电路107,下面可被称为DCACC107。DCACC107是具有到DC环境零(DCA-0)开关106的连接的一阶宽环校正电路,DC环境零开关106通过门电路诸如本说明书中稍后描述的PMOS门电路内联到PD105。因此,可以首先校准传感器100,其中测量来自除光学反射之外的任意来源的DC环境光,并且然后将其去除,以便确定任意反射信号的存在,可以针对一个预设阈值限定该反射信号,在一个例子中,可以在传感器100的校准过程中确定该预设的阈值。
在本发明的优选实施例中,通过测量输出电压信号的放大的脉冲宽度确定反射。通过以产生与进入PD105的测量的DC环境光成比例的放大的脉冲宽度的能力增强传感器100实现对DC环境光的校正。提供DCACC107和开关106,并且它们与电压输出比较器电路111一起适用于此目的。更具体地,在对DC环境光的校准过程中,通过在校准周期的开始使用开关106将DC环境光校正设置为0,并且然后在校准周期期间测量检测到的脉冲的宽度完成校正。输出脉冲的宽度与背景DC环境成比例。当然,在校准期间,禁止发射器LED或多个LED。
ORPS100包括电源112和微处理器108。在这个例子中,微处理器108被作为板上传感器100逻辑地示出。这不是实现本发明所需要的。取决于应用,微处理器108可以是装置接口部件或另一个光学接收器的一部分。电源112可以是电池电源、可充电电源或某些其它电流源。在这个例子中,发射器LED103和104连接到微处理器108,并且被微处理器108控制,并且还可以通过微处理器108接收电能。PD105还具有到电源112的连接。在一个实施例中,可以存在用于操作传感器100的多于一个的电源,而不脱离本发明的精神和范围。在这个例子中仅仅逻辑地示出了电源112和微处理器108,以便示出传感器从电源得到电能,并且可选择地,可以使用微处理控制某些传感器功能。
DC环境电路107根据其从光电二极管105接收的输入信号产生电压。OPRS100包括模拟到数字转换器电路(ADC)111,在这个例子中,ADC111将由光电二极管105产生的输入电压信号转换为被输出到微处理器108的数字反射测量值REFL。在这个例子中,微处理器108配置为在图11所示的处理80的步骤84基于将测量的反射值与一个阈值进行比较以便确定接近,进行接近判定。通过在DCACC107和ADC111之间内联提供的反馈封锁开关(FBS)109传递从电路107到ADC111的输入。在这个实施例中,由单触发电路(OSI)110驱动FBS109,当LED103和104被微处理器108启动并且进行发射时,OSI110给该开关提供封锁脉冲。FBS109和OSI110的组合通过减少电路中的噪声提供附加的灵敏度增强。
在ORPS100的操作中,首先执行校准,以便关闭LED103和LED104并且使用DCACC107和ADC111测量平均DC环境光状态。当DC环境环路已经稳定,并且确定了有效的阈值时,由微处理器108独立地打开LED103和104,以便使用TX控制信号和TX2控制信号进行反射测量。在这个例子中,在PD105处从对象102接收的反射产生高于DC环境的电压。来自PD105的结果输入电压到达ADC111,ADC111将该电压转换为被输出到微处理器108的数字值REFL。微处理器108每次激活一个LED,并且测量针对每个LED103,104产生的结果反射值REFL。微处理器108然后可以基于测量的反射值和LED104、105和光电二极管105彼此之间的相对位置计算对象102的近似位置。微处理器然后将一系列近似位置解释为相应的姿态。
在一个实施例中,以诸如一个隔离物提供光学隔离,以便隔离光电二极管105而不会接收来自LED103和104的任何串扰。可以在传感器100的外壳内提供一个或多个光学窗口,以便允许实现从LED到光电二极管的所希望的光反射路径。可以大量提供ORPS100作为用于许多不同消费应用中的非常低成本并且健壮的反射传感器。例如,ORPS100可被配置为以电池供电的开关传感器,其中与RF发射器结合,当检测到对象接近ORPS100时,系统向远程接收器发送第一RF消息。ORPS100可被配置为当检测到对象移开时发送第二RF消息。这可用于无线自动门铃或无线安全警报传感器。低成本低功率传感器的其它可想象的应用可以包括汽车倒车指示器、灯开关触发器、感测接近的玩具、计算机监视器激活和电话用户接口。
图13是示出了用于作为图12的传感器100的一部分的光学接收200的电路的一个例子的电路图。可以用互补金属氧化物半导体(CMOS)半导体工艺实现电路200。还可以使用其它电路逻辑,以便实现适当的功能。微处理器可以外置于或内建于相同芯片衬底上。光电二极管105可以是外置的,或还可以被实现在相同芯片上。在这个例子中LED1104和LED2103是外置的。
电路200包括DCACC107和ADC111。构成DCACC107的电路被示出为被以标记为107的不连续周界线包围。DCACC107包括跨阻放大器(TIA)A1(201)、跨导放大器(TCA)A2(202)、电阻R1和R2和充电电容(C1)。这些组件代表DCACC107的低成本并且高效的实现。
DCA-0开关(S2)被示出为连接到第一PMOS门电路(P2),第一PMOS门电路又连接到PMOS门电路(P1)。门电路P1与放大器A2(202)的输出端子内联连接。A2从跨阻放大器A1(201)接收其输入。出于简化描述的目的,放大器A2将被称为TCA202,并且放大器A1将被称为TIA201。TCA202去除DC和低频信号。重要的是要注意,对于接近感测,TCA202从放大器电路,更具体地,从TIA201取得其误差输入。就此而言,TIA包括放大器A1和电阻R1。
图13中未示出微处理器(uP),但是假设其作为板上组件或板外组件出现。如图12中所示,发射(TX)LED104被示出为接近PD105。在这个实施例中提供TX LED103,以便允许近似X轴上的位置。本领域的普通技术人员将会容易理解使用一个或多于两个TX LED的实现。在这个例子中,如由相应的TX控制线指示的,由连接的微处理器(uP)提供TX控制。
当测量反射时,PD105从微处理器108激活的LED103、104中的任何一个接收反射光,其中反射光被示出为从对象102发出并且进入PD105的反射箭头。产生的电流进入由运算放大器A1和反馈电阻R1构成的TIA201。来自TIA201的放大输出作为信号VO(电压输出)经过FBS109(S1)进入ADC111。
来自TIA201的输出还经过R2进入DCACC202(A2)的输入。此处,以二极管(D1)或等效的限制电路限制该输入。以这种方式,TCA202(A2)的输出具有固定的最大电流,以便给电容C1充电。这个状态使得进入PMOS204(P1)的电流以最大线性速率倾斜上升。此时,当通过PMOS201(P1)的电流等于由PD105产生的电流时,TIA201的输入误差变为0。该状态使得TIA的输出下降,从而减小到TCA202(A2)的误差输入。这减缓并且然后阻止对C1的进一步充电。DCACC107可以仅对于大信号以固定速率摆动,并且对于限幅电平之下的信号以成比例地较小的速率摆动,DCACC107用于校正输入信号改变的时间是对输入信号改变的振幅的一种测量。在一个实施例中,由ADC111输出的反射值REFL与由LED产生的被耦合到光电二极管内的光学信号的总的改变成比例。在其它实施例中,例如,如特定实现所需的,值REFL可被对数地压缩或反转。
这种输入电流到输出脉冲宽度的转换包括将DC环境和反射信号两者转换为RO脉冲宽度改变。在校准和DC环境光的测量过程中,DCA-0开关106闭合。闭合开关S2使得通过PMOS204(P1)的电流下降到接近0,同时仍然保持C1上的电压非常接近P1的门电路阈值。允许DC环境校正环路在一段时间内达到稳定。在校正环路已经稳定之后断开DAC-0 106(S2),以便重新启动DC环境校正环路。然后C1处的电压上升,直到通过PMOS204(P1)的电流等于从PD105产生的DC环境光电流。因此,RO在由于接近检测引起改变之后返回其通常状态所花费的时间与关闭LED时由PD105输出的DC环境输入电流成比例。
相反地,为了测量反射,保持S2断开,同时允许在足够的时间内进行DC环境背景校准,包括使得DC环境环路稳定,或去除平均DC背景环境。在完成校准之后,启动TX LED 103和104以便发射光。以A1放大作为来自对象102的反射的结果的由PD105产生的光电流的后续增加,使得仅在放大的改变超出接近检测阈值时,从VOCC111输出RO改变。在检测反射(感测接近)之后,DC环境环路使得C1上的电压增加,直到其由于反射取消光电流的增加。在处理中的这个时刻,VO(从TIA201输出的放大的信号)返回其正常值,因此结束检测周期,并且允许RO(从VOCC111输出)返回其以前的值。LED的TX和RO返回其以前值之间的时间段与反射信号的大小成比例。
本领域的技术人员将会认识到,在这个例子中给出的传感器电路200中,DCACC107连续操作,以便去除背景环境光的正常改变。仅有瞬时改变产生输出。仅当DC校正信号和输入信号之间存在不同时才产生输出。反射测量的这种方法的优点是如果使用低噪声光放大器,则由PD105的“触发噪声”限制分辨率。如果为P1使用中等大的PMOS,并且在其Vdd源处使用适当的退化电阻,电路200展现出DC环境校正电流源的最低噪声。P1的门电路上的积分器电容去除TCA202的大部分噪声分量。
在这个实施例中,以由单触发电路(OS1)110驱动的开关109(S1)实现反馈封锁。当启动TX LED功能,即,响应来自微处理器的TX控制和TX2控制信号时,OS1 110产生封锁脉冲。在这个例子中,封锁脉冲比TIA201(A1)内的瞬变的稳定时间宽。如上面进一步讨论的,在处理中引入封锁脉冲增加了接收器的灵敏度。否则由于来自从LED103和104发射脉冲的前沿的反馈噪声,会降低接收器的灵敏度。
图14是示出了使用图11的处理80中的姿态识别步骤92中所涉及的反射测量的、用于基于位置改变的近似的姿态识别的处理92的一个例子的控制流程图。在这个例子中,在步骤250,根据使用图12的光学传感器100在第一时间点T1获得的反射测量值REFL确定对象的近似位置P1。这些测量可能已被在图11中的步骤82获得。在步骤252,根据在第二时间点T2使用传感器100获得的反射测量值REFL确定对象的近似位置。
然后在步骤254比较近似位置P1和P2,以便识别相应的姿态。在图14所示的例子中,确定从P1到P2的相对运动,并且将其归一化为值RELATIVE MOTION,值RELATIVE MOTION用于索引查找表或符号表256,以便获得相应于一种姿态的GESTURE ID值,该姿态相应于从P1到P2的运动矢量,或获得指示不能从该运动中识别出姿态的值。如果识别出了有效的GESTURE ID值,则步骤260处的控制分支到达步骤262,其中处理该GESTURE ID。例如,向用于控制PDA的用户接口的处理发送消息,或向激活灯或安全照相机的远程接收器无线地发送消息。作为另一个例子,GESTURE ID可以相应于对象或自动装置内的一件装置的运动或位置,并且向控制该装置的处理发送代表“对象到位”或“对象不在位置上”的消息。如果不能识别出姿态,则控制分支到达步骤264,以便得到更多数据以便分析该姿态。在简单的实现中,系统可以丢弃一个或多个早期的反射测量,例如,丢弃P1,将P2存储为P1,得到新的数据以便计算P2,并且使用新的数据对索引该表。在更复杂的实现中,系统可以获得一个或多个附加的反射测量,以便追踪对象的相对运动以便识别姿态。处理返回图11的步骤94,以便进行连续的反射测量。
在某些应用中,规定一个接收器与单个LED一起操作,并且组合来自多个这种接收器-LED对的结果反射测量可能最简单。图15是根据本发明的基于四对联网的LED和接收器的光学姿态识别系统250的另一个实施例的透视图。在这个实施例中,接收器264检测来自LED262的由对象12反射的光。类似地,接收器268激活LED266并且测量结果反射,接收器270激活LED272并且测量结果反射,并且接收器274激活LED276并且测量结果反射。在这个实施例中,接收器264、268、270和274通过网络连接260被联网在一起,以便传递测量的反射值以便进行姿态识别。接收器还可以优选地同步它们的激活,从而在给定的时间点仅激活一个LED,以便避免相邻接收器和LED对的干扰。
图16是根据本发明的基于两组接收器和发光二极管的光学姿态识别系统280的实施例的透视图,每组接收器和发光二极管具有一个接收器和两个发光二极管,其中接收器290和297通过网络连接284联网。在这个例子中,接收器290激活LED292和294,并且测量结果反射。类似地,接收器297激活LED296和298,并且测量结果反射。通过网络284传递测量的反射值以便进行姿态识别。这种布置类似于图2-5的实施例,并且在某些应用中可能是优选的实现。
上述LED一般地具有相同的光电属性,例如,光谱响应、发射曲线和输出功率,这倾向于简化用于姿态识别的信号处理。然而,可以采用具有不同特性的LED,而不会脱离本发明的范围。例如,可以使用具有显著不同发射特性的两个光源实现简化的三角测量。通过比较相应于每个光源的各个反射,可以确定对象的近似的绝对位置。如果两个光源LED1和LED2具有类似的输出功率,但是光源LED1具有窄的半角,而第二个光源LED2具有宽得多的半角,如果相应于LED1的反射R1比相应于LED2的反射R2高得多,则对象位于接收器上方附近。如果R1很小并且R2为0,则对象在接收器上方的远处。如果R2很小并且R1=0,则对象在与接收器离轴的远处。因此,姿态可与对象在特定区域中的位置、与接收器处于一种相对位置的物质的位置和/或对象从特定区域到另一个区域的运动的相关联,从而形成例如虚拟按钮开关。
图17是示出了根据本发明的基于两个发光二极管302和304和一个接收器310的光学姿态识别系统300的功能方框图,其中二极管具有不同的半角和功率特性。在这个例子中,LED302具有较高的功率,但是具有导致照明区域303的较窄的半角,而LED304具有较低的功率和导致照明区域305的较宽的半角。如果接收器310检测到LED302的高反射,但是检测到LED304的低反射,则对象落在照明区域303的在照明区域305之外的部分中,并且对象的位置可被近似为在以对象312示出的邻近区域内。如果接收器310收到LED302和304的类似的反射级别,则对象落在照明区域303和照明区域305两者内,并且对象的位置可被近似为在以对象314示出的邻近区域内。如果接收器310接收到LED304的高反射,但是接收到LED302的低反射,则对象落在照明区域305内,但是在照明区域303之外,并且对象的位置可被近似为在以对象316示出的邻近区域内。
图18是示出了根据本发明的基于两个发光二极管322、324和一个接收器330的光学姿态识别系统320的功能方框图,其中二极管具有不同的光学功率特性。在这个例子中,LED322具有导致照明区域323的较高的光学功率,而LED324具有导致照明区域325的较低的光学功率。如果接收器330检测到LED322的高反射,但是检测到LED324的低反射,则对象落在照明区域323的在照明区域325之外的部分内,并且对象的位置可被近似为在以对象332示出的邻近区域内。如果接收器330接收到LED322和324的类似的反射级别,则对象落在照明区域323和照明区域325两者内,并且对象的位置可被近似为在以对象324示出的邻近区域内。
图19是示出了根据本发明的基于两个发光二极管342、344和一个接收器350的光学姿态识别系统340的功能方框图,其中二极管具有不同照明半角特性。在这个例子中,LED342具有导致照明区域343的较窄的半角,而LED344具有导致照明区域345的较宽的半角。如果接收器350检测到LED342的高反射,但是检测到LED344的低反射,则对象落在照明区域343的在照明区域345之外的部分内,并且对象的位置可被近似为在以对象352示出的邻近区域内。如果接收器350接收到LED342和344的类似的反射级别,则对象落在照明区域343和照明区域345两者内,并且对象的位置可被近似为在以对象354示出的邻近区域内。如果接收器350接收到LED344的高反射,但是接收到LED342的低反射,则对象落在照明区域345内,但是在照明区域343之外,并且对象的位置可被近似为在以对象356示出的邻近区域内。
注意如果Z轴运动,例如,以上面某些实施例描述的向着或远离LED的运动被以过于简化的方式处理,则例如与检测到的向着姿态识别系统的移动相关联的“on”功能可能被在“on”运动之后远离系统移动手的随后的向外运动所混淆。一种解决方案是在向内的“on”运动之后在任意方向上横向移开手,或向着中心锥体横向移动手,并且然后向外移动手,以便指示“off”命令。可替换地,执行姿态识别的处理器可以规定一段短的延迟时段,在此期间不识别其它姿态或移动,以便避免命令冲突。
LED照明区域或圆锥位置信息,例如,图17-19所示的相对反射,可与运动检测,例如,随时间变化的LED反射的改变相结合,以便执行对诸如通断开关的应用的三维控制,该控制可用于避免伪“off”命令。采用图19所示的窄圆锥和宽圆锥双LED方法,可以与向着或远离照明区域343、345的中心圆锥的运动相区别地检测靠近接收器的横向运动。如果内圆锥LED342的反射相对于LED344的宽圆锥反射剧烈下降,则发生远离中心的横向运动。对于向内的横向运动,发生相反的反射改变。高于固定速率的并且高于LED342、344两者的最小阈值的增加指示向着中心LED342的运动,而对于向外运动发生相反情况。由于远处的对象反射在检测级别之下,远处的横向运动没有问题。
以图19描述的圆锥检测可用于诸如“空间”接近通断开关的应用。当前,大部分近距离传感器使用触发运动概念。采用这种方法,任意运动触发一个计时器打开例如安全灯,该安全灯稍后在某个超时值之后关闭。采用触发近距离传感器的通断控制通常需要两个接近按钮,其中用户需要在灯开关的一角上挥手,例如,以便触发开关“打开”,并且在另一角上挥手以便触发开关“关闭”。采用双圆锥Z轴运动检测器,单个双圆锥LED端口可作为通断开关而不会产生多义性。可以采用使用来自两个LED的反射的适当的姿态比较算法实现双圆锥概念。
通过引用将此处引用的包括出版物、专利申请和专利在内的所有参考结合在此,其程度与单独地并且特定地指出通过引用结合每个参考并且将其完整罗列于此相同。
在描述本发明的上下文中对术语“一个”(“a”和“an”)和“该”(“the”)以及类似指示物的使用被解释为覆盖单数和复数两者,除非在此处被不同地指出,或根据上下文明显矛盾。除非被在此处不同地指出,此处对值的范围的表述仅仅旨在作为单独引用落在该范围内的每个不同值的缩略方法,并且将每个不同的值结合在本说明书内,如同它们在此处被单独列举。除非被在此处不同地指出,或根据上下文明显矛盾,此处描述的所有方法可被以任意适合的顺序执行。对此处提供的任意和所有例子或示例语言(例如,“诸如”)的使用仅旨在更好地说明本发明,并且除非不同地声明,不对本发明的范围构成限制。本说明书中的语言不应被解释为将任意非要求保护的元素指示为是实现本发明所必需的。
此处描述了本发明的优选实施例,包括用于实现本发明的发明人已知的最佳模式。应当理解,示出的实施例仅是例子,并且不应被作为对本发明的范围的限制。

Claims (23)

1.一种光学姿态识别系统,该系统包括:
第一光源;
第一光学接收器,被配置为当第一光源被激活时,接收来自对象的反射光,并且输出与所述反射光的振幅对应的第一测量反射值;和
处理器,被配置为接收第一测量反射值,其中所述处理器还被配置为比较第一时间点和第二时间点的第一测量反射值,以便追踪对象的运动,并且识别与所追踪的对象的运动对应的对象姿态。
2.如权利要求1的光学姿态识别系统,其中所述系统还包括:
第二光源;并且
所述处理器还被配置为独立地激活第一光源和第二光源,并且捕捉第一光源和第二光源中的每一个光源在第一时间点和第二时间点中的每一个时间点的第一测量反射值,以便追踪对象的运动,并且利用为第一光源和第二光源两者捕捉的第一测量反射值识别对象的姿态。
3.如权利要求2的光学姿态识别系统,其中沿第一轴以预定的彼此之间的相对位置布置第一光源和第二光源以及光学接收器。
4.如权利要求2的光学姿态识别系统,其中所述系统还包括:
第三光源;并且
所述处理器还被配置为独立地激活第一光源、第二光源和第三光源,并且捕捉第一光源、第二光源和第三光源中的每一个光源在第一时间点和第二时间点中的每一个时间点的测量反射值,以便追踪所述对象的运动,并且利用第一光源、第二光源和第三光源的第一测量反射值识别对象的姿态。
5.如权利要求4的光学姿态识别系统,其中以预定的彼此之间的相对位置布置第一光源、第二光源和第三光源以及光学接收器,并且所述处理器被配置为追踪对象在至少二个维度上的运动。
6.如权利要求2的光学姿态识别系统,其中所述第一光源和第二光源包括第一发光二极管。
7.如权利要求2的光学姿态识别系统,其中第一光源和第二光源具有不同的照明特性,并且所述处理器还被配置为激活第一光源和第二光源,并且基于第一光源和第二光源的不同照明特性追踪对象的运动。
8.如权利要求7的光学姿态识别系统,其中第一光源和第二光源中的每一个具有相应的照明圆锥区域,其中所述照明圆锥区域在空间上部分重叠,并且其中所述处理器被配置为基于在每个所述照明圆锥区域内检测到的反射追踪对象的运动。
9.如权利要求1的光学姿态识别系统,其中所述处理器与所述光学接收器集成在一起。
10.如权利要求1的光学姿态识别系统,其中第一光源和光学接收器被安装在公共基底上。
11.如权利要求1的光学姿态识别系统,其中第一光源和光学接收器被集成在光学数据收发器内。
12.如权利要求4的光学姿态识别系统,其中所述系统还包括:
第四光源;并且
所述处理器还被配置为独立地激活第一光源、第二光源、第三光源和第四光源,并且捕捉第一光源、第二光源、第三光源和第四光源中的每一个光源在第一时间点和第二时间点中的每一个时间点的测量反射值,以便追踪所述对象的运动,并且利用第一光源、第二光源、第三光源和第四光源的第一测量反射值识别所述对象的姿态。
13.如权利要求12的光学姿态识别系统,其中沿第一轴以预定的彼此之间的相对位置布置第一光源、第二光源以及光学接收器,沿第二轴以预定的彼此之间的相对位置布置第三光源和第四光源以及光学接收器,并且所述处理器被配置为追踪对象在至少二个维度上的运动。
14.如权利要求1的光学姿态识别系统,其中所述系统还包括:
第二光学接收器,被配置为当第一光源被激活时,接收来自对象的反射光,并且输出与所述反射光的振幅对应的第二测量反射值;和
所述处理器还被配置为捕捉第一时间点和第二时间点中的每一个时间点的第二测量反射值,以便追踪对象的运动,并且利用第一时间点和第二时间点的第一测量反射值和第二测量反射值识别对象的姿态。
15.如权利要求14的光学姿态识别系统,其中沿第一轴以预定的彼此之间的相对位置布置第一光学接收器和第二光学接收器以及第一光源。
16.如权利要求14的光学姿态识别系统,其中所述系统还包括:
第三光学接收器,被配置为当第一光源被激活时,接收来自对象的反射光,并且输出与所述反射光的振幅对应的第三测量反射值;和
所述处理器还被配置为捕捉第一时间点和第二时间点中的每一个时间点的第三测量反射值,以便追踪对象的运动,并且利用第一时间点和第二时间点的第一测量反射值、第二测量反射值和第三测量反射值识别对象的姿态。
17.如权利要求16的光学姿态识别系统,其中以预定的彼此之间的相对位置布置第一光学接收器、第二光学接收器和第三光学接收器以及第一光源,并且所述处理器被配置为追踪对象在至少二个维度上的运动。
18.如权利要求1的光学姿态识别系统,其中所述系统还包括:
第二光源;
第二光学接收器,被配置为当第二光源被激活时,接收来自对象的反射光,并且输出与所述反射光的振幅对应的第二测量反射值;和
所述处理器还被配置为独立地激活第一光源和第二光源,并且捕捉第一光源和第二光源中的每一个在第一时间点和第二时间点中的每一个时间点的第一测量反射值和第二测量反射值,以便追踪对象的运动,并且利用为第一光源和第二光源两者捕捉的第一测量反射值和第二测量反射值识别对象的姿态。
19.一种用于光学系统中的姿态识别的方法,该方法包括下列步骤:
测量第一时间点的来自对象的反射光的振幅以便获得第一测量反射值;
测量第二时间点的来自对象的反射光的振幅以便获得第二测量反射值;
比较第一测量反射值和第二测量反射值以便确定对象的相对运动;和
识别与对象的相对运动对应的姿态。
20.如权利要求19的方法,其中:
测量第一时间点的来自对象的反射光的振幅以便获得第一测量反射值的步骤还包括:测量第一时间点的第一反射和第二反射的反射光的振幅以便获得第一测量反射值;和
测量第二时间点的来自对象的反射光的振幅以便获得第二测量反射值的步骤还包括:测量第二时间点的第一反射和第二反射的反射光的振幅以便获得第二测量反射值。
21.如权利要求19的方法,其中比较第一测量反射值和第二测量反射值以便确定对象的相对运动的步骤包括:计算对象在第一时间点和第二时间点在至少二个维度上的近似位置。
22.如权利要求19的方法,其中:
测量第一时间点的来自对象的反射光的振幅以便获得第一测量反射值的步骤还包括:测量第一时间点的第一反射、第二反射和第三反射的反射光的振幅以便获得第一测量反射值;和
测量第二时间点的来自对象的反射光的振幅以便获得第二测量反射值的步骤还包括:测量第二时间点的第一反射、第二反射和第三反射的反射光的振幅以便获得第二测量反射值。
23.一种光学姿态识别系统,该系统包括:
用于测量第一时间点的来自对象的反射光的振幅以便获得第一测量反射值,以及测量第二时间点的来自对象的反射光的振幅以便获得第二测量反射值的装置;
用于比较第一测量反射值和第二测量反射值以便确定对象的相对运动的装置;和
用于识别与对象的相对运动对应的姿态的装置。
CN200910258503.8A 2008-12-12 2009-12-11 用于光学姿态识别的装置和方法 Expired - Fee Related CN101996002B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/334,296 2008-12-12
US12/334,296 US8660300B2 (en) 2008-12-12 2008-12-12 Apparatus and method for optical gesture recognition

Publications (2)

Publication Number Publication Date
CN101996002A true CN101996002A (zh) 2011-03-30
CN101996002B CN101996002B (zh) 2015-12-09

Family

ID=42240581

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200910258503.8A Expired - Fee Related CN101996002B (zh) 2008-12-12 2009-12-11 用于光学姿态识别的装置和方法

Country Status (3)

Country Link
US (1) US8660300B2 (zh)
KR (1) KR101634939B1 (zh)
CN (1) CN101996002B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103376060A (zh) * 2012-04-11 2013-10-30 义明科技股份有限公司 非接触式光源感测系统
CN103514436A (zh) * 2012-06-14 2014-01-15 英特赛尔美国有限公司 使用多个光电检测器分段的运动和简单姿态检测
CN104220966A (zh) * 2012-03-26 2014-12-17 硅立康通讯科技株式会社 动作手势感测模块及动作手势感测方法
CN104545873A (zh) * 2014-12-31 2015-04-29 中国科学院深圳先进技术研究院 一种用于光电容积描记信号的光电流处理模拟前端电路
WO2018010171A1 (en) * 2016-07-15 2018-01-18 Harman International Industries, Incorporated Object tracking method and system
CN110618677A (zh) * 2018-06-19 2019-12-27 松下知识产权经营株式会社 移动机器人
CN114502915A (zh) * 2019-10-08 2022-05-13 斑马技术公司 用于移动尺寸标注的方法、系统和装置

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012515899A (ja) * 2009-01-27 2012-07-12 エックスワイゼッド・インタラクティヴ・テクノロジーズ・インコーポレーテッド 単一のデバイスおよび/または複数のデバイスの測距探知、配向決定、および/または測位のための方法および装置
KR101554220B1 (ko) * 2009-06-03 2015-09-21 삼성전자주식회사 휴대단말기의 근접 센서를 이용한 데이터 출력 방법 및 장치
KR20100136649A (ko) * 2009-06-19 2010-12-29 삼성전자주식회사 휴대단말기의 근접 센서를 이용한 사용자 인터페이스 구현 방법 및 장치
US8760631B2 (en) * 2010-01-27 2014-06-24 Intersil Americas Inc. Distance sensing by IQ domain differentiation of time of flight (TOF) measurements
AT510176B1 (de) * 2010-07-07 2012-02-15 Roman Eugenio Mag Anderl Verfahren zur steuerung einer interaktiven anzeige
TWI490739B (zh) * 2010-09-21 2015-07-01 Chi Mei Comm Systems Inc 可攜式裝置感應控制系統及方法
JP5889594B2 (ja) * 2011-10-13 2016-03-22 シリンクス株式会社 光学的位置検出装置
KR101356819B1 (ko) * 2011-12-22 2014-02-12 한국과학기술원 입력 인터페이스 제공 장치 및 그 동작 방법
GB2498716A (en) * 2012-01-22 2013-07-31 Alexander James Miles A Control Panel for an Electronic Display
TWI488068B (zh) * 2012-03-20 2015-06-11 Acer Inc 手勢控制方法及裝置
US8830171B2 (en) * 2012-05-22 2014-09-09 Eminent Electronic Technology Corporation Apparatus for non-contact 3D hand gesture recognition with code-based light sensing
US9120226B2 (en) 2012-10-23 2015-09-01 Lincoln Global, Inc. System and method for remotely positioning an end effector
DE102012222463A1 (de) * 2012-12-06 2014-06-12 Osram Opto Semiconductors Gmbh Organisches optoelektronisches Bauelement mit Infrarot-Detektor
US20140176707A1 (en) * 2012-12-20 2014-06-26 Wal-Mart Stores, Inc. Determining The Position Of A Consumer In A Retail Store Using A Light Source
US9176588B2 (en) 2013-01-14 2015-11-03 Maxm Integrated Products, Inc. System and method for discerning complex gestures using an array of optical sensors
KR101382519B1 (ko) * 2013-01-30 2014-04-08 주식회사 하이소닉 모션 인식 방법
WO2014119838A1 (ko) * 2013-01-30 2014-08-07 (주)하이소닉 모션 인식 방법
KR101382477B1 (ko) * 2013-01-30 2014-04-08 주식회사 하이소닉 모션 인식 방법
KR101405252B1 (ko) * 2013-02-01 2014-06-10 주식회사 하이소닉 모션 감지 스위치
US10134267B2 (en) * 2013-02-22 2018-11-20 Universal City Studios Llc System and method for tracking a passive wand and actuating an effect based on a detected wand path
EP2790093B1 (en) * 2013-04-09 2020-06-03 ams AG Method for gesture detection, optical sensor circuit, in particular an optical sensor circuit for gesture detection, and optical sensor arrangement for gesture detection
AT514528A1 (de) * 2013-06-21 2015-01-15 Engel Austria Gmbh Formgebungsanlage mit Gestensteuerung
US9256290B2 (en) 2013-07-01 2016-02-09 Blackberry Limited Gesture detection using ambient light sensors
US9423913B2 (en) 2013-07-01 2016-08-23 Blackberry Limited Performance control of ambient light sensors
US9323336B2 (en) 2013-07-01 2016-04-26 Blackberry Limited Gesture detection using ambient light sensors
US9342671B2 (en) 2013-07-01 2016-05-17 Blackberry Limited Password by touch-less gesture
US9489051B2 (en) 2013-07-01 2016-11-08 Blackberry Limited Display navigation using touch-less gestures
US9367137B2 (en) 2013-07-01 2016-06-14 Blackberry Limited Alarm operation by touch-less gesture
US9398221B2 (en) 2013-07-01 2016-07-19 Blackberry Limited Camera control using ambient light sensors
KR101462792B1 (ko) * 2013-07-01 2014-12-01 주식회사 넥서스칩스 제스처 식별 장치 및 그 방법
US9405461B2 (en) 2013-07-09 2016-08-02 Blackberry Limited Operating a device using touchless and touchscreen gestures
US9304596B2 (en) 2013-07-24 2016-04-05 Blackberry Limited Backlight for touchless gesture detection
US9465448B2 (en) 2013-07-24 2016-10-11 Blackberry Limited Backlight for touchless gesture detection
US9194741B2 (en) 2013-09-06 2015-11-24 Blackberry Limited Device having light intensity measurement in presence of shadows
US9594443B2 (en) * 2014-02-26 2017-03-14 Lenovo (Singapore) Pte. Ltd. Wearable device authentication and operation
KR102263064B1 (ko) 2014-08-25 2021-06-10 삼성전자주식회사 피사체의 움직임을 인식하는 장치 및 그 동작 방법
DE102015207768B4 (de) 2015-04-28 2020-03-12 Volkswagen Aktiengesellschaft Verbesserte Gestenerkennung für ein Fahrzeug
KR101904373B1 (ko) * 2015-06-30 2018-10-05 엘지전자 주식회사 차량용 디스플레이 장치 및 차량
US10261584B2 (en) 2015-08-24 2019-04-16 Rambus Inc. Touchless user interface for handheld and wearable computers
US10928499B2 (en) 2016-01-26 2021-02-23 Novelic D.O.O. Millimeter-wave radar sensor system for gesture and movement analysis
US11609547B2 (en) * 2016-12-19 2023-03-21 Autodesk, Inc. Gestural control of an industrial robot
DE102017216000A1 (de) * 2017-09-11 2019-03-14 Conti Temic Microelectronic Gmbh Gestensteuerung zur Kommunikation mit einem autonomen Fahrzeug auf Basis einer einfachen 2D Kamera
KR102116604B1 (ko) * 2018-01-26 2020-05-28 한양대학교 산학협력단 레이더를 이용한 제스처 인식 장치 및 방법
JP6907277B2 (ja) 2018-08-30 2021-07-21 コグネックス・コーポレイション 歪みが低減された物体の3次元再構成を生成するための方法及び装置
CN110580115B (zh) * 2019-09-19 2023-07-25 京东方科技集团股份有限公司 一种镜面显示装置及控制方法
JP7362493B2 (ja) * 2020-01-16 2023-10-17 アルパイン株式会社 近接検出装置、ディスプレイユニット及び情報処理システム
US11826908B2 (en) 2020-04-27 2023-11-28 Scalable Robotics Inc. Process agnostic robot teaching using 3D scans

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3478220A (en) 1966-05-11 1969-11-11 Us Navy Electro-optic cursor manipulator with associated logic circuitry
US3775560A (en) 1972-02-28 1973-11-27 Univ Illinois Infrared light beam x-y position encoder for display devices
US4652741A (en) 1984-11-08 1987-03-24 Spacelabs Inc. Radiant beam coordinate detector
GB2173931B (en) 1985-04-16 1988-05-11 Ncr Co Data input system including a keyboard having no moving parts
US5059959A (en) 1985-06-03 1991-10-22 Seven Oaks Corporation Cursor positioning method and apparatus
KR900005225B1 (ko) 1985-07-09 1990-07-21 알프스덴기 가부시기 가이샤 광학식 좌표입력장치
US4855590A (en) 1987-06-25 1989-08-08 Amp Incorporated Infrared touch input device having ambient compensation
US5164714A (en) 1988-06-20 1992-11-17 Amp Incorporated Modulated touch entry system and method with synchronous detection
US5007085A (en) 1988-10-28 1991-04-09 International Business Machines Corporation Remotely sensed personal stylus
US5252951A (en) 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
DE69204045T2 (de) * 1992-02-07 1996-04-18 Ibm Verfahren und Vorrichtung zum optischen Eingang von Befehlen oder Daten.
US5543591A (en) 1992-06-08 1996-08-06 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5577848A (en) 1992-08-24 1996-11-26 Bowen; James H. Light controlled touch pad for cursor and selection control on a computer display
US5605406A (en) 1992-08-24 1997-02-25 Bowen; James H. Computer input devices with light activated switches and light emitter protection
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5424756A (en) 1993-05-14 1995-06-13 Ho; Yung-Lung Track pad cursor positioning device and method
US5583946A (en) 1993-09-30 1996-12-10 Apple Computer, Inc. Method and apparatus for recognizing gestures on a computer system
FI961459A0 (fi) 1996-04-01 1996-04-01 Kyoesti Veijo Olavi Maula Arrangemang foer optisk fjaerrstyrning av en anordning
EP0837418A3 (en) * 1996-10-18 2006-03-29 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
ATE232621T1 (de) 1996-12-20 2003-02-15 Hitachi Europ Ltd Verfahren und system zur erkennung von handgesten
US6747632B2 (en) * 1997-03-06 2004-06-08 Harmonic Research, Inc. Wireless control device
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
KR100595926B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6396477B1 (en) 1998-09-14 2002-05-28 Microsoft Corp. Method of interacting with a computer using a proximity sensor in a computer input device
US7256770B2 (en) 1998-09-14 2007-08-14 Microsoft Corporation Method for displaying information responsive to sensing a physical presence proximate to a computer input device
DE10001955A1 (de) 2000-01-18 2001-07-19 Gerd Reime Opto-elektronischer Schalter
DE10001943C2 (de) 2000-01-18 2001-12-06 Gerd Reime Vorrichtung und Verfahren zum Auswerten eines von einem Näherungssensor stammenden Nutzsignals
US6903730B2 (en) 2000-11-10 2005-06-07 Microsoft Corporation In-air gestures for electromagnetic coordinate digitizers
US6804396B2 (en) 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
DE10133823A1 (de) * 2001-07-16 2003-02-27 Gerd Reime Optoelektronische Vorrichtung zur Positions- und Bewegungserfassung sowie zugehöriges Verfahren
US7009599B2 (en) 2001-11-20 2006-03-07 Nokia Corporation Form factor for portable device
JP4240957B2 (ja) * 2002-08-30 2009-03-18 日本電気株式会社 物体追跡装置、物体追跡方法および物体追跡プログラム
US20070075968A1 (en) 2005-09-30 2007-04-05 Hall Bernard J System and method for sensing the position of a pointing object
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
KR101312625B1 (ko) * 2006-11-03 2013-10-01 삼성전자주식회사 동작 추적 장치 및 방법
US8325978B2 (en) * 2008-10-30 2012-12-04 Nokia Corporation Method, apparatus and computer program product for providing adaptive gesture analysis

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104220966A (zh) * 2012-03-26 2014-12-17 硅立康通讯科技株式会社 动作手势感测模块及动作手势感测方法
CN103376060A (zh) * 2012-04-11 2013-10-30 义明科技股份有限公司 非接触式光源感测系统
CN103514436A (zh) * 2012-06-14 2014-01-15 英特赛尔美国有限公司 使用多个光电检测器分段的运动和简单姿态检测
CN103514436B (zh) * 2012-06-14 2016-05-11 英特赛尔美国有限公司 使用多个光电检测器分段的运动和简单姿态检测
CN104545873A (zh) * 2014-12-31 2015-04-29 中国科学院深圳先进技术研究院 一种用于光电容积描记信号的光电流处理模拟前端电路
WO2018010171A1 (en) * 2016-07-15 2018-01-18 Harman International Industries, Incorporated Object tracking method and system
CN110618677A (zh) * 2018-06-19 2019-12-27 松下知识产权经营株式会社 移动机器人
CN114502915A (zh) * 2019-10-08 2022-05-13 斑马技术公司 用于移动尺寸标注的方法、系统和装置
CN114502915B (zh) * 2019-10-08 2024-03-29 斑马技术公司 用于移动尺寸标注的方法、系统和装置

Also Published As

Publication number Publication date
US20100150399A1 (en) 2010-06-17
KR20100068222A (ko) 2010-06-22
US8660300B2 (en) 2014-02-25
CN101996002B (zh) 2015-12-09
KR101634939B1 (ko) 2016-06-30

Similar Documents

Publication Publication Date Title
CN101996002B (zh) 用于光学姿态识别的装置和方法
US8363894B2 (en) Apparatus and method for implementing a touchless slider
US9423831B2 (en) Portable electronic device and method operating same
US8575537B2 (en) Compact multi-direction proximity sensor device and method
US8274037B2 (en) Automatic calibration technique for time of flight (TOF) transceivers
TW201104537A (en) Apparatus and method for optical proximity sensing and touch input control
CN105629213A (zh) 多传感器接近度感测
CN106462685A (zh) 可穿戴电子设备及保护其的方法
US20160259421A1 (en) Devices, systems, and methods for controlling devices using gestures
US20120092254A1 (en) Proximity sensor with motion detection
TW201717834A (zh) 面加工設備及基座
KR20130052554A (ko) 휴대용 전자 장치
US20150185359A1 (en) Photoelectric switch for detection of an object and method for operating the same
CN110888178B (zh) 接近检测电路及终端设备
US8536531B2 (en) Proximity sensing apparatus and sensing method thereof
CN107665081B (zh) 显示屏状态控制方法、装置、存储介质及终端
CN108008399A (zh) 一种手持激光测距装置及其方法
CN114910925A (zh) 距离传感器组件、距离检测方法、终端设备及存储介质
EP3367130A1 (en) Integration of depth map device for adaptive lighting control
TW201929775A (zh) 光電式心率偵測系統
US8422336B2 (en) Operating method for an ultra-sound sensor
JP5826232B2 (ja) 光電センサ及びセンサ設定の変更方法
TW202016717A (zh) 手勢控制裝置
Ge et al. Modeling and simulation of temperature-induced luminous intensity for fiber-optic photoelectric sensors
JP2016218064A (ja) 近接覚センサ

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20151209

Termination date: 20211211

CF01 Termination of patent right due to non-payment of annual fee