CN101632029A - 增强的单一传感器位置检测 - Google Patents

增强的单一传感器位置检测 Download PDF

Info

Publication number
CN101632029A
CN101632029A CN200880006044A CN200880006044A CN101632029A CN 101632029 A CN101632029 A CN 101632029A CN 200880006044 A CN200880006044 A CN 200880006044A CN 200880006044 A CN200880006044 A CN 200880006044A CN 101632029 A CN101632029 A CN 101632029A
Authority
CN
China
Prior art keywords
signal
sensor
plane
transmitter
secondary signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN200880006044A
Other languages
English (en)
Inventor
阿蒂德·沙梅伊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
GESTURETEK Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GESTURETEK Inc filed Critical GESTURETEK Inc
Publication of CN101632029A publication Critical patent/CN101632029A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/20Detecting, e.g. by using light barriers using multiple transmitters or receivers

Landscapes

  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Geophysics (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Switches Operated By Changes In Physical Conditions (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

增强的单一传感器位置检测,其中确定对象的位置。在一些实现中,从第一发射器发射第一信号,并从第二发射器发射第二信号。使用传感器监视平面,并在从该对象反射该第一信号和该第二信号中的每一个之后,在该传感器处接收该第一信号和该第二信号。基于所述第一和第二信号生成应答信号,并处理该应答信号,以确定对象在平面中的位置。

Description

增强的单一传感器位置检测
相关申请的交叉引用
本申请要求2007年2月23日提交的美国临时申请第60/891404号的权益,为了所有目的通过引用而由此合并其内容。
技术领域
本公开一般涉及位置检测,并且至少一个具体实现涉及使用至少一个传感器来标识多维空间中的对象的位置和/或跟踪多维空间中的对象。
背景技术
在计算机视觉的领域中,存在不同的技术,用于在二维或三维空间中发现对象的位置和跟踪对象。估计二维或三维空间中的对象的位置典型地需要一对传感器。示范传感器可包括按照已知为立体视觉的安排的相机。尽管立体视觉是用于检测二维或三维空间中的对象的位置的一个示例传统技术,但是具有足够高分辨率的相机很贵。此外,由于很多失真,使得经常很难估计位置检测的精度。
发明内容
本公开针对用于确定对象位置的处理和系统的各种实现。在一些实现中,从第一发射器发射第一信号,并从第二发射器发射第二信号。使用传感器监视平面,并在从对象反射(reflect off)第一信号和第二信号中的每一个之后,在传感器处接收第一信号和第二信号。基于第一和第二信号生成应答信号,并处理该应答信号以确定该对象在平面中的位置。
在一个特征中,可基于该应答信号来确定第一和第二几何形状,并可基于这些几何形状的交叉点来确定对象的位置。在另一特征中,确定第一信号的第一飞行时间和第二信号的第二飞行时间,并基于第一和第二飞行时间来确定对象的位置。在其他特征中,提供用于聚集所述第一和第二信号的通道。在一个实现中,通道可位于传感器和平面之间。在另一实现中,通道可位于所述第一和第二发射器中的至少一个与该平面之间。
在其他特征中,该第一信号可包括第一频率,该第二信号可包括第二频率,并且该传感器可包括对所述第一和第二信号进行采样的采样率。该采样率可包括大于所述第一和第二频率两者的采样频率。在一个实现中,采样频率可以比第一或第二频率两者大至少十倍。在另一特征中,传感器可位于所述第一和第二发射器之间。在另一特征中,可沿着公共轴对齐所述第一和第二发射器、以及传感器。
本公开还描述了用于跟踪对象的移动的处理和系统的各种实现。在一些实现中,从第一发射器发射第一信号,并从第二发射器发射第二信号。使用第一传感器监视第一平面,并在该第一平面中的该对象反射该第一信号和该第二信号中的每一个之后,在该第一传感器处可接收该第一信号和该第二信号。可基于所述第一和第二信号生成第一应答信号,并可处理该第一应答信号,以在第一时间确定对象的第一位置。
在另一特征中,可处理该第一应答信号,以确定对象的第二位置,并可基于该第一位置和该第二位置来确定对象的移动。在另一特征中,可处理该第一应答信号,以在第二时间确定对象的第二位置,并可基于所述第一和第二位置以及所述第一和第二时间,来确定对象的速度。
在其他特征中,可使用第二传感器监视第二平面,并可在该第二平面中的该对象反射该第一信号和该第二信号中的每一个之后,在该第二传感器处可接收该第一信号和该第二信号。可基于所述第一和第二信号生成第二应答信号,并可处理该第二应答信号,以在第二时间确定对象的第二位置。在一个实现中,可基于所述第一和第二位置,来确定所述第一和第二平面之间的对象的移动。在另一实现中,可基于所述第一和第二位置以及第一和第二时间,来确定所述第一和第二平面之间的对象的速度。
在更一般的实现中,一种计算机实现的处理包括基于在单一传感器处接收到先前在平面中发射并从对象反射的不同频率信号,而输出自动确定的对象在该平面中的座标。
在另一一般实现中,一种计算机可读介质可用有形地实施在信息载体上的计算机程序产品来编码。该计算机程序产品可促使数据处理设备执行根据本公开的操作。在一些实现中,该数据处理设备可促使第一发射器发射第一信号,并可促使第二发射器发射第二信号。该数据处理设备可命令传感器监视平面,并可从该传感器接收应答信号,在从该对象反射该第一信号和该第二信号中的每一个之后,该应答信号基于所述第一和该第二信号。该数据处理器设备可处理该应答信号,以确定对象在平面中的位置。
在附图和下面的描述中阐明了一个或多个实现的细节。根据这些描述和图,其他特征和优点将显而易见。
附图说明
图1图示了根据一个一般实现的包括两个发射器、传感器和处理器的位置检测系统。
图2A和2B描绘了位置检测系统的示范安排。
图3A到3C图示了示范发射图案和采样率。
图4A图示了向单一传感器反射两个发射器的辐射(radiation)的二维平面上的对象。
图4B图示了为了调整显示器上的光标的移动而监视的二维平面上的对象的移动。
图5图示了发射的辐射的接收的信号图。
图6A到6C描绘了对象的位置的几何估计。
图7描绘了示范对象跟踪系统的侧视图。
图8描绘了图示了可根据本公开执行的示范处理的流程图。
图9是可处理计算机可读介质的示范计算机系统的功能性框图。
具体实施方式
根据一个一般实现,提供了一种单一传感器位置检测系统,其使用电磁辐射、光、或超声波的多个源来精确地检测对象的位置。例如,可使用该系统,来输出基于在单一传感器处接收到在平面中先前发射并由平面中的对象反射的不同频率信号而自动确定的该对象的座标。
现在参考图1,位置检测系统10包括两个发射器12a、12b、和单一传感器14。发射器12a、12b位于传感器14的两侧,并可沿着公共轴A对齐。发射器12a与传感器14隔开距离xa,而发射器12b与传感器14隔开距离xb。在各种配置中,xa和xb已知,并且两者可相等或不等,并可位于传感器14的相同侧或相对侧。
位置检测系统10还包括与发射器12a、12b、和传感器14通信的模块16。模块16调整发射器12a、12b的操作,并接收来自传感器14的应答信号。模块16可处理该应答信号,以确定多维空间中的对象的位置,如这里更详细地描述的那样。示范多维空间包括意欲计算对象在其上的位置的二维平面或表面18。可由模块16生成可用输出信号,该信号可输出到控制模块17。可作为计算机的控制模块17可基于输出信号来调整例如显示器的另一组件的操作。下面针对图4A和4B来详细讨论这样的控制的非限制性示例。
在操作中,发射器12a、12b发射穿过表面18的信号。该信号可包括但不限于电磁辐射、光(例如线性激光)、和/或超声波。在一个实现中,可使用线性激光类型发射器,来产生与表面18平行的一薄层激光。在另一实现中,发射器12a、12b中的每一个可在包括但不限于圆锥体的三维(3D)体积中发射信号。该信号由至少部分位于平面18上的对象反射。反射的信号由传感器14检测,传感器14基于该信号生成应答信号。
现在参考图2A和2B,发射的信号和/或反射的信号可被聚焦,以一般在平面Q内辐射。特别参考图2A,通道20可位于表面18与发射器12a和/或12b之间。可安排通道20以将发射的信号基本聚焦在平面Q中。更具体地,通道20可阻止许多方向的信号,除了基本上在平面Q之内或与平面Q平行、并基本上与表面18平行的薄层之外。特别参考图2B,通道20可位于表面18与传感器14之间,并可阻止许多方向的反射的辐射,除了基本上在平面Q之内或与平面Q平行、并基本上与表面18平行的薄层之外。在其他实现中,可实现多个通道。例如,通道可位于表面18和传感器14之间、以及位于表面18和发射器12a和/或12b之间。
图3A和3B图示了两个发射器的示范信号图案。图3A的示范信号图案包括具有第一频率的间歇脉冲的方波图案。图3B的示范信号图案包括具有第二频率的间歇脉冲的方波图案。尽管图3A和3B的示范信号图案包括方波图案,但是可预期的是,可实现其他波型、波长、和/或频率。在该实现中,传感器14可并发地感测两个发射器12a、12b发射的信号,所述两个发射器12a、12b中的每一个按照具有特定频率的特定图案进行发射。例如,发射器12a可发射具有图3A所示图案的信号,而发射器12b可发射具有图3B所示图案的另一信号。在其他实现中,所发射的信号图案可同步或可不同步。
图3C图示了传感器14的示范采样率。在一个一般实现中,传感器14的采样率具有比发射器12a或发射器12b的间歇脉冲频率更大的频率。作为非限制性示例,发射器12a、12b中的一个或多个可发射频率300GHz或更高的信号,而传感器14可按照频率3000GHz或更高进行采样。因此,在该非限制性示例中,传感器14按照可大致等于发射器12a、12b的发射频率的十倍的频率来进行采样。按照这种方式,传感器14具有足够的分辨率,以更精确地检测发射器12a、12b的波型的改变。事实上,如果传感器具有高频率(例如大大高于发射机的频率的频率),则计算精度增加。发射器和传感器的适当频率可取决于所选择的波型的类型。传感器14对接收的波进行采样,并生成应答信号,如下面更详细地解释的那样。
现在参考图4A和5,将详细描述位置检测系统10的操作。图4A是图1的位置检测系统10的平面图,并图示了反射发射器的信号的表面18上的对象30。发射器12a、12b发射相应的信号32、34,并由对象30反射以提供反射信号36。反射信号36包括复合信号,该复合信号包括反射信号32’和反射信号34’。图5图示了相应的信号32、34、36的波型。时间t1指示发射器12a发射信号32与传感器14接收反射信号32’的时刻之间的时间。因此,时间t1包括信号32从发射器12a行进、撞到对象30、并行进到传感器14的时间。以高频率采样,传感器14可测量该飞行时间,其中增加的采样率对应于增加的分辨率、以及由此改善的测量时间的精度。时间t2指示发射器12b发射信号34与传感器14接收反射信号34’的时刻之间的时间。因此,时间t2包括信号34从发射器12b行进、撞到对象30、并行进到传感器14的时间。结果,单独确定每一信号32、34的激活时刻。
可基于时间t1和t2来确定对象30的位置。更具体地,给定时间t1和t2,基于信号的类型来计算每一信号已在空间中行进的距离。例如,如果提供该信号作为光,则如下面的方程(1)来表达给定时间的距离,其中v代表光速:
d=v·t    (1)
一般来说,v代表特定信号的传播速度或速率,无论信号包括电磁辐射、光还是超声波。
现在参考图4A和4B,可使用位置检测系统10来跟踪对象30在表面18上的移动。图4A的平面图图示了表面18上的第一位置处的对象30,而图4B的平面图图示了表面18上的第二位置处的对象30。发射器12a、12b发射相应信号32、34,当其从图4A的第一位置移动到图4B的第二位置时由对象30反射,提供反射信号36。可对反射信号36进行处理,以确定对象30的移动的特性,其可包括但不限于当对象30在表面18上行进时的对象30的第一位置、第二位置、行进的路径、和/或速度。可在各种应用中使用该信息。作为非限制性示例,移动信息可由模块16输出,并输入到控制显示器152的显示控制模块150。更具体地,显示控制模块150可调整显示器152以显示光标154(见图4B)。可基于移动信息来调整光标154在显示器152上的移动,使得光标154的移动对应于对象30的移动。
现在参考图6A-6C,可使用几何形状(在该情况下,椭圆形40、42)来确定对象30的位置。信号32从发射器12a行进到传感器14的距离d1等于图6A的距离l1、l2之和。信号34从发射器12b行进到传感器14的距离d2等于图6A的距离l2、l3之和。
椭圆形40、42在点P和P’交叉。然而,作为这些点之一的点P指示对象30的实际位置。通过形成这些椭圆形的分析方程,可确定对象30的位置。这里,可假设发射器12a、12b和传感器14位于直线上,尽管在替代实现中,发射器12a、12b和/或传感器14没有被彼此相对地线性定位。该方案也可用于发现相对于传感器14的位置的对象30的位置。换言之,传感器14可被看作笛卡尔平面的原点。此外,穿过发射器12a、12b和传感器14的线A可被看作笛卡尔平面的x轴。
具体参考图6B,发射器12a和传感器14分别定义椭圆形40的焦点F1、F2。焦点F2(即传感器14)处于笛卡尔平面的原点,并由此包括(x,y)座标(0,0)。F1是(x,y)座标(-2c,0),其中c>0。可如下面的方程(2)到(4)所表达的那样使用r1和r2的值。
在方程(2)到(4)中,r1和r2是点P到焦点F1、F2的相应距离。2a是通过飞行时间测量的距离,其中2a=d1。下面的方程(5)到(7)基于方程(2)到(4):
r1 2=(x+2c)2+y2          (2)
r2 2=x2+y2               (3)
r 1 + r 2 = ( x + 2 c ) 2 + y 2 + x 2 + y 2 = 2 a - - - ( 4 )
在方程(2)到(4)中,r1和r2是点P到焦点F1、F2的相应距离。2a是通过飞行时间测量的距离,其中2a=d1。下面的方程(5)到(7)基于方程(2)到(4):
( x + 2 c ) 2 + y 2 = 4 a 2 + x 2 + y 2 - 4 a x 2 + y 2 - - - ( 5 )
x 2 + y 2 = a - c 2 a - c a x - - - ( 6 )
y 2 = ( c 2 a 2 - 1 ) x 2 + ( 2 c 3 a 2 - 2 c ) x + c 4 a 2 + a 2 - 2 c 2 - - - ( 7 )
具体参考图6C,传感器14和发射器12b定义椭圆形42的相应焦点F2、F3。因此,椭圆形40和椭圆形42共享公共焦点。而且,焦点F2(即,传感器14)处于笛卡尔平面的原点,并由此包括(x,y)座标(0,0)。F3是(x,y)座标(0,2d),其中d>0。可如下面的方程(8)到(10)所表达的那样按照各种方式使用r2和r3的值。
r2 2=x2+y2                (8)
r3 2=(x-2d)2+y2           (9)
r 2 + r 3 = ( x - 2 d ) 2 + y 2 + x 2 + y 2 = 2 b - - - ( 10 )
在方程(8)到(10)中,2b是通过从发射器12b到传感器14的飞行时间测量的距离。下面的方程(11)基于方程(8)到(10):
y 2 = ( d 2 b 2 - 1 ) x 2 + ( 2 d - 2 d 3 b 2 ) x + b 2 - 2 d 2 + d 4 b 2 - - - ( 11 )
更具体地,如向方程(2)到(4)应用计算得到方程(7)一样,通过向方程(8)到(10)应用相同计算来确定方程(11)。方程(7)和(11)代表其中存在两个未知数的两个方程。下面的方程(12)代表包括方程(7)和方程(11)的方程组:
y 2 = ( c 2 a 2 - 1 ) x 2 + ( 2 c 3 d 2 - 2 c ) x + c 4 a 2 + a 2 - 2 c 2 y 2 = ( d 2 b 2 - 1 ) x 2 + ( 2 d - 2 d 3 b 2 ) x + d 4 b 2 + b 2 - 2 d 2 - - - ( 12 )
求解方程(12)代表的方程组导致确定椭圆形40、42的交叉点(即,图6A中的P和P’)的值。因为x轴已被定义为穿过发射器12a、12b和传感器14的直线A,并且交叉点相对于x轴对称,所以可通过分析这些点的y座标的符号来区分P和P’。
在其他实现中,位置检测系统可包括第三发射器。在该实现中,可确定3D空间中的对象的位置。在一个示例中,第三发射器不与其他两个发射器线性放置或定位。在3D空间中,实现扁长之球体(即,椭圆体),而不是上面针对图6A-6C描述的2D椭圆形。每一椭圆体可代表以下空间中的所有点,其中到两个焦点的距离是通过飞行时间技术测量的恒定值。为了发现3D空间中的对象的位置,使用用于计算3D空间中的多个椭圆体的交叉点的算法,来确定这三个椭圆体的交叉点。
在一些实现中,可使用位置检测系统10来确定对象在平面上的位置或座标。在其他实现中,位置检测系统10可确定对象在平面中的位置,以及跟踪对象在平面上的移动。例如,位置检测系统10可间断地确定对象的位置。该位置检测系统采样或确定位置的速率可改变。采样率越高,提供越好的移动分辨率。通过间断采样对象在平面上的位置,可生成多个位置值。可对位置值进行彼此比较以确定对象的移动路径、以及对象移动的速率(即,对象的速度)。
现在参考图7,位置检测系统50的另一实现分别包括第一和第二传感器52、54以及发射器56、58。图7描绘了位置检测系统50的侧视图。因此,尽管位置检测系统50包括两个发射器56、58,但是仅一个发射器可见。相应通道60、62可位于传感器52、54的前面。按照这种方式,传感器52、54可从相应监视平面R和S接收反射的信号。更具体地,发射器56、58可发射信号,如上面详细描述的那样。发射的信号可从相应监视平面R、S内的或穿过相应监视平面R、S的对象64反射。
在位置检测系统50的操作的一个示例中,当对象64穿过监视平面R时。来自发射器56、58的信号可从对象64反射,并且反射的信号可由传感器52接收。禁止传感器54接收通过通道62反射的信号。结果,可确定监视平面R内的对象64的位置。当对象64继续并穿过监视平面S时,来自发射器56、58的信号可从对象64反射,并且反射的信号可由传感器54接收。禁止传感器52接收通过通道60反射的信号。结果,可确定监视平面S内的对象64的位置。
通过进一步处理传感器52、54生成的应答信号,可跟踪对象64的移动。更具体地,可通过比较在每一监视平面R、S中检测对象64的时间,来确定对象64行进的速度。例如,监视平面R、S之间的距离可以是已知的固定值。给定监视平面R、S之间的距离以及在每一监视平面R、S中检测对象64的时间,可针对图7来确定对象64的垂直速度。此外,可通过比较监视平面R中的对象64的位置与监视平面S中的对象64的位置,来确定对象64行进所沿着的路径。尽管图7的实现包括一组发射机和两个传感器来提供两个监视平面(即,每个监视平面一个传感器),但是其他实现可包括附加监视平面,并可包括附加传感器和/或发射器,来建立附加监视平面。
继续参考图7,可实现监视平面R以检测在例如触摸屏的表面上的例如手指的对象的盘旋(hovering)。可实现监视平面S以确定对象是否实际接触到该表面。例如,当触摸屏用户判断选择触摸屏上的哪个选项时,该用户可在触摸屏上盘旋他/她的手指。可使用监视平面R来监视该盘旋动作。当用户进行选择并实际触摸到屏幕时,可使用监视平面S来确定实际接触的位置。
现在参考图8,将描述可根据本公开执行的示范处理。更具体地,可执行该示范处理,来确定对象在包括但不限于2D平面的多维空间中的位置。在步骤800中,从第一发射器发射第一信号。在步骤802中,在第一信号的发射之前、之后或并发的时间处,从第二发射器发射第二信号。在步骤804中,使用传感器来监视平面。在步骤806中,在对象反射第一信号和第二信号中的每一个之后,在传感器处接收第一信号和第二信号。在步骤808中,基于第一和第二信号生成应答信号,并在步骤810中处理该应答信号以确定对象在平面中的位置。可理解的是,可重复步骤800到810,来连续确定对象的位置。在其他实现中,示范步骤还可包括基于应答信号确定第一和第二几何形状,并基于几何形状的交叉点来确定对象的位置。在其他实现中,示范步骤还可包括确定第一信号的第一飞行时间以及第二信号的第二飞行时间,并基于所述第一和第二飞行时间确定对象的位置。
已描述了位置检测系统的实现,其中可使用两个信号源和单一传感器来确定对象的位置。位置检测技术基于计算由相应源发射并由单一传感器接收的信号的飞行时间。通过形成两个单独几何形状的方程、本示例中的椭圆形、以及发现这些椭圆形的交叉点,可计算2D监视平面中的对象的位置。在其他实现中,可提供多个监视平面,它们彼此平行地延伸,用于跟踪移动对象的路径和/或确定移动对象的速度。在其他实现中,可配置该技术的3D版本,来确定对象在3D空间中的位置,这也已经进行了描述。
这里描述的位置检测系统的实现可用于构成交互系统,其确定和/或跟踪包括但不限于手或手指的对象的位置。一般来说,位置检测系统的实现可用于构成用于各种应用的位置检测器材。例如,位置检测系统的实现可在触摸屏应用中使用,以例如当用户通过触摸屏幕来选择选项时确定手指或其他指针的位置,或者用于跟踪指针在屏幕上的移动以监视屏幕上的书写和/或绘画。在其他示例中,位置检测系统的实现可用于娱乐应用。在一个示范应用中,可通过多个监视平面来跟踪高尔夫俱乐部的头(head)的运动和/或高尔夫球的飞行路径,以帮助改善高尔夫球员的击球,或作为视频游戏系统的一部分。在另一示范应用中,可在监视平面中跟踪画笔的运动,以提供绘画和/或书写的数字拷贝。
一般来说,本公开的实现可包括例如处理、装置、或用于执行处理的装置。例如,实现可包括配置为执行与确定对象位置相关的一个或多个处理的一个或多个装置,如上面详细描述的那样。装置可包括例如分立或集成硬件、固件、和软件。装置可包括例如计算装置或另一计算或处理装置,特别是如果被编程为执行一个或多个描述的处理或其变型。这样的计算或处理装置可包括例如处理器、集成电路、可编程逻辑装置、个人计算机、个人数字助理、游戏装置、手机、计算器、和包括软件应用的装置。
实现还可在包括具有用于执行确定对象位置的一个或多个处理的指令的一个或多个计算机可读介质的装置中实施。计算机可读介质可包括例如编码或传送指令的储存装置、存储器、和格式化电磁波。计算机可读介质还可包括例如各种非易失性和/或易失性存储器结构,例如硬盘、闪存、随机存取存储器、只读存储器、和致密盘。指令可例如在硬件、固件、软件中,以及在电磁波中。
计算装置可代表编程为执行位置检测计算的计算装置的实现,如上面详细描述的那样,并且储存装置可代表存储用于执行所描述的对象位置检测的实现的指令的计算机可读介质。
现在参考图9,可通过计算机系统和计算机程序来实现本公开的各种实现。更具体地,本公开的实现可提供在用例如软件的计算机程序产品编码的计算机可读介质中。可处理该计算机程序产品,以促使数据处理设备执行本公开的一个或多个实现。图9图示了示范计算机网络910,该网络包括多个计算机912、和通过网络916彼此通信的一个或多个服务器914。网络916可包括但不限于局域网(LAN)、广域网(WAN)、和/或因特网。示范计算机912包括显示器918、例如键盘和/或鼠标的输入装置920、存储器922、数据端口924、和中央处理单元(CPU)926。显示器918可包括根据本公开监视的触摸屏,并由此也可充当输入装置。执行本公开的处理的一个或多个实现的计算机程序产品(例如,软件程序)可驻留在一个或多个计算机912上和/或服务器914上。
计算机程序产品可促使例如CPU 926的数据处理设备执行根据本公开的实现的操作。例如,计算机程序产品可使得数据处理设备促使第一发射器发射第一信号,并促使第二发射器发射第二信号。数据处理设备可命令传感器监视例如显示器918的屏幕的平面,并可从传感器接收应答信号。该应答信号可基于在对象反射第一信号和第二信号中的每一个之后的第一和第二信号。数据处理设备可处理应答信号,以确定对象在平面中的位置。
已描述了多个实现。但是,将理解的是,可进行各种修改。因此,其他实现处于本公开的范围之内。

Claims (22)

1.一种用于确定对象的位置的系统,包括:
第一信号发射器,用于选择性地发射第一信号;
第二信号发射器,用于选择性地发射第二信号;
传感器,用于监视平面,在该对象反射第一信号和第二信号中的每一个之后接收第一信号和第二信号,并基于所述第一和第二信号生成应答信号;和
处理器,被配置为处理该应答信号,并基于该应答信号确定对象在该平面中的位置。
2.根据权利要求1的系统,其中该处理器还被配置为基于该应答信号确定第一和第二几何形状,并基于所述几何形状的交叉点来确定对象的位置。
3.根据权利要求1的系统,其中该处理器还被配置为确定第一信号的第一飞行时间和第二信号的第二飞行时间,并基于所述第一和第二飞行时间来确定对象的位置。
4.根据权利要求1的系统,还包括用于聚集所述第一和第二信号的通道。
5.根据权利要求1的系统,其中该第一信号包括第一频率,该第二信号包括第二频率,并且该传感器包括对所述第一和第二信号进行采样的采样率。
6.根据权利要求5的系统,其中该采样率包括大于所述第一和第二频率两者的采样频率。
7.根据权利要求1的系统,其中所述第一和第二发射器、以及该传感器沿着公共轴对齐。
8.一种确定对象的位置的方法,包括:
从第一发射器发射第一信号;
从第二发射器发射第二信号;
使用传感器监视平面;
在从该对象反射该第一信号和该第二信号中的每一个之后,在该传感器处接收该第一信号和该第二信号;
基于所述第一和第二信号生成应答信号;和
处理该应答信号,以确定对象在平面中的位置。
9.根据权利要求8的方法,还包括:
基于该应答信号确定第一和第二几何形状;和
基于所述几何形状的交叉点来确定对象的位置。
10.根据权利要求8的方法,还包括:
确定第一信号的第一飞行时间和第二信号的第二飞行时间;和
基于所述第一和第二飞行时间来确定对象的位置。
11.根据权利要求8的方法,还包括提供用于聚集所述第一和第二信号的通道。
12.根据权利要求8的方法,其中该第一信号包括第一频率,该第二信号包括第二频率,并且该传感器包括对所述第一和第二信号进行采样的采样率。
13.根据权利要求12的方法,其中该采样率包括大于所述第一和第二频率中的任一个的采样频率。
14.根据权利要求8的方法,还包括沿着公共轴对齐所述第一和第二发射器、以及该传感器。
15.一种用于跟踪对象的移动的方法,包括:
从第一发射器发射第一信号;
从第二发射器发射第二信号;
使用第一传感器监视第一平面;
在从该第一平面中的该对象反射该第一信号和该第二信号中的每一个之后,在该第一传感器处接收该第一信号和该第二信号;
基于所述第一和第二信号生成第一应答信号;和
处理该第一应答信号,以在第一时间确定对象的第一位置。
16.根据权利要求15的方法,还包括:
处理该第一应答信号,以确定对象的第二位置;和
基于该第一位置和该第二位置来确定对象的移动。
17.根据权利要求15的方法,还包括:
处理该第一应答信号,以在第二时间确定该对象的第二位置;和
基于所述第一和第二位置以及所述第一和第二时间,来确定对象的速度。
18.根据权利要求15的方法,还包括:
使用第二传感器监视第二平面;
在从该第二平面中的该对象反射该第一信号和该第二信号中的每一个之后,在该第二传感器处接收该第一信号和该第二信号;
基于所述第一和第二信号生成第二应答信号;和
处理该第二应答信号,以在第二时间确定对象的第二位置。
19.根据权利要求18的方法,还包括:基于所述第一和第二位置,来确定所述第一和第二平面之间的对象的移动。
20.根据权利要求18的方法,还包括:基于所述第一和第二位置以及第一和第二时间,来确定所述第一和第二平面之间的对象的速度。
21.一种计算机实现的方法,包括基于在单一传感器处接收到先前在平面中发射并从对象反射的不同频率信号,而输出自动确定的对象在该平面中的座标。
22.一种计算机可读介质,用有形地实施在信息载体上的计算机程序产品编码,该计算机程序产品促使数据处理设备执行以下操作,包括:
促使第一发射器发射第一信号;
促使第二发射器发射第二信号;
命令传感器监视平面;
从该传感器接收应答信号,该应答信号基于在从该对象反射该第一信号和该第二信号中的每一个之后的所述第一和该第二信号;以及
处理该应答信号,以确定对象在平面中的位置。
CN200880006044A 2007-02-23 2008-02-22 增强的单一传感器位置检测 Pending CN101632029A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US89140407P 2007-02-23 2007-02-23
US60/891,404 2007-02-23

Publications (1)

Publication Number Publication Date
CN101632029A true CN101632029A (zh) 2010-01-20

Family

ID=39710767

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200880006044A Pending CN101632029A (zh) 2007-02-23 2008-02-22 增强的单一传感器位置检测

Country Status (5)

Country Link
US (1) US20080208517A1 (zh)
EP (1) EP2115497A2 (zh)
JP (1) JP2010519552A (zh)
CN (1) CN101632029A (zh)
WO (1) WO2008103919A2 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103988487A (zh) * 2011-11-23 2014-08-13 高通股份有限公司 基于超声波运动检测的声学回声消除
CN106794373A (zh) * 2014-10-08 2017-05-31 精工爱普生株式会社 运动测量装置、运动测量方法以及运动测量程序
CN107690611A (zh) * 2015-05-27 2018-02-13 三星电子株式会社 触摸识别设备及其控制方法

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US8407725B2 (en) * 2007-04-24 2013-03-26 Oblong Industries, Inc. Proteins, pools, and slawx in processing environments
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US20090126792A1 (en) * 2007-11-16 2009-05-21 Qualcomm Incorporated Thin film solar concentrator/collector
US8941631B2 (en) 2007-11-16 2015-01-27 Qualcomm Mems Technologies, Inc. Simultaneous light collection and illumination on an active display
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
EP2304527A4 (en) * 2008-06-18 2013-03-27 Oblong Ind Inc GESTIK BASED CONTROL SYSTEM FOR VEHICLE INTERFACES
TWI382551B (zh) * 2008-11-06 2013-01-11 Ind Tech Res Inst 太陽能集光模組
US10086262B1 (en) 2008-11-12 2018-10-02 David G. Capper Video motion capture for wireless gaming
US9586135B1 (en) 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US9383814B1 (en) 2008-11-12 2016-07-05 David G. Capper Plug and play wireless video game
US8517834B2 (en) * 2009-02-17 2013-08-27 Softkinetic Studios Sa Computer videogame system with body position detector that requires user to assume various body positions
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US20110187678A1 (en) * 2010-01-29 2011-08-04 Tyco Electronics Corporation Touch system using optical components to image multiple fields of view on an image sensor
WO2011146503A1 (en) * 2010-05-17 2011-11-24 Ultra-Scan Corporation Control system and method using an ultrasonic area array
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
JP6410614B2 (ja) * 2015-01-09 2018-10-24 三菱電機株式会社 障害物検出装置および障害物検出方法
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4103278A (en) * 1976-12-06 1978-07-25 Kanje Satake Obstacle detecting apparatus using ultrasonic waves
US4291825A (en) * 1979-04-19 1981-09-29 Baldwin-Korthe Web Controls, Inc. Web guiding system
US4639878A (en) * 1985-06-04 1987-01-27 Gmf Robotics Corporation Method and system for automatically determining the position and attitude of an object
US4697089A (en) * 1986-06-18 1987-09-29 Tegal Corporation Dual wavelength sensor which employs object as part of a corner reflector
US5367373A (en) * 1992-11-19 1994-11-22 Board Of Regents, The University Of Texas System Noncontact position measurement systems using optical sensors
JP2569279B2 (ja) * 1994-08-01 1997-01-08 コナミ株式会社 移動体の非接触式位置検出装置
US20020100884A1 (en) * 2001-01-29 2002-08-01 Maddock Brian L.W. Digital 3-D model production method and apparatus
US7094205B2 (en) * 2001-04-06 2006-08-22 Alfred E. Mann Institute For Biomedical Engineering At The University Of Southern California High-resolution 3D ultrasonic transmission imaging
US7862508B2 (en) * 2004-09-20 2011-01-04 Innervision Medical Technologies Inc. Systems and methods for ultrasound imaging
US7199750B2 (en) * 2005-04-22 2007-04-03 Bbn Technologies Corp. Real-time multistatic radar signal processing system and method
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103988487A (zh) * 2011-11-23 2014-08-13 高通股份有限公司 基于超声波运动检测的声学回声消除
CN103988487B (zh) * 2011-11-23 2016-08-24 高通股份有限公司 基于超声波运动检测的声学回声消除
CN106794373A (zh) * 2014-10-08 2017-05-31 精工爱普生株式会社 运动测量装置、运动测量方法以及运动测量程序
CN107690611A (zh) * 2015-05-27 2018-02-13 三星电子株式会社 触摸识别设备及其控制方法
CN107690611B (zh) * 2015-05-27 2020-08-04 三星电子株式会社 触摸识别设备及其控制方法

Also Published As

Publication number Publication date
US20080208517A1 (en) 2008-08-28
EP2115497A2 (en) 2009-11-11
JP2010519552A (ja) 2010-06-03
WO2008103919A2 (en) 2008-08-28
WO2008103919A3 (en) 2008-10-23

Similar Documents

Publication Publication Date Title
CN101632029A (zh) 增强的单一传感器位置检测
US11099688B2 (en) Eraser for touch displays
JP6839778B2 (ja) ユーザー基準空間座標系上におけるジェスチャー検出方法および装置
US9791976B2 (en) Instrument detection with an optical touch sensitive device
JP5615270B2 (ja) 物体の位置決定
JP2010505182A (ja) 赤外線タッチスクリーンの打点の座標認識方法及び接点面積認識方法
CN101206539A (zh) 在3d空间中输入信息的信息输入装置和方法以及介质
Liu et al. An acoustic multi-touch sensing method using amplitude disturbed ultrasonic wave diffraction patterns
CN104035552A (zh) 三维操作方法和三维操作装置
CN106597462A (zh) 测距方法及测距装置
CN109952554B (zh) 有源触控笔速度校正
WO2008048036A1 (en) Method and apparatus for tracking 3-dimensional position of the object
EP2828725A1 (en) User input system
Duff et al. Autocalibration Algorithm for Ultrasonic Location Systems.
WO2019070464A1 (en) SELECTIVE SCAN FOR TOUCH DISPLAY DEVICE
CN107250956B (zh) 用于双节点感测的方法和系统
US10375501B2 (en) Method and device for quickly determining location-dependent pulse responses in signal transmission from or into a spatial volume
CN104122584A (zh) 根据地震数据确定方向性的方法及装置
KR101070378B1 (ko) 평면상에서 이동하는 물체의 초기 위치 및 속도 측정 장치 및 방법
Sohn et al. SonarPen: an ultrasonic pointing device for an interactive TV
CN106796457A (zh) 精确地定位仪器
JP6343095B2 (ja) ドップラー効果に基づくタッチ識別装置、方法、及びタッチスクリーン
Saez-Mingorance et al. Object Positioning Algorithm Based on Multidimensional Scaling and Optimization for Synthetic Gesture Data Generation
Shams et al. An algorithm for efficient computation of spatial impulse response on the GPU with application in ultrasound simulation
Pan et al. Object localisation through clustering unreliable ultrasonic range sensors

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: QUALCOMM INC.

Free format text: FORMER OWNER: GESTURE TEK INC.

Effective date: 20120206

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20120206

Address after: American California

Applicant after: Qualcomm Inc.

Address before: American California

Applicant before: Gesturetek Inc.

C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20100120