CN103782131A - 能够非接触操作的测量设备以及用于这种测量设备的控制方法 - Google Patents

能够非接触操作的测量设备以及用于这种测量设备的控制方法 Download PDF

Info

Publication number
CN103782131A
CN103782131A CN201280037038.5A CN201280037038A CN103782131A CN 103782131 A CN103782131 A CN 103782131A CN 201280037038 A CN201280037038 A CN 201280037038A CN 103782131 A CN103782131 A CN 103782131A
Authority
CN
China
Prior art keywords
user
eyes
observation
eye
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280037038.5A
Other languages
English (en)
Other versions
CN103782131B (zh
Inventor
伯恩哈德·麦茨勒
S·西贝尔
W·莱恩哈特
H-M·佐格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leica Geosystems AG
Original Assignee
Leica Geosystems AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Geosystems AG filed Critical Leica Geosystems AG
Publication of CN103782131A publication Critical patent/CN103782131A/zh
Application granted granted Critical
Publication of CN103782131B publication Critical patent/CN103782131B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C1/00Measuring angles
    • G01C1/02Theodolites
    • G01C1/04Theodolites combined with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明涉及用于确定目标点的位置的大地测量设备(1),特别是经纬仪或者全站仪,该大地测量设备(1)包括瞄准装置(5),特别是望远镜,其中该瞄准装置(5)能够出于改变所述瞄准装置的对准的目的而相对于所述测量设备(1)的底座(11)以机动的方式枢转,并具有限定光学瞄准轴(6)的至少一个物镜单元(21),角度测量功能,其用于高精度检测所述瞄准轴(6)的方向,以及估计装置,其用于对所述瞄准装置(5)的方向进行数据存储和控制,其特征在于:眼睛图像获取装置(4,4’),其被设计为记录用户眼睛(3)的眼睛图像,并且,所述估计装置被设计为执行依赖于观察方向的自动瞄准功能,使得在该功能开始后自动执行以下步骤:记录至少一幅眼睛图像,借助基于所述至少一幅眼睛图像的图像处理来确定所述用户眼睛(3)的观察方向或者适于得出所述用户眼睛(3)的观察方向的眼睛信息,以及根据所述用户眼睛(3)的所述观察方向或根据所述眼睛信息以机动的方式改变所述瞄准装置(5)的方向。

Description

能够非接触操作的测量设备以及用于这种测量设备的控制方法
本发明涉及一种能够非接触控制的测量设备,还涉及一种用于控制所述测量设备的方法。
为了测量目标点,一直以来我们已经知道了许多种大地测量设备。这种情况下,从测量设备到待测目标点的距离和方向或角度被记录,并且特别的,测量设备的绝对位置以及可能出现的参考点一起被获取作为空间标准数据。
这种大地测量设备的公知例子包括经纬仪、视距仪和全站仪,其也可以设计为电子视距仪或者电脑视距仪。例如,公开文献EP1686350中描述了一种现有技术的大地测量设备。所述设备具有基于电子传感器的角度和距离测量功能,允许确定相对于所选择目标的方向和距离。这种情况下,角度和距离变量是在设备的内部参考系统中确定的,并且,如果合适,还需要与外部参考系统结合来进行绝对位置确定。
现代的全站仪具有用于数字深加工的微处理器和存储所获得的测量数据的存储器。所述设备通常具有紧凑和集成的设计,其中同轴测量元件以及计算、控制和存储单元通常存在于设备中。取决于全站仪的扩展阶段,还可以集成瞄准(targeting或sighting)设备的机动装置和用于自动搜索与跟踪目标的装置。作为人机接口,全站仪具有电子显示控制单元-通常是带有电子数据存储装置的微处理器计算单元-具有显示和输入装置,例如键盘。以基于电子传感器方式获得的测量数据被输送到显示控制单元,由此通过显示控制单元来获得,光学显示和存储目标点的位置。现有技术中的全站仪还具有用于建立与外围组件例如手持式数据获取设备的无线连接的无线数据接口,其可以设计为,特别是作为,数据记录器或现场计算机。
为瞄准待测目标点,通用类型的大地测量设备以望远镜瞄准器例如光学望远镜作为瞄准设备。望远镜瞄准器通常可围绕垂直轴和围绕相对于测量设备基座的水平倾斜轴旋转,这样望远镜瞄准器就能够通过枢转和倾斜而对准待测点。现代设备除光学观察通道外还具有用于获取图像的摄像机,所述摄像机集成到望远镜瞄准器内并且以例如同轴或平行的方式对齐,其中获得的图像可以呈现为,特别是呈现为,显示控制单元的显示器上的和/或外围设备-例如数据记录器-的显示器上的动态图像,以用于远程控制。此时,瞄准设备的光学系统具有手动聚焦-例如调节螺丝用于改变光学聚焦系统的位置-或者自动聚焦,其中聚焦位置通过伺服电机改变。大地设备的望远镜瞄准器的自动聚焦设备可以从例如DE19710722、DE19926706和19949580中得知。
瞄准设备的光学系统或者光学观察通道通常包含物镜组、图像反转系统、聚焦光学系统,用于产生十字线的标线,以及目镜,它们从物体侧例如以上述顺序排列。聚焦透镜组的位置是取决于物体的距离来设置的,这样使清晰图像形成在设置于焦平面内的标线上。所述图像能够随后通过目镜被看到或者通过借助于同轴设置的摄像机获得。
举例来说,大地设备的通用望远镜瞄准器的结构在公开文献EP1081459或EP1662278中披露。
在已知测量设备中通常是将它们粗略地对准目标。然后,例如用户通过光学系统如望远镜找到目标,并且测量设备依靠良好的设定来精确地对准目标。紧随其后的是通常的测量任务,例如确定距离、方向、位置等等。引入到地形中的人工物品例如棱镜,杆或者镜子以及静止物体例如支架顶点、教堂塔楼、塔等等诸如此类可作为目标。
在已知的测量方法中,需要用户反复把目光从通过光学系统看到的目标移开,以便于满足测量设备上的各种设置。这通常由设定工具完成,例如开关、按钮或控制杆,其安装在设备本身上或者远程控制处并且手动操作。为操作这些工具,用户的眼睛必须定期地会聚于不同的距离和人工物品上,由于这个原因容易导致疲劳。此外,定期的接触测量设备以使后者动作(例如在对测量目标精细设定的过程中)会重复地导致振动和冲击,造成测量的精度受到损害或者使测量工作至少被拖延。其结果是,特别是在高精度测量的情况下,延迟会在测量中反复出现。
因此,需要一种能够以免接触方式致动的测量设备,以及一种控制上述测量设备的方法。
根据本发明,测量设备包括瞄准装置和可选的呈现装置,其用于呈现由瞄准装置瞄准的目标的图像。此外,还提供瞄准设备的朝向用户端的眼睛图像获取装置,其被设计为持续获取用户的眼睛的图像(眼睛图像),所述眼睛特别是位于用户端。眼睛图像获取装置能够获取眼睛图像作为用户整个脸部或者部分脸的记录的一部分,特别是包括眼睛的可见部分和眼睛周围的部分,否则仅获取用户眼睛的一部分,特别是包含角膜和虹膜和瞳孔的眼球的前部。此时,本发明中的眼睛图像获取装置可以为摄像机或者光敏传感器,例如二维CCD传感器,或者在US7697032中描述的CMOS图像传感器。
由于人眼角膜为水平椭圆形并且呈球面弯曲,本发明方法中的眼睛图像也可以替换地通过例如借助扫描装置对用户眼睛表面,特别是眼球的可见部分,进行三维扫描来获得。眼睛的三维图像也可以借助至少两个摄像机来生成。
眼睛图像获取装置可以通过以下方式组成,例如WO99/05988中所描述的,其能够主动照亮用户的眼睛。结果,即使在黑暗或者当眼睛被例如眼睛与目镜过度靠近可能带来的阴影遮蔽时仍可以获取眼睛图像。特别地,LED适合作为照明装置。为了防止使用户眼花,这可能在低亮度的时候使用户分辨目标变得相当困难,所述主动照射用户眼睛优选采用不可见波长范围的电磁辐射,例如采用红外光,如WO2011/064534中所描述的。为此,眼睛图像获取装置必须适合接收单独发出的电磁辐射。
就测量设备而言,提供用于数据存储和对准目标单元的控制的估计装置,其被设计用于执行自动依据观察方向瞄准目标功能。估计装置包括,特别是包括,具有计算机程序代码的机器可读数据载体,所述程序代码用于执行本发明的方法。为了确定用户眼睛的观察方向,估计装置起观察方向确定设备的作用。
观察方向确定装置用于在连续获得的眼睛图像的每一张中确定用户眼睛的瞳孔中点,或者用来获得能够从中获取瞳孔中点的信息(眼睛信息);这可以是,例如,瞳孔或者虹膜的位置,或者通常也可以是获取的眼睛图像中的白色和黑色区域的分布。基于眼睛图像确定瞳孔中点或者其他眼睛特征优选可以通过图像识别系统-本领域技术人员公知的-具有用于眼睛形状的掩模和用于瞳孔或其他眼睛特征的其他掩模的图案识别。基于确定的或者推断的瞳孔中点的位置,观察方向确定装置可以确定用户眼睛的观察方向。
进一步,观察方向确定装置能够确定-确定的或者推断的-瞳孔中点与瞄准设备的光轴之间的距离。基于所确定的距离,观察方向确定装置能够确定用户眼睛的观察方向。
已知的测量设备,如全站仪,例如具有瞄准装置,该瞄准设备具有望远镜、广角摄像机、全景摄像机、轴向摄像机等等。呈现装置用于呈现由瞄准装置瞄准的目标的图像,所述呈现装置例如为瞄准装置中的显示器。由于瞄准装置能够展示在其图像平面中的瞄准的目标的真实图像,例如瞄准装置的目镜的可以作为呈现设备,所述目镜使图像能直接被人类眼睛观察到。
替代或额外地,图像平面中的磨砂玻璃屏幕可用作呈现装置,其例如为感光传感器。图像信号然后被传输到显示器,例如LCD监视器,其位于瞄准装置中或者外。
举例说明,视频摄像机可以作为眼睛图像获取装置来获取位于用户侧的用户眼睛的连续眼睛图像,所述视频摄像机优选沿瞄准装置的光轴对准。但是,眼睛图像获取装置也可以位于瞄准装置外。其可以安装于例如手持操作设备或特殊的眼镜中。
在获取的眼睛图像中,借助图像提取方法能够确定用户眼睛的瞳孔或者瞳孔中点的精确位置。由于瞄准装置的光轴与获得的瞳孔中点的眼睛图像相关的位置是已知的,因此能够确定瞳孔中点与光轴之间的距离,优选是像素距离。然后,基于所确定的距离能够确定用户眼睛的观察方向。附带地,这不需要以对用户可见的方式呈现眼睛图像。
取决于使用的瞄准装置,根据瞄准装置中的光束路径足以确定瞳孔中点与光轴之间的距离,因为用户眼睛的观察方向被定义为穿过瞳孔中点的直线。
为了提高精度,可以考虑人类眼睛的解剖结构。由于人类眼球大体上呈球形,并且其直径平均为2.5cm,所以用户眼睛的观察方向与光轴之间的角度可以用简单的方式确定为角度偏移。这通过例如正弦定律或三分律是可能的。此时,眼球的中点本质上作为观察方向围绕它而改变的枢转点。
作为用于核查所确定的观察方向的另选方案,提供了校准装置,其在显示的目标图像中连续地标记各个像素,例如通过照明该像素,并且考虑单独标记的像素来确定瞳孔中点与光轴之间的距离。由于与标记点相对应的各个观察方向是已知的,所以这种方式能够查明所确定的观察方向的结果中的误差。依据查明的误差,确定的观察方向随后在运行中被校正。然后可以例如通过之前测量出的误差的插值来改变观察方向。
在确定了用户眼睛的观察方向之后,能够以这样一种方式基于所确定的距离和/或偏移角度来改变瞄准装置的位置,即,瞄准装置的光轴与用户眼睛的观察方向一致。这对应于例如用户通过望远镜瞄准的测量目标的精细设定。此时,瞄准装置位置的变化能够围绕用户的中点实现,以便用户不会被由于瞄准装置的移动所造成的瞄准目标的呈现的变化所干扰。
瞄准装置中有利的具备标线。标线被固定分配在瞄准装置的光轴上,或者其可被实现为可动标线。但是,也可以具有一个或更多可动标线。依据所确定的用户眼睛的观察方向,各标线的位置以下述方式变化,即,用户眼睛的观察方向直接穿过标线。
可以有利地使在对准变化或者标线移动的情况下的变化速度取决于所确定的距离和/或角度偏移。基于此,在相对大的距离/角度偏移的情况下,能够以比较小距离/角度偏移的情况下更高的速度进行瞄准装置和/或标线位置的变化。
可以有利地输出控制信号,例如作为用户眼睛眨眼的结果。为此,观察确定装置例如以这样一种方式被设计,其将不能确定瞳孔中点的特定数量的眼睛图像解释为控制信号。闭上的眼睛或者闭上和睁开眼睛的过程也可以识别为眨眼并解释为控制信号,特别地,可以借助带有掩模图案识别的图像识别系统来实现。
用户眼睛的眼球的移动(眼部移动)或者眼部移动的组合也可以解释为控制信号。借助校准装置,例如在开始测量工作之前,各种持续时间和/或用户眼睛眨眼的解释或者特定眼部移动组合可以被分配给不同的控制命令。举例说明,瞄准装置的对准中的动态变化的开始和/或结束可以借助这样的非接触控制命令来启动。
替换或者额外地,目标的呈现可以被光学呈现的控制命令叠加或者替代。举例说明,控制命令可以以图形方式或者文本方式对用户可见。此时,观察方向确定过程可以这样设计,所确定的瞳孔中点与光轴(例如对应于呈现的中点轴)之间的距离作为识别哪个光学呈现的控制命令被用户看见的基础,例如哪个控制命令位于观察方向。这个相关的控制命令可以随后例如通过眨眼来启动。此时,可以有利地通过颜色变化和/或亮度来识别当前看到的控制命令。
可以同样地提供依据本发明的测量设备,使其具有目标点识别装置。目标点识别装置能够识别位于用户眼睛观察方向上被瞄准的目标的呈现中的可能目标点,并且通过例如亮度或者通过颜色变化来标记它们。响应于控制命令的输出,例如作为一次眨眼的结果,可以瞄准、测量这些目标点以及与它们的数据例如距离、方向高度等一起存储在存储设备中。采用多个标线,相应地可以连续标记多个目标点。
在依据本发明的用于控制测量设备的方法中,获取特别是连续获取用户眼睛的图像(眼睛图像),所述测量设备呈现通过瞄准设备观察到的目标。用户眼睛的观察方向可以基于眼睛图像的特定特征而得出。这可以例如是用户眼睛瞳孔中点与瞄准设备的光轴之间的距离,或者瞳孔或虹膜相对于眼睛范围的位置。所确定的距离作为改变瞄准装置的光轴位置或者呈现被瞄准的目标时可动标线的位置的基础。其结果为,瞄准装置的光轴与用户眼睛的观察方向一致或者用户眼睛的观察方向直接穿过标线。
一方面,基于瞳孔中点与光轴之间的距离,另一方面,基于眼球的直径,可以确定用户眼睛的观察方向与角度偏移的光轴之间的角度。替代或额外地,可以通过连续标记单个像素以及瞳孔中点与这种情况下分别确定的光轴之间的距离来确定真实的用户眼睛观察方向与所确定的用户眼睛观察方向之间的偏差。
瞄准单元的对准过程有利的以这样的速度改变,其取决于用户眼睛的瞳孔中点与瞄准装置的光轴之间的距离。
目标的呈现可以被光学呈现的控制命令叠加或替换。借助于观察方向确定系统,可以基于所确定的瞳孔中点与瞄准装置的光轴之间的距离来选择光学呈现的控制命令中的瞄准控制命令。
有利的是,目标点识别设备可以识别在呈现所瞄准的目标的时位于观察方向附近的可能目标点并可以标记它们。响应于控制命令的输出,相应的目标点可以被瞄准装置瞄准,测量并与它们的相关数据如方向距离、距离、高度等一起存储。
欧洲申请EP11150580.6描述了用于动态瞄准功能的概念,其包括通过触碰触摸感应表面的控制,其中所述表面被分成由虚拟线格形成的各个区域。这个功能也可以依据本发明通过眼睛不接触地来控制。
根据本发明的方法以及根据本发明的测量设备通过如下的实例的方式更详细的说明,基于附图中所说明的具体的特定实施方式,并且还论述了本发明的其它优点。附图中示出了:
图1示出了依据本发明的被设计为全站仪的大地测量设备;
图2a示出了依据本发明的大地测量设备的瞄准装置的光学结构的第一实施方式;
图2b示出了依据本发明的大地测量设备的瞄准装置的光学结构的第二实施方式;
图3示出了依据本发明的测量设备的结构;
图4a示出了眼睛图像和借助掩模的用户眼睛和瞳孔中点的图案识别;
图4b示出了用户眼睛被记录为偏离中央的眼睛图像;
图4c示出了用户眼睛闭上的眼睛图像;
图5示出了基于瞳孔与光轴的距离来确定角度偏移或观察方向的典型图解;
图6a示出了基于用户眼睛的眼睛图像来对准瞄准装置的第一示例;
图6b示出了基于用户眼睛的眼睛图像来对准瞄准装置的第二示例;
图7示出了望远镜移动的流程图;
图8示出了另一实施方式的示例,其中标线以可移动的方式提供于由瞄准设备瞄准的目标的图像中;
图9示出了来自图8的图像,其中插入了控制命令;
图10示出了基于一个示例的动态瞄准功能的运行情况。
图1示出了依据本发明的大地测量设备1,其被设计为全站仪并用于测量相对于位于一定距离外的目标物的水平角度、竖直角度以及距离。
全站仪安置在架子12上,其中全站仪的底座11直接并且固定连接到架子上。全站仪的主体(也标记为上部10)相对于底座11可绕竖直轴旋转。此时上部10具有:支承体14(例如由两根柱子形成);瞄准装置5(例如望远镜),其以可围绕两根柱子之间的水平倾斜轴旋转的方式安装;以及电子显示控制单元15。电子显示控制单元15可以按已知的方式设计,用于控制测量设备1并用于处理、显示和存储测量数据。
瞄准装置5以可围绕水平倾斜轴旋转的方式安置在支承体14上,并由此在对准目标物时能够相对于底座11水平地和垂直地枢转和倾斜。电机(这里未图示)用于执行用于瞄准装置对准所必需的枢转和倾斜移动。瞄准装置5可以实现为公共瞄准装置结构单元,其中物镜、光学聚焦系统、同轴摄像机传感器、目镜13和图像处理器可集成在公共瞄准装置外壳中。借助瞄准装置5,目标物可以被瞄准并且可以基于电子传感器方式获得全站仪与目标物之间的距离。进一步,提供基于电子传感器获取上部10相对于底座11以及瞄准装置5相对于支承体14的角度对准状态的装置。基于电子传感器方式获得的这些测量数据被送给显示控制单元15并由后者处理,由此可以由显示控制单元15确定、光学显示并存储目标点相对于全站仪的位置。
到目前为止,测量装置可以从现有技术中知晓。另外,依据本发明,朝向瞄准装置5的用户端的摄像机4(这里未图示)提供为依据本发明的眼睛图像获取装置,眼睛图像获取装置可以记录用户眼睛3的图像。
图2a示出了依据本发明的大地测量设备1的瞄准装置5的光学结构。光学瞄准轴6由物镜单元21和从透过物镜单元21瞄准的目标或物体开始的相关的光束路径限定,该瞄准轴将对准待观察的目标或物体。物镜单元21可以由多个透镜构成。摄像机传感器22具有像素限定的分辨率,用于获取待瞄准的物体或目标或者瞄准标记的摄像机图像。
光束路径23从物镜单元21延伸至摄像机传感器22,该光束路径可通过光学偏转元件24折叠,如图2所示,或者实现为连续直线形式。光学偏转元件24可实现为例如分束器或部分透射反射镜,由此沿光束路径23传播到偏转元件24的光的一部分,如50%,被引导到摄像机传感器22上,而另一部分进一步沿瞄准轴的方向传播到用于观察者的目镜单元13。在物镜单元21所获得的光的传播方向上,调整或对准辅助26,例如标线,可固定设置在目镜的上游侧。另外,聚焦元件27设置在物镜单元21和光学偏转元件24之间的光束路径中,其可沿着轴6改变位置,并用于改变物镜单元21所获得的光的聚焦位置。聚焦元件27可以由多个透镜形成。有益的是,聚焦元件27具有稳定、可精确再现的定位,以利用到物镜单元21的实际上平行的光束路径获取放置在极远处的物体的图像。
可选地,该结构可另外配备用于电光距离测量的装置。为此,如图2所示,可使用测量辐射源31(如,在人眼不可见的近红外光谱范围发射),测量辐射通过光学偏转元件32,例如反射镜,指引到另一光学偏转元件33上,例如二向色分束器,其在光源31的光谱范围内反射,并且在剩余光谱范围内透射,并由此进一步穿过物镜单元21到达待瞄准的目标标记。依据本发明的大地测量设备的瞄准装置的光学结构的可选实施方式中,具有光源31的波长的部分光在目标上漫反射或定向反射,并且被物镜单元21获取,穿过偏转元件33并进一步传播到二向色光束输出耦合器34,该耦合器被设计为反射具有光源31的发射波长的光并透射来自剩余光谱范围的光。被二向色光束输出耦合器34反射回的测量光经由偏转元件33被引导到探测器35以用于电光距离测量。举例说明,光源31可以为脉冲的,可用已知的方式通过确定脉冲应用时间或发射光和反射光之间的相差来实现距离测量。
另选地,摄像机传感器22也可以安置在光学瞄准轴6上(这里未图示)。在这种结构中,来自物镜单元并沿着光学瞄准轴6的光束路径终止于摄像机传感器22。摄像机传感器随后连接到估计设备,其可以将摄像机传感器22获得的当前图像2输出到显示器,适当情况下可以叠加瞄准标记图案,此时观察者得到这样的印象:所述观察者通过目镜13直接看到被观察物体、目标或目标图案的“望远镜图像”。这样的系统已经在公开文献WO2010/092087A1中描述了。
到目前为止的测量设备可以从现有技术中知晓。依据本发明,另外提供摄像机4,该摄像机可以通过偏转元件40和透过目镜13记录用户眼睛3的图像。
图2b示出了依据本发明的大地测量设备1的瞄准装置5的光学结构的第二实施方式。与图2a中示出的实施方式相比,摄像机4没有安装在瞄准装置5的内部而是安装在外部并直接记录用户眼睛3的图像。为更好的获取整个眼部3的图像,还可以使用另一个摄像机4’或者多个摄像机,它们可以联合记录用户眼睛3的图像。通过使用多个摄像机4,4’还可以得到用户眼睛3的三维图像,以及例如基于用户眼睛3的角膜的弯曲推断观察方向。摄像机4或者多个摄像机还可以设置在瞄准装置13的外部,例如在测量设备1的外围装置中,如眼镜或手持操作单元中。
图3示出了依据本发明的测量装置的示意图结构。在图3中,测量装置被设计为包括望远镜5的全站仪1的形式。图3中的标号2表示测量环境的图像,该图像由望远镜5产生,是依据本发明的由瞄准装置5瞄准的目标的图像的例子。依据本发明的全站仪1的望远镜5构成了瞄准装置。
图3中的标号3表示人类眼睛(用户眼睛),其通过望远镜5的目镜13观察图像2。取决于望远镜5的结构,产生的测量环境的图像2是直接通过望远镜5的光学系统观察到的测量环境,或者可以被投射到显示器,如LCD屏幕上。图3中的标号4表示记录特别是连续记录用户眼睛3的眼睛图像的摄像机。此时,摄像机4作为本发明的眼睛图像获取装置。摄像机4以这样的方式对准全站仪1的望远镜5的光轴,即,单独获取的眼睛图像的中心对应于全站仪1的望远镜5的光轴。
如果用户精确地沿望远镜5的光轴6(其由图像2中的小标线来表示)的方向看,则眼睛3的瞳孔的中心正好位于摄像机4当前获取的眼睛图像的中点。这个位置对应于图像2中的光轴6的位置。
图4a示出了由摄像机获取的眼睛图像的一个例子,其中心位于光轴6上。用户眼睛3可以借助掩模38通过图像识别和图案识别方法被识别。在如上方式识别的用户眼睛3中,瞳孔中点及其关于眼睛范围的位置通过另一个掩模39确定(用于识别这里示出的虹膜的掩模)。对于图像或图案识别,用户眼睛不必以光轴6为中心,也可以如图4b中所示位于光轴之外。如果眼睛是如图4c所示闭着的,则没有识别到用户眼睛,或者可以借助另一个掩模(这里未示出)来识别眼睛闭上的情况。
如果用户移动他/她的眼睛3以便更清楚地观察图像2中光轴外的人工物或物体,或者使用眼睛3瞄准它时,用户眼睛3的眼球围绕眼球的中点M进行旋转移动,从而朝向瞄准点改变眼睛3的观察方向。此时,观察方向基本上对应于人类眼睛3的视线轴,其基本上一方面由瞳孔P和位于眼球内侧与瞳孔P相反位置的中央凹限定。中央凹是眼睛3的一部分,其具体负责敏锐的色彩视觉。因此,视线轴大致从中央凹经过眼球的中点M并穿过眼睛3的瞳孔P的中点。此时视线轴对应于观察方向。
所描述的眼球的移动导致瞳孔位置的变化。这种变化被眼睛图像获取装置获取,该装置设置在摄像机4中并能够确定瞳孔中点与光轴之间的距离或者以眼睛图像像素的形式下瞳孔相对于眼睛范围的位置。眼睛3的旋转角度可以从瞳孔中点相对于眼睛范围的位置推断得到。由于摄像机4获取的瞳孔与眼睛图像的眼睛图像平面之间的距离是已知的,而且人类眼球具有大约2.5cm直径同样也是已知的,也就可以确定一个当前观察方向偏离光轴的值,例如是角度α。这种可能性在图5中已经示出。
图5示出了一只眼睛,它当前的观察方向以实线呈现。瞳孔P的位置以及完全朝向前方的观察方向在图5中分别以阴影线和虚线的方式表现。由于瞳孔P与眼球中点M的距离(大约12.5mm)、瞳孔P与眼睛图像的图像平面BE之间的距离以及瞳孔P与对应于直接朝向前方的观察方向的精确中心的距离是已知的,所以当前观察方向与眼睛图像的图像平面BE的交叉点S可以借助例如三分律来确定。由此,基于瞳孔中点与摄像机4获取的眼睛图像的中心的之间的距离,可以足够精确地确定当前观察方向与光轴6的偏差,例如表示为角度α,以及用户眼睛3的观察方向。
由于与全站仪1的望远镜5的光轴6相关的用户眼睛3的观察方向可以被足够精确地确定,所以可以通过驱动装置(未示出)来以这样的方式调整望远镜5,使它的光轴6对准用户透过目镜13观察到的目标,特定情况下光轴6与用户眼睛3的观察方向一致。因此,结合图3,标线固定地设置在光轴6的位置,在上述调整后用户眼睛3的观察方向穿过标线。
此时,可以围绕用户眼睛3的眼球的中点M来调整望远镜5,从而防止望远镜5移动之类的情况造成用户的图像2的晃动。
图6a示意性示出了在初始位置的用户眼睛3,它的观察方向完全对准笔直的前方,还示出了用户眼睛3的眼睛图像和在初始位置的望远镜5,在该位置光轴6对准用户透过目镜13观察的目标。
图6b示出了同一个用户眼睛3,它的观察方向改变了。瞳孔P改变的位置显示在所获取的眼睛图像中。取决于瞳孔的显示位置,观察方向确定装置确定用户眼睛3的观察方向,或者如图4a中所示借助用于眼睛的掩模38,39和从眼睛3中的瞳孔P的位置识别瞳孔或虹膜来推断。依据确定和查明的观察方向以这样方式来使驱动装置(未示出)对准望远镜5,其结果为望远镜5的光轴6被引导到用户透过目镜13观察的目标上。此时,望远镜5可以基于结合校正描述表中包含的电流放大因数所确定的传动比来对准。
图7示出了描述用于执行上述典型实施方式的基本方法步骤的流程表。
在瞳孔的位置被测量以及瞳孔中点与光轴之间的距离被确定之后,如上所述借助三分律来计算角度偏移。如果所确定的值,例如角度α,小于预定阈值,则确定实际观察方向对应于光轴和角度偏移的方向。此时不需要改变望远镜的位置。
如果计算的角度偏移大于预定阈值,则确定需要移动望远镜,特别直到望远镜5的光轴6对准用户透过目镜13观察的目标为止。
图8示出了本发明的第二实施方式。第二实施方式的测量装置具有标线7,其位置并不固定链接到光轴,相反所述标线是可以移动的。这可以通过例如不直接透过望远镜的光学系统观察测量环境,而是例如作为图像投射到显示器如LCD屏幕上来实现。如果用户在LCD屏幕上观察该图像,依据本发明该图像对应于瞄准设备瞄准的目标的图像,则所述用户瞳孔P的位置同样被摄像机4连续获取。借助控制设备将标线7的位置调整到所确定的观察方向,而不需要改变瞄准装置自身的对准。这可以通过将标线插入到呈现在LCD屏幕上的图像中实现,也可以通过其它已知的方法实现。
图8中,用户眼睛朝向教堂塔8的顶端,标线7的位置在当前观察方向被确定后相应地切换到教堂塔8的顶端,而标线7的原始位置位于图像的中央并以虚线表示。
作为第二实施方式的变型例,可以借助图像提取手段来分析被瞄准装置瞄准的目标的出现,并确定感兴趣的物体如教堂塔8作为测量目标。此时,如果用户眼睛3的观察方向接近教堂塔8就可以满足条件了。由于教堂塔8被识别为可能的测量目标,所依据第二实施方式的变型例标线7被置于教堂塔8的顶端。该变型例的优点在于在确定用户眼睛3的观察方向时仅需要较低的精确度,从而可以节省计算时间、存储器资源等等。
依据第二实施方式的该变型例,需要确认测量装置所选择的目标-目前情况中是教堂塔8-实际作为测量目标。为确定可能的目标最终作为测量目标,可以特别通过眼睑的运动(眨眼)来输出控制命令,其由于摄像机4优选还能够识别眼睛图像的顺序,其中当眨眼时不能获得瞳孔P或其他眼睛信息并被解释为控制命令。此时,完全可以任意将不同的眨眼顺序分配给不同的控制命令,由此依据本发明的测量装置可以完全不接触地操作。
控制命令也可以分配给特定的眼球移动(眼睛移动)。其可以包括,例如,瞳孔向左、向右、向上或向下的移动的组合。优选地,多种控制命令由用户在操作开始预先定义,并被观察方向确定装置学习。举例说明,瞄准装置的对准过程的动态变化的开始和/或终止借助于上述不接触控制命令来初始化。
依据第二实施方式的另一个优选变型例,可以将对应于不同控制命令的图形符号或者文本框插入到由瞄准装置瞄准的目标的表示中。在图9中,例如它们被指定为A1、B1、C1以及A2到A4。如果插入了控制命令,则摄像机4能够识别观察到的控制命令,所述命令基于用户眼睛3的观察方向,并且摄像机4随后基于动作例如眨眼而开始执行所述命令。例如,控制命令C1当前在图8的图示中被标记。
但是,基于第二实施方式的例子描述的变型例并不只局限于该第二实施方式,还可以例如应用到根据第一实施方式的望远镜5中。为此,标线7、控制命令的图形符号等的图像被投射到望远镜5的图像平面。
图10示出了本发明第二实施方式的另一个变型例,其具有动态瞄准功能。由望远镜或者显示器产生的图像2被细分成虚拟线网格9,对应于从目标图像点或标线7的中点到显示点的组的数字化的距离和方向。在根据图10的实施方式中,虚拟线网格9由围绕标线中点的同心圆环线19和从标线中点出发并与所述环线交叉的径线17构成,由此显示器被分割成多个扇区18,每个扇区都包括多个显示点的组。此时,当改变望远镜5对准状态时,每个扇区18都对应有对准变化方向和对准变化速度的具体值。也就是说位于扇区中的显示点在各种情况下分配相同的用于对准变化方向和对准变化速度的具体数据。
望远镜5的对准在竖直和,尤其是同时在水平方向变化,朝向不同标记的图像点16-位于一个扇区-的方向,该点对应于待瞄准的不同的空间点,其可以是只要用户眼睛3持续瞄准所述不同的图像点16,或者是在瞄准的图像点16被标记如通过眨眼之后,该变化持续到达成期望的对准或者取消标记。在例如作为重新眨眼的结果而取消了标记后,望远镜5停止移动。但是,用户可以在任意时间使用所述用户眼睛3在不同的扇区18标记或者瞄准不同的显示点,从而依照分配给该扇区的用于改变对准状态的方向和速度来启动望远镜5的对准状态的改变。
因为它们的位置,位于更外围的扇区具有离锚显示点(如标线的中点)更大的距离,这种情况对应更高的对准变化速度,而位于更内侧的扇区具有离锚显示点更小的距离,这种情况对应更低的对准变化速度。当各个扇区与锚显示点之间的距离增加时,分别分配给各扇区的对准变化速度也增加了。
此时,最外侧环线限定的扇区被指定了最高的移动速度(100%),锚显示点的标记(也就是说标线的中点)意味着0%的移动速度。
每个扇区18还对应特定的-也就是说分配给它的-望远镜5的对准变化方向(方位角的和高度的)。当图像点,如标线中点的右边的点,被标记或者被眼睛3瞄准,望远镜5向右侧移动以在水平方向改变对准状态,直到上述不同的图像点不再被标记或者瞄准(例如由于现在另一个不同的显示点被标记-然后瞄准单元以分配给所述显示点的方向和速度来移动或变化-或者不再有点被标记-然后瞄准单元停止移动)。例如,图10中显示的情形(这里的点被例示为当前标记的显示点16)对应于望远镜5的对准状态的变化是向上偏右改变对准方向(也就是说一个方向变化分量向上而另一个方向变化分量向右,其中向上的分量选择为比向右的分量略大)和平均的移动速度。特别的是,为此目的,旋转驱动装置以这种方式被驱动,即瞄准单元相对于底座以所能提供的最大旋转速度的60%向上旋转,并围绕竖直轴以所能提供的最大速度的40%向右旋转。
特别的是,此时线网格9是以限定了多个扇区18的方式建立的,特别是至少大约30个扇区,尤其是至少大约50个扇区。
如上所述,本发明使通过用户的一个或两个眼睛或者瞳孔来控制测量装置如全站仪成为可能。由此,不再需要触碰测量仪器,从而可以避免测量工作中的振动及其干扰。除了直接瞄准目标点和设置测量仪器,还可以执行呈现在测量装置的瞄准装置中的控制命令。透过目镜观看时不断变化以瞄准目标、注视待手工操作的输入装置以施加控制命令,并再次透过目镜查看这些由此也都可以避免了。
所述控制命令可以插入到测量环境的图像中,所述图像投射到或者呈现在诸如LCD屏幕的显示器上,也可以借助专用显示器插入到望远镜或类似设备中。选择不同的菜单项可以通过例如睁开和闭上(眨眼)眼睛来执行。同样可以借助远程控制来完成所述控制命令,如无线远程控制。
优选的是,同样可以临时关闭特定功能或者整个非接触控制,从而避免用户的过度疲劳以及偶然的眼睛移动所导致的误操作。举例说明,替代或额外的是,可以通过用户的语音来启动或开始一项控制。优选的是,用户语音用于启动和撤销用户眼睛控制。替代的或额外的是,还可以使用无线远程控制和/或测量装置上的开关或按钮。
为提高精确度,测量装置具有校准模式,在该模式下用户被引导聚焦在一系列依次识别的图像点上。此时同时测量瞳孔位置可以查清已确定的观察方向与真实观察方向的偏差并由此补偿用户眼睛的解剖学特征。
控制信号,例如用户眼睛的眨动,可以同样借助对应的校准来调整。
通过基于第二实施方式描述的标线的移动,可以防止用户因为其眼睛过于靠近望远镜而分散注意力。
不同的控制命令通过用户眨眼来提供。举例说明,闭上和睁开眼睛一次可以导致菜单被插入,睁开和闭上眼睛两次可以导致当前瞄准的菜单点被选中或者开始测量,而闭上和睁开眼睛三次可以实现终止功能。
指针(鼠标)也可以插入到瞄准目标的呈现中,所述指针跟随瞳孔移动。
然而,也可以通过观看相当长的一段时间(如两秒钟)来选择目标点。然后控制系统能够通过亮度或者颜色变化来显示所选择的目标点。所显示的选择然后被用户例如通过眨眼加以确认。
优选的是,还可以动态地控制测量装置。这意味着,在瞳孔偏离光轴相当大的情况下,瞄准装置位置变化期间的最终速度或者标线移动速度高于较小距离的情况。
不言而喻,这些附图仅仅示意性例示了可能的示范实施方式。各种方法同样可以彼此结合,并且也可以与现有技术中的方法和设备结合。

Claims (15)

1.一种用于确定目标点的位置的大地测量设备(1),特别是经纬仪或者全站仪,该大地测量设备(1)包括
●瞄准装置(5),特别是望远镜,其中该瞄准装置(5)能够出于改变所述瞄准装置的对准的目的而相对于所述测量设备(1)的底座(11)以机动的方式枢转,并具有限定光学瞄准轴(6)的至少一个物镜单元(21),
●角度测量功能,其用于高精度获取所述瞄准轴(6)的对准,以及
●估计装置,其用于对所述瞄准装置(5)的对准进行数据存储和控制,
其特征在于:
眼睛图像获取装置(4,4’),其被设计为获取用户眼睛(3)的眼睛图像,
并且,所述估计装置被设计为执行依赖于观察方向的自动瞄准功能,使得在该功能开始后自动执行以下步骤:
●记录至少一幅眼睛图像,
●借助基于所述至少一幅眼睛图像的图像处理来确定所述用户眼睛(3)的观察方向或者适于得出所述用户眼睛(3)的观察方向的眼睛信息,以及
●根据所述用户眼睛(3)的所述观察方向或根据所述眼睛信息以机动的方式改变所述瞄准装置(5)的对准。
2.根据权利要求1所述的大地测量设备(1),其特征在于,
所述眼睛图像获取装置(4,4’)装配在所述瞄准装置(5)中或所述瞄准装置(5)上,并且尤其被设计为获取位于所述瞄准装置(5)的用户端的用户眼睛(3)的眼睛图像,并且/或者包括至少一个摄像机,所述至少一个摄像机适于
●连续地获取眼睛图像,尤其是每秒至少三幅眼睛图像,或
●获取单独的眼睛图像。
3.根据权利要求1或2所述的大地测量设备(1),其特征在于,
所述眼睛信息至少包括:
●所述眼睛图像中瞳孔(P)、瞳孔中点或虹膜的位置;
●所述眼睛图像中亮区域和暗区域的分布;
●瞳孔(P)、瞳孔中点或虹膜与所述瞄准轴(6)之间的距离;
●从所述瞄准轴(6)到瞳孔(P)、瞳孔中点或虹膜的方向;
●所述用户眼睛(3)的眼球的直径;
●眼球中点(M)与所述瞄准轴(6)之间的距离;或
●所述瞄准轴(6)与观察方向之间的角度(α)。
4.根据前述权利要求中任意一项所述的大地测量设备(1),其特征在于,
基于所述用户眼睛(3)的观察方向或所述眼睛信息,所述瞄准装置(5)的对准是可变的,使得所述瞄准装置(5)的所述瞄准轴(6)与所述用户眼睛(3)的观察方向一致。
5.根据前述权利要求中任意一项所述的大地测量设备(1),其特征在于,
在所述瞄准装置(5)上设置有对准辅助部(26),尤其是标线,并且基于所述用户眼睛(3)的观察方向或所述眼睛信息,所述瞄准装置(5)的对准是可变的,使得所述用户眼睛(3)的观察方向穿过所述对准辅助部(26)的中点。
6.根据前述权利要求中任意一项所述的大地测量设备(1),其特征在于,
所述瞄准装置(5)或所述标线(7)的对准的变化速度取决于所述用户眼睛(3)的观察方向或所述眼睛信息。
7.根据前述权利要求中任意一项所述的大地测量设备(1),其特征在于,
所述瞄准装置(5)具有摄像机传感器(22),所述摄像机传感器(22)用于获取所瞄准的目标标记的摄像机图像(2),并且测量设备(1)具有用于呈现所述摄像机图像(2)的装置。
8.根据前述权利要求中任意一项所述的大地测量设备(1),其特征在于,
用于获取眼睛图像的所述眼睛图像获取装置(4,4’)
●配备有照明装置,所述照明装置被设计为照明所述用户眼睛(3),尤其是用红外光来照明;
●包括光敏传感器,尤其是CCD或者CMOS图像传感器;和/或
●被设计为产生眼睛(3)的表面轮廓,尤其是借助于扫描器。
9.一种用于控制大地测量设备(1),尤其是经纬仪或全站仪,的瞄准装置(5)的方法,其特征在于,
获取用户眼睛(3)的眼睛图像,其中,在该功能开始后自动执行以下步骤:
●记录至少一幅眼睛图像,
●借助基于所述至少一幅眼睛图像的图像处理来确定所述用户眼睛(3)的观察方向或者适于得出所述用户眼睛(3)的观察方向的眼睛信息,以及
●根据所述用户眼睛(3)的所述观察方向或根据所述眼睛信息以机动的方式改变所述瞄准装置(5)的对准。
10.根据权利要求9所述的方法,其特征在于,
所述眼睛信息至少包括:
●所述眼睛图像中瞳孔(P)、瞳孔中点或虹膜的位置;或
●所述眼睛图像中亮区域和暗区域的分布;或
●瞳孔(P)、瞳孔中点或虹膜与所述瞄准轴(6)之间的距离;或
●从所述瞄准轴(6)到瞳孔(P)、瞳孔中点或虹膜的方向;或
●所述用户眼睛(3)的眼球的直径;
●眼球中点(M)与所述瞄准轴(6)之间的距离;或
●所述瞄准轴(6)与观察方向之间的角度(α)。
11.根据权利要求9或10所述的方法,其特征在于,
在所述测量设备(1)上设置有估计装置,如果
●不能在连续获取的预定数量的眼睛图像中确定所述用户眼睛(3)的观察方向或者所述眼睛信息,尤其是由于用户眨眼;
●在连续获取的预定数量的眼睛图像中确定用户眼睛(3)闭上了;和/或
●所述眼睛图像获取装置(4,4’)确定了所述用户眼睛(3)的观察方向的移动或者移动的组合,或者基于所述眼睛信息推断出上述移动或者移动的组合,所述移动是预先定义的,尤其是被用户预先定义的,
则所述估计装置获取控制信号。
12.根据权利要求9-11中的任一项所述的方法,其特征在于,
目标的呈现能够被控制命令的呈现所叠加或者替换,并且所述测量设备(1)的估计装置基于所述用户眼睛(3)的观察方向或者所述眼睛信息来选择所呈现的控制命令中的一个控制命令。
13.根据权利要求9-12中的任一项所述的方法,其特征在于,
目标点识别装置识别和标记在所瞄准的目标的呈现中位于观察方向附近的可能目标点(8),和/或响应于控制信号的输出而将它们作为目标点存储在存储装置中。
14.根据权利要求9-13中的任一项所述的方法,其特征在于,
借助于布置在锚显示点周围的虚拟线网格(9)将所瞄准的目标的呈现细分为虚拟扇区(18),所述网格由所述锚显示点周围的同心圆环线(19)和从所述锚显示点出发并与所述环线(19)交叉的径线(17)形成,其中,所述扇区(18)对应于针对对准改变方向和对准改变速度的数字化值,并且只要位于所述扇区中的一个显示点被标记,就按照分配给对应扇区的对准改变方向和对准改变速度来改变所述瞄准装置(5)对准,并且一旦位于不同扇区中的显示点被标记就相应地改变所述对准改变方向和所述对准改变速度,也就是改变为与所述不同扇区相对应的对准改变方向和相应的对准速度。
15.一种包括程序代码的计算机程序产品,所述程序代码存储在机器可读载体上,用于执行根据权利要求9-14中任意一项所述的方法,尤其是程序在实施为根据权利要求1-8中任意一项所述的测量设备的(1)的估计装置的电子数据处理单元中执行的情况下。
CN201280037038.5A 2011-07-25 2012-07-20 能够非接触操作的测量设备以及用于这种测量设备的控制方法 Active CN103782131B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11175257A EP2551636A1 (de) 2011-07-25 2011-07-25 Berührungslos bedienbare Vermessungsvorrichtung und Steuerverfahren für eine solche
EP11175257.2 2011-07-25
PCT/EP2012/064307 WO2013014084A1 (de) 2011-07-25 2012-07-20 Berührungslos bedienbare vermessungsvorrichtung und steuerverfahren für eine solche

Publications (2)

Publication Number Publication Date
CN103782131A true CN103782131A (zh) 2014-05-07
CN103782131B CN103782131B (zh) 2016-04-13

Family

ID=46551552

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280037038.5A Active CN103782131B (zh) 2011-07-25 2012-07-20 能够非接触操作的测量设备以及用于这种测量设备的控制方法

Country Status (5)

Country Link
US (1) US20140226002A1 (zh)
EP (2) EP2551636A1 (zh)
KR (1) KR101684956B1 (zh)
CN (1) CN103782131B (zh)
WO (1) WO2013014084A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491068A (zh) * 2018-02-08 2018-09-04 东南大学 一种眼动信号控制的交互方法
CN109472189A (zh) * 2017-09-08 2019-03-15 托比股份公司 瞳孔半径补偿

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6227996B2 (ja) * 2013-12-18 2017-11-08 浜松ホトニクス株式会社 計測装置及び計測方法
US9420177B2 (en) 2014-10-10 2016-08-16 IEC Infrared Systems LLC Panoramic view imaging system with laser range finding and blind spot detection
DE102014226185B4 (de) 2014-12-17 2022-09-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Blickrichtungserkennungssystem zum Bestimmen einer Blickrichtung einer Person, sowie Verwendung des Blickrichtungserkennungssystems in einem Kraftfahrzeug
DE102016104383A1 (de) * 2016-03-10 2017-09-14 Osram Opto Semiconductors Gmbh Verfahren und optoelektronische Leuchtvorrichtung zum Beleuchten eines Gesichts einer Person sowie Kamera und mobiles Endgerät
EP3339900B1 (en) * 2016-12-22 2020-08-12 Safran Vectronix AG Observation device having an eye-controlled laser rangefinder
US10782517B2 (en) * 2017-09-04 2020-09-22 Shenzhen Gongfenxiang Network Technology Co., Ltd. Virtual displaying device for telescopic sight
US10853674B2 (en) 2018-01-23 2020-12-01 Toyota Research Institute, Inc. Vehicle systems and methods for determining a gaze target based on a virtual eye position
US10817068B2 (en) * 2018-01-23 2020-10-27 Toyota Research Institute, Inc. Vehicle systems and methods for determining target based on selecting a virtual eye position or a pointing direction
US10706300B2 (en) * 2018-01-23 2020-07-07 Toyota Research Institute, Inc. Vehicle systems and methods for determining a target based on a virtual eye position and a pointing direction
CN109188676A (zh) * 2018-09-30 2019-01-11 西安蜂语信息科技有限公司 光学设备的调整方法、系统和设备
JP7240996B2 (ja) * 2019-09-18 2023-03-16 株式会社トプコン アイウェア装置を用いた測量システムおよび測量方法
KR102492935B1 (ko) * 2022-08-23 2023-01-30 천지지에스티(주) Rtk 제어측량을 통해 실시간으로 고정밀 측량 데이터를 확보할 수 있는 측지측량시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000026713A1 (en) * 1998-11-02 2000-05-11 Scientific Generics Limited Eye tracking system
EP1081459A1 (de) * 1999-08-31 2001-03-07 Leica Geosystems AG Tachymeter-Fernrohr
CN1533497A (zh) * 2001-07-17 2004-09-29 ��������ϵͳ�����ɷ����޹�˾ 具有瞄准装置的测距仪
CN1761855A (zh) * 2003-03-21 2006-04-19 莱卡地球系统公开股份有限公司 大地测量仪器中的图像处理方法和装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3541960B2 (ja) * 1993-12-24 2004-07-14 独立行政法人土木研究所 建設機械の3次元位置自動制御方法
DE19710722C2 (de) 1996-03-15 2003-06-05 Pentax Corp Automatische Fokussiereinrichtung für ein Fernrohr
WO1999005988A2 (en) 1997-07-30 1999-02-11 Applied Science Laboratories An eye tracker using an off-axis, ring illumination source
JP3174551B2 (ja) 1998-06-11 2001-06-11 旭光学工業株式会社 焦点調節レンズ位置検出装置
JP3500077B2 (ja) 1998-10-14 2004-02-23 ペンタックス株式会社 視準望遠鏡の自動焦点調節機構
JP3838840B2 (ja) 2000-01-06 2006-10-25 Necエレクトロニクス株式会社 コンピュータ
US7206022B2 (en) * 2002-11-25 2007-04-17 Eastman Kodak Company Camera system with eye monitoring
GB2412431B (en) * 2004-03-25 2007-11-07 Hewlett Packard Development Co Self-calibration for an eye tracker
EP1662278A1 (de) 2004-11-27 2006-05-31 Leica Geosystems AG Plankonvex- oder Plankonkavlinse mit damit verbundenem Umlenkmittel
EP1686350A1 (de) 2005-01-26 2006-08-02 Leica Geosystems AG Modular erweiterbare geodätische Totalstation
KR100718761B1 (ko) 2005-07-15 2007-05-15 미루 엔터프라이즈 눈동자 위치추적 센서 및 센싱방법
EP2247923B1 (en) * 2008-02-29 2019-06-12 Trimble AB Automated calibration of a surveying instrument
US20100149073A1 (en) * 2008-11-02 2010-06-17 David Chaum Near to Eye Display System and Appliance
JP5089470B2 (ja) * 2008-04-09 2012-12-05 本田技研工業株式会社 関心度推定装置および方法
EP2219011A1 (de) 2009-02-11 2010-08-18 Leica Geosystems AG Geodätisches Vermessungsgerät
JP5613025B2 (ja) * 2009-11-18 2014-10-22 パナソニック株式会社 視線検出装置、視線検出方法、眼電位計測装置、ウェアラブルカメラ、ヘッドマウントディスプレイ、電子めがねおよび眼科診断装置
GB0920809D0 (en) 2009-11-27 2010-01-13 Qinetiq Ltd Eye tracking apparatus
EP2405236B1 (de) * 2010-07-07 2012-10-31 Leica Geosystems AG Geodätisches Vermessungsgerät mit automatischer hochpräziser Zielpunkt-Anzielfunktionalität
EP2474810A1 (de) * 2011-01-11 2012-07-11 Leica Geosystems AG Vermessungsgerät mit einer dynamischen Anzielfunktionalität

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000026713A1 (en) * 1998-11-02 2000-05-11 Scientific Generics Limited Eye tracking system
EP1081459A1 (de) * 1999-08-31 2001-03-07 Leica Geosystems AG Tachymeter-Fernrohr
CN1533497A (zh) * 2001-07-17 2004-09-29 ��������ϵͳ�����ɷ����޹�˾ 具有瞄准装置的测距仪
CN1761855A (zh) * 2003-03-21 2006-04-19 莱卡地球系统公开股份有限公司 大地测量仪器中的图像处理方法和装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109472189A (zh) * 2017-09-08 2019-03-15 托比股份公司 瞳孔半径补偿
CN109472189B (zh) * 2017-09-08 2022-03-22 托比股份公司 瞳孔半径补偿
CN108491068A (zh) * 2018-02-08 2018-09-04 东南大学 一种眼动信号控制的交互方法
CN108491068B (zh) * 2018-02-08 2020-11-17 东南大学 一种眼动信号控制的交互方法

Also Published As

Publication number Publication date
KR20140034937A (ko) 2014-03-20
KR101684956B1 (ko) 2016-12-20
EP2737278B1 (de) 2015-09-23
CN103782131B (zh) 2016-04-13
EP2737278A1 (de) 2014-06-04
US20140226002A1 (en) 2014-08-14
WO2013014084A1 (de) 2013-01-31
EP2551636A1 (de) 2013-01-30

Similar Documents

Publication Publication Date Title
CN103782131B (zh) 能够非接触操作的测量设备以及用于这种测量设备的控制方法
US9007573B2 (en) Robotic surveying instrument and method for an automated collimation telescope and surveying instrument with and objective goal
US6634749B1 (en) Eye tracking system
JP5858433B2 (ja) 注視点検出方法及び注視点検出装置
US20200211512A1 (en) Headset adjustment for optimal viewing
US11506759B2 (en) Surveying instrument and surveying instrument system
CN107533362A (zh) 眼睛跟踪设备和用于操作眼睛跟踪设备的方法
US11116395B1 (en) Compact retinal scanning device for tracking movement of the eye's pupil and applications thereof
JPH11508780A (ja) 視覚情報を並行検出する方法及びそのための装置並びに前記方法の使用方法
JP2006308674A (ja) 画像表示装置
WO2009046763A1 (en) Surveying apparatus for tracking and surveying an object
CN104665763A (zh) 眼科设备以及控制该眼科设备的方法
CN107427208A (zh) 用于通过透镜系统提供无漂移的眼部跟踪的头戴式眼部跟踪设备和方法
US20160041615A1 (en) Information processing apparatus, focus detection method, and information processing system
KR20230003654A (ko) 다중-레이어 뷰잉 시스템 및 방법
US8777410B2 (en) Fundus photographing apparatus with wavefront compensation
JP2020501191A5 (zh)
EP3055730B1 (en) Electronic eyebox
KR101739768B1 (ko) 스테레오 카메라와 협각 카메라를 이용한 원거리 시선 추적 시스템
CN107788946A (zh) 主观式验光装置及主观式验光程序
US10690923B1 (en) Scanning system for a tiling display
KR20130014275A (ko) 디스플레이 화면 제어 방법 및 그를 이용한 영상 표시 기기
KR20180116044A (ko) 증강현실용 디바이스와 그 증강현실 출력 방법
JP6379639B2 (ja) 眼鏡装用パラメータ測定用撮影装置、眼鏡装用パラメータ測定用撮影プログラム
JP2003240548A (ja) トータルステーション

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant