CN104204848B - 具有测距相机的勘测设备 - Google Patents

具有测距相机的勘测设备 Download PDF

Info

Publication number
CN104204848B
CN104204848B CN201380018784.4A CN201380018784A CN104204848B CN 104204848 B CN104204848 B CN 104204848B CN 201380018784 A CN201380018784 A CN 201380018784A CN 104204848 B CN104204848 B CN 104204848B
Authority
CN
China
Prior art keywords
image
user
point
search equipment
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201380018784.4A
Other languages
English (en)
Other versions
CN104204848A (zh
Inventor
波·佩特尔松
克努特·西尔克斯
E·沃伊特
J·辛德林
贝内迪克特·泽布霍塞尔
克劳斯·施奈德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hexagon Technology Center GmbH
Original Assignee
Hexagon Technology Center GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hexagon Technology Center GmbH filed Critical Hexagon Technology Center GmbH
Publication of CN104204848A publication Critical patent/CN104204848A/zh
Application granted granted Critical
Publication of CN104204848B publication Critical patent/CN104204848B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera

Abstract

用于勘测测量场景的勘测设备(1),包括:底座(31),其限定垂直轴;支撑体(32),其可绕垂直轴倾斜;望远镜单元(33),其可绕垂直轴以及绕与垂直轴正交的水平轴倾斜,并包括用于距离测量的装置;电机装置,其用于旋转驱动支撑体(32)和望远镜单元(33);以及角度确定装置,其用于确定望远镜单元(22)相对于底座(31)的取向,其中,望远镜单元(33)包括能够拍摄测量场景的可见图像的第一相机和/或用于捕获测量场景的3D点的坐标的装置,并且勘测设备包括能够分别显示由第一相机所拍摄的可见图像的至少一部分和/或3D点的至少一部分的显示器(3),其特征在于:测距相机特别是RIM相机朝向显示器(3),并能够拍摄位于显示器(3)处的用户(5)的距离图像,其中,设置有控制器,该控制器能够针对由用户(5)的移动引起的改变来分析距离图像,并且能够基于距离图像的改变控制勘测设备(1)执行预定任务。

Description

具有测距相机的勘测设备
本发明涉及一种具有测距相机(range camera)的勘测设备并且涉及一种勘测方法。
在现有技术中诸如全站仪等的多种勘测设备是已知的。各种手段和方法被用于控制这样的全站仪。例如,触摸屏显示器是已知的,以便于在已拍摄了测量场景的图像之后确定测量点。为了确定测量点,用户触摸示出相应点的图像。通过诸如边缘提取的其它手段,能够在图像上更准确地确定和标记例如由用户在该点上轻击他的手指所选择的测量点。然后,例如在单个勘测动作中或在勘测路径过程中的能够进行对选择点的测量或勘测。也就是说,以这种方式也有可能选择多个测量点,例如用于创建测量路径。
在一些情况下测量点的具体确定出现困难,因为一般地与现有技术的勘测设备一起使用的常见显示器是相当小的。因此,测量场景图像的大小同样是相当小的。如果仅示出测量场景图像的一部分,则移动在显示器上示出的图像部分以对应于测量场景的期望区域是很麻烦的。
因此,有必要提供能够使用户所执行的控制步骤更容易的勘测设备和勘测方法。
根据本发明,一种用于勘测测量场景的勘测设备包括:
·捕获装置,所述捕获装置用于捕获测量场景的3D点的坐标,和/或
·第一相机,其能够拍摄测量场景的可见图像。
特别地,勘测设备可以是能够捕获测量场景(特别是点云)的多个3D点的坐标的3D激光扫描器,或是能够捕获测量场景的勘测点的坐标的全站仪。显然,还能够使用全站仪和扫描器的组合。
此外,提供了能够显示可见图像和/或3D点的至少一部分的显示器。如果设置了相机,则显示器优选地能够在由相机所拍摄的可见图像中显示捕获装置所捕获的三维点。优选地,显示器也能够显示测量场景的预先存储的数字陆地模型,并且能够将捕获装置所捕获的3D点叠加在这个模型上。
此外,根据本发明,测距相机朝向显示器并且能够拍摄位于显示器处的用户的距离图像。此外,设置了控制器,该控制器能够针对由用户的移动所引起的改变来分析距离图像,并且能够基于距离图像的改变控制勘测设备执行预定任务。
距离成像一般而言被称为被用来产生示出从特定点到场景中的点的距离的2D图像的技术。得到的图像(其一般地被称作距离图像)具有像素值,该像素值对应于在物体处相应的目标点的距离。
例如,较明亮值意指较短距离或者反之亦然。甚至有可能适当地校准传感器从而产生这样的距离图像,这使得能实现能够以诸如米的物理单位直接地给出像素值。对距离图像的像素(距离像素)中的每一个分配了能够测量距离的一个单独的传感器。因为分配给相应传感器的目标点(像素)的距离是已知的,所以能够确切地确定目标点的3D位置。
因此,通过使用距离成像技术,有可能识别用户操作勘测设备的测量点中的每一个测量点,并且有可能甚至确定每个测量点的3D数据。在这里,用户的测量点可以是诸如手的肢体的末端或指尖。
本发明的措词中术语“距离图像”一般地意指距离图像镜头的序列,但是还能够意指由流式传输测距相机(streaming range camera)所拍摄的距离图像流。
根据本发明,用户通过移动其身体或肢体(诸如臂、腿、手或足)操作勘测设备导致在用户的距离图像中能够确定改变。因为用户肢体的3D位置的改变被控制器辨识,所以能够确定用户的对应移动并且能够执行与这个特定移动相对应的动作或任务。
根据本发明,显示器可以是3D显示器,其能够显示可见图像的所述部分的3D图像。
能够通过任何已知的3D成像方法生成3D图像。特别地该方法可以是以下方法中一种:立体视法(stereoscopy)、自动立体视法、计算机生成全息术或立体显示(volumetric display)技术。
特别地,立体显示技术是优选的,因为在这里在用户与3D图像之间的直接交互可以是可能的。也就是说,通过立体显示技术能够示出3D图像,该3D图像能够从任意侧查看。此外,能够有可能将物体和肢体直接地定位于该3D图像中。因此,尽管3D图像不是真实物体,但是有可能触摸该3D图像。
此外,尽管立体视法对于观看人员来说是不可见的,但是能够在特定情况下使用立体视法。因为这个技术需要特殊眼镜以便用户能够将两个类似的图像视为一个3D图像,所以触摸3D图像一般而言是可能的。然而,为了确定用户正触摸的3D图像的点,用户的眼睛的确切位置必须是已知的,因为被触摸点在3D空间中的坐标取决于用户的位置。
因为3D图像是由控制器产生的,并且显示的物体的所有3D坐标数据点是已知的,所以有可能将这些已知的3D坐标与从距离图像获知的移动用户的3D坐标相比较,以便确定用户是否触摸了3D显示器中的特定物体或目标点。
有利地,能够提供地图,其中与相应的用户移动相对应的距离图像的预定改变被分配给预定任务,并且控制器能够忽视距离图像的未分配的改变。
因为仅仅特定移动被分配给预定任务,所以能够降低计算功率,因为控制器能够立即排除不打算成为给勘测设备的命令的移动。
此外,有利地,学习装置能够被提供来学习与相应的用户移动相对应的距离图像改变,以便被分配给相应的预定任务和/或被存储在地图中。也就是说,根据本发明,对于用户来说有可能定义特定移动并且将这些移动分配给预定任务。此外,有可能将这些移动和所对应的预定任务存储在地图中。因此,能够改进勘测设备的可操作性。
根据本发明,一种使用勘测设备的勘测方法包括:
·用勘测设备捕获测量场景的3D点的坐标和/或用第一相机拍摄测量场景的图像,以及
·将测量场景的图像和/或3D点的至少一部分显示在显示器上。
此外,该方法包括:
·拍摄位于显示器处的用户的距离图像的序列,
·基于该序列中的个体距离图像的改变来分析用户的移动,以及
·控制全站仪执行与用户移动相对应的任务。
因此,根据本发明,因为能够基于由测距相机所拍摄的个体距离图像的改变来分析用户的移动,所以有可能将特定移动分配给勘测设备的对应任务以便控制该勘测设备。因此,没有必要取决于相当小的触摸屏显示器,而是可以用诸如大TV屏或由多个TV屏组成的显示器之类的很大的显示器来显示测量场景的图像的所述部分,同时能够分析用户相对于显示器的移动以用于控制勘测设备。优选地,还可以在显示器上显示数字陆地模型(例如实际测量场景的预先存储的图像和/或点云),并且将数字陆地模型与分别由第一相机或捕获装置所捕获的测量场景的图像或3D点组合。
有利地,正被显示的测量场景的图像和/或3D点的所述部分是3D图像。
有利地,可以在不同的位置设置多个勘测设备以从不同的视点拍摄相同测量场景的图像。在这种情况下,测量场景的图像和/或3D点的所述部分由来自不同的勘测设备的图像中的全部图像的图像信息组成。
以上段落的特征使得能够改进3D图像的质量,因为测量场景是从不同的位置拍摄的。因此,从一个勘测设备不直接地可见的区域能够被其它勘测设备中的一个勘测设备摄影或者勘测。因此,能够改进3D图像的质量。为了在不同的勘测设备之间交换数据,优选地可以采用无线通信方法,诸如无线电或移动网络的使用(例如短消息服务或其它服务)。
能够通过立体视法、自动立体视法、计算机生成全息术或立体显示技术中的一种生成3D图像。
特别地,立体显示技术被优选用于显示3D图像,因为这个技术以如下方式使得能实现用户与图像之间的交互:用户有点能够触摸在3D图像中所显示的物体。
有利地,本发明的方法可以包括学习步骤,其中由特定用户移动所引起的距离图像的改变被分配给预定任务。
这使得用户能够定义特定优选移动以便教导与特定优选移动相对应的勘测设备任务。甚至可以将这些移动和所分配的任务存储在地图中以用于以后使用。
有利地,可以分析测量场景的图像和/或3D点的所述部分并且可以通过使测量场景的图像的所述部分与标记符号相叠加来标记可能的目标点。
因此,当操作勘测设备时,由于测量场景的分析和可能的目标点的标记,用户能够更容易地选择3D图像中的特定目标点。甚至可以执行命令以在所对应的目标点未被适当地分配情况下移动标记。
此外,有利地,由用户所选择的目标点能够使其标记突出,并且预定用户移动能够使得另一目标点也被突出。
另一目标点可以是在3D图像中所显示的目标点中的任一个目标点,即,首先突出的目标点的相邻目标点或更遥远的目标点。此外,通过一个接一个地突出多个目标点,能够定义用于执行后续测量的测量路径。也可以区分对标记中的一些或全部标记的突出,以便从测量路径去除目标点。
有利地,预定用户移动能够引起测量场景的图像和/或3D点的所述部分的增加或减少。此外或另选地,另外的用户移动能够引起测量场景的图像和/或3D点的所述部分的旋转。
从而有可能放大或缩小3D图像。此外,为了易于对特定物体的访问,可以使3D图像旋转。特别地如果提供了多个勘测设备,则易于该旋转。如果仅提供了一个勘测设备,则不能够适当地显示对于一个勘测设备不可见的区域。
将在下文中通过参照附有图的示例性实施方式详细地描述本发明,在图中:
图1a和1b是作为根据本发明的勘测设备的两个示例性实施方式的全站仪和激光扫描器的示意图;
图2是显示有根据本发明的勘测设备的测量场景的示意图;
图3a和3b是执行特定移动的用户的RIM图像的示意图像;
图4是用户使用2D图像操作全站仪的示意图;以及
图5是用户使用3D图像操作全站仪的示意图。
将基于图1至5对本发明的优选实施方式进行描述。
图1a示出了作为根据本发明的勘测仪器的第一实施方式的全站仪。所描绘的示例性全站仪适于测量到远程目标物体的水平及垂直角度和距离。
全站仪设置在三脚架36上,全站仪的底座31直接地固定于三脚架36上。全站仪的主要部分30相对于底座31是可旋转的。主要部分30包括支撑体32,在该示例性实施方式中由两个柱状物形成。在柱状物之间望远镜单元33绕水平轴被可倾斜地支承。此外,主要部分30包括显示器和控制装置35,控制装置35能够以已知方式适合于控制全站仪并且用于处理、显示以及存储测量数据。
望远镜单元33被绕水平轴可倾斜地布置于支撑体32上并且因此能够相对于底座31水平地和垂直地旋转。设置电机装置(未示出)用于执行所需要的倾斜移动,用于望远镜单元33的对准。
望远镜单元33能够被构建为组件单元,其中,光学系统、同轴相机传感器、目镜34以及图形处理器被集成在公共望远镜单元外壳中。望远镜单元33能够瞄准目标物体使得能够借助于电子传感器检测从全站仪到目标物体的距离。此外,设置电子传感器装置(未示出)用于检测主要部分30相对于底座31的和望远镜单元33相对于支撑体32的角取向。数据被发送到显示器和控制装置35并且被处理使得目标点相对于全站仪的位置可由显示器和控制装置35检测、显示和存储。
图1b示出了作为根据本发明的勘测仪器的第二实施方式的激光扫描器的截面图。所描绘的示例性激光扫描器包括定子41、被安装在定子42上以可绕第一旋转轴旋转的转子42以及被安装在转子42上以可绕第二旋转轴旋转的旋转体43。在转子42中布置了激光源44和检测器45。在旋转体43的两侧在转子42与旋转体43之间以这样一种方式在第二旋转轴上提供光链路46a、46b,即发射光可以通过激光源44经由第一光链路46a引入到旋转体43中并且接收光能够经由第二光链路46b从旋转体43射出。第一旋转驱动器47a驱动转子42并且第二旋转驱动器47b驱动旋转体43。被连接到激光源44和检测器45的两个测角仪48和评估电子装置49允许使检测到的距离与对应的方向相关联。显然,例如具有反射镜而不是带光链路的旋转体的其它形式的3D激光扫描器也是同样地适当的。
到目前为止,图1a和图1b中所示出的勘测仪器是从现有技术获知的。根据本发明,附加地提供了显示器和测距相机(未示出)。测距相机朝向显示器并且能够拍摄位于显示器处的用户的距离图像。
图2是测量场景的示意图。该测量场景中的主要物体是教堂7、房屋9、树11以及山峰13。全站仪1作为勘测设备的示例而被提供,全站仪1包括用于拍摄测量场景的实像的第一相机。此外,全站仪1提供有测距相机,特别是RIM相机。
测距相机指向靠近全站仪1定位的显示器3并且拍摄距离图像的序列。位于显示器3处的用户5的移动能够被确定为由测距相机所拍摄的距离图像中的改变。
出于这个目的,在全站仪1中设置的控制单元能够确定用户5的特定移动并且使全站仪1执行特定勘测任务和其它任务。将在下面对这些任务中的一些进行描述。
因此,通过移动他的肢体或者执行其它移动,用户5能够给出命令以便控制全站仪1。在该图像中,基于六个亮度级显示所测量到的距离。亮度级1表示以该亮度级所显示的点是最接近的,而亮度级6表示所对应的显示点是距离最远的。
图3a示出了站在能够被显示的范围中间附近的用户5的初始位置。因此,显示用户5的图像具有亮度级4。
图3b示出的改变在于用户5朝着水平位置降低其左臂并且将左臂向后移动。此外,用户5向下向前充分移动了其右臂。因此,用户5的左手与全站仪1中的RIM相机相距最远并且与左手相对应的距离图像的像素是很暗的(亮度级6)。相比之下,用户5的右手很靠近全站仪1中的RIM相机,并且因此,与其左手相对应的像素是很亮的(亮度级1)。
因此,通过基于距离图像的改变来确定用户的移动,控制器发出特定命令以便使全站仪1执行各种动作和/或勘测任务。例如,用户能够定义测量路径,能够定义附加的测量点,能够放大图像或者缩小图像,能够切换由附加的全站仪所拍摄的图像或者能够退出测量。
为了通过用户5来执行准确的控制并且为了防止错误地给出的命令,在距离图像中与由虚线所标记的控制区15相对应的特定部分被定义。为了确定用户5的移动,用户5必须存在于这个控制区15中。因此,如果用户5走出控制区15,尽管用户5姿势的改变在距离图像中可以仍然可见,但控制器将忽视改变,并且因此,全站仪1将不对用户5的命令起反应。
优选地,控制区15可以为处于小平台或凹地的形式。
在图3a和3b中,白色域对应于超出RIM相机的测量范围的点。
图4示出了以二维方式显示图1的测量场景的显示器3。用户5靠近显示器3定位,以便能够指向被显示的物体。例如,用户可以指向教堂7的顶部、指向树、指向房屋9或者指向山峰13。
如在这个实施方式中的情况一样,二维显示器中的呈现甚至使得能够示出诸如房屋17或牵引机19的移动元素。因此,例如还能够显示在预定位置处的勘测杆并随后移动到另一位置的人员21。为了能够实现移动元素的显示,在勘测设备1中的第一相机不得不拍摄图像流,所述图像流然后被显示在显示器3上。
因为用户5位于显示器3处,所以他处于用一只手指向选择的目标点的位置。该移动由于用户的距离图像的改变而被识别。因为用户的手的3D位置是确切地已知的,所以它能够被分配给显示器3中的对应像素。因此,可以确切地确定用户5正指向的物体。通过移动他的其它臂,用户5能够启动动作,诸如通过图像中的标记23、25、27来标记所选择的目标点。此外,特定类似的移动用于通过附加的标记来标记其它目标点。然后,用户能够沿着勘测路径,例如沿着标记23、25、27,来启动勘测动作。
其它可能的动作为放大图片或者缩小图片、去除标记、转移标记等。如果在不同的位置处提供了多个全站仪,则通过特定移动用户能够启动从一个全站仪的视图到另一全站仪的视图的切换。也可以将显示器3中的图像分割为两个或更多个图像,以便同时显示不同的全站仪的图像。
取代使用第一相机的实际图像,也可以使测量场景的预先存储的数字陆地模型显示在显示器3上,并且可以将测量点叠加在模型上。
图5示出了一个实施方式,其中显示器是3D显示器。存在一些可用的3D显示技术,诸如立体视法、自动立体视法、计算机生成全息术或立体显示技术。在该实施方式中,优选地使用利用体素(voxel)的3D技术。在3D显示技术中,体素(立体像素)是与2D图像中的像素相对应的三维对象点。
尽管以体素的形式提供3D图像付出技术努力,但这个技术具有用户能够直接地触摸3D图像中的物体的优点。采用其它种类的3D技术,这将不是可能的。
图5中的显示器3显示了图2的测量场景。为了获得用于3D显示的数据,能够采用诸如立体视法、自动立体视法、计算机生成全息术或立体显示技术或距离成像等的已知技术。在距离成像情况下,第二测距相机将被用于获得测量场景的3D数据。
如针对图4所描述的那样,通过触摸3D显示中的物体,用户5能够标记特定目标点,能够例如经由选择的勘测路径来启动勘测动作,或甚至能够放大或缩小3D图像。此外,用户也能够引起3D图像的旋转。为了显示对于全站仪不可见的区域,有利地,可以在不同的位置提供附加的全站仪。
虽然图4的描述涉及2D显示,但是应当注意的是,如果提供了立体摄影技术,在这里甚至以3D方式进行显示也是可能的。也就是说,通过提供相同场景的两个图像(其中图像轴稍微不同),例如如果用户从特定角度观看显示器或者戴特殊眼镜,能够得到三维效果。
在这种情况下可以给予用户3D显示,尽管从外面观看显示器的另一个人将仅仅看到相对于彼此移位的两个图像。然而,用户具有清晰3D图像并且甚至能够与3D图像交互,像与基于立体显示技术的3D图像的情况那样。
虽然已经参照目前优选的实施方式描述了本发明,但是应当注意的是,本发明的范围由所附权利要求限定。

Claims (23)

1.一种用于勘测测量场景的勘测设备(1),该勘测设备包括:
·底座(31),所述底座(31)限定垂直轴;
·支撑体(32),所述支撑体(32)能够绕所述垂直轴倾斜;
·望远镜单元(33),所述望远镜单元(33)能够绕所述垂直轴以及绕与所述垂直轴正交的水平轴倾斜,并且包括用于进行距离测量的装置;
·电机装置,所述电机装置用于旋转驱动所述支撑体(32)和所述望远镜单元(33);以及
·角度确定装置,所述角度确定装置用于检测所述望远镜单元(33)相对于所述底座(31)的取向,
其中,
·所述望远镜单元(33)包括能够拍摄所述测量场景的可见图像的第一相机和/或用于捕获所述测量场景的3D点的坐标的装置,并且
·所述勘测设备包括能够分别显示所述第一相机所拍摄的可见图像的至少一部分和/或所述3D点的至少一部分的显示器(3),
其特征在于:
测距相机朝向所述显示器(3),并且能够拍摄位于所述显示器(3)处的用户(5)的距离图像,其中,设置有控制器,所述控制器能够:
·针对由所述用户(5)的移动所引起的改变来分析所述距离图像,并且
·基于所述距离图像的改变控制所述勘测设备(1)执行预定勘测任务。
2.根据权利要求1的所述的勘测设备(1),
其特征在于:
所述显示器(3)是能够分别显示所述可见图像和/或所述3D点的所述部分的3D图像的3D显示器。
3.根据权利要求1所述的勘测设备(1),
其特征在于:
所述测距相机是RIM相机。
4.根据权利要求2所述的勘测设备(1),
其特征在于:
所述3D图像由立体视法生成。
5.根据权利要求2所述的勘测设备(1),
其特征在于:
所述3D图像由自动立体视法生成。
6.根据权利要求2所述的勘测设备(1),
其特征在于:
所述3D图像由计算机生成全息术生成。
7.根据权利要求2所述的勘测设备(1),
其特征在于:
所述3D图像由立体显示技术生成。
8.根据权利要求1或2所述的勘测设备(1),
其特征在于:
所述显示器(3)能够显示所述测量场景的数字陆地模型。
9.根据权利要求1或2所述的勘测设备(1),
其特征在于:
设置有地图,其中与相应的用户移动相对应的距离图像的预定改变被分配给预定任务,并且所述控制器能够忽视距离图像的未分配的改变。
10.根据权利要求1或2所述的勘测设备(1),
其特征在于:
设置有学习装置,用于学习与相应的用户移动相对应的距离图像改变,以便被分配给相应的预定任务和/或被存储在地图中。
11.根据权利要求1或2所述的勘测设备(1),
其特征在于:
所述勘测设备(1)是全站仪。
12.一种使用勘测设备(1)的勘测方法,所述勘测设备(1)包括:
·底座(31),所述底座(31)限定垂直轴;
·支撑体(32),所述支撑体(32)能够绕所述垂直轴倾斜;
·望远镜单元(33),所述望远镜单元(33)能够绕所述垂直轴以及绕与所述垂直轴正交的水平轴倾斜,并且包括用于进行距离测量的装置;
·电机装置,所述电机装置用于旋转驱动所述支撑体(32)和所述望远镜单元(33);以及
·角度确定装置,所述角度确定装置用于检测所述望远镜单元(33)相对于所述底座(31)的取向,
所述方法包括以下步骤:
·用第一相机拍摄测量场景的图像和/或捕获测量场景的3D点的坐标,以及
·分别将所述测量场景的图像和/或3D点的至少一部分显示在显示器(3)上,其特征在于:
·拍摄位于所述显示器(3)处的用户(5)的距离图像的序列,
·基于所述距离图像序列中单独的距离图像的改变来分析所述用户(5)的移动,以及
·控制所述勘测设备(1)执行与用户移动相对应的勘测任务。
13.根据权利要求12所述的勘测方法,
其特征在于:
所述测量场景的图像和/或3D点的所述部分分别是3D图像。
14.根据权利要求12所述的勘测方法,
其特征在于:
所述测量场景的图像和/或3D点的所述部分分别是3D图像,以用户能够访问图像点的方式进行显示。
15.根据权利要求12或13所述的勘测方法,
其特征在于:
在不同的位置处提供多个勘测设备(1),以从不同的视点拍摄相同测量场景的图像和/或3D点,并且其中,所述测量场景的图像和/或3D点的所述部分分别由分别来自不同的勘测设备(1)的所有图像和/或3D点的图像信息和/或3D点信息组成。
16.根据权利要求13所述的勘测方法,
其特征在于:
通过自动立体视法生成所述3D图像。
17.根据权利要求13所述的勘测方法,
其特征在于:
通过计算机生成全息术生成所述3D图像。
18.根据权利要求13所述的勘测方法,
其特征在于:
通过立体显示技术生成所述3D图像。
19.根据权利要求12或13所述的勘测方法,
其特征在于:
还包括学习步骤,其中将由特定的用户移动所引起的所述距离图像的改变分配给预定任务。
20.根据权利要求19所述的勘测方法,
其特征在于:
分析所述测量场景的图像的所述部分,并通过使所述测量场景的图像的所述部分与标记符号叠加来标记可能的目标点(23,25,27)。
21.根据权利要求12或13所述的勘测方法,
其特征在于:
突出与选择的目标点相对应的标记(23,25,27),并且预定的用户移动导致突出第二目标点的标记。
22.根据权利要求12或13所述的勘测方法,
其特征在于:
预定的用户移动导致所述测量场景的图像的所述部分的大小增加或减少,和/或导致所述测量场景的图像的所述部分的旋转。
23.根据权利要求12或13所述的勘测方法,
其特征在于:
在所述显示器(3)上显示所述测量场景的数字陆地模型。
CN201380018784.4A 2012-05-07 2013-05-02 具有测距相机的勘测设备 Active CN104204848B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP12167004.6 2012-05-07
EP12167004.6A EP2662705A1 (en) 2012-05-07 2012-05-07 Surveying apparatus having a range camera
PCT/EP2013/059195 WO2013167472A1 (en) 2012-05-07 2013-05-02 Surveying apparatus having a range camera

Publications (2)

Publication Number Publication Date
CN104204848A CN104204848A (zh) 2014-12-10
CN104204848B true CN104204848B (zh) 2016-10-05

Family

ID=48289178

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380018784.4A Active CN104204848B (zh) 2012-05-07 2013-05-02 具有测距相机的勘测设备

Country Status (4)

Country Link
US (1) US9683833B2 (zh)
EP (2) EP2662705A1 (zh)
CN (1) CN104204848B (zh)
WO (1) WO2013167472A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9234742B2 (en) 2013-05-01 2016-01-12 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
US9113154B2 (en) 2013-07-10 2015-08-18 Faro Technologies, Inc. Three-dimensional measurement device having three-dimensional overview camera
US20150042789A1 (en) * 2013-08-07 2015-02-12 Blackberry Limited Determining the distance of an object to an electronic device
KR20150057064A (ko) * 2013-11-18 2015-05-28 엘지전자 주식회사 전자 다바이스 및 그 제어방법
CN106248052A (zh) * 2016-06-27 2016-12-21 北京林业大学 一种望远镜协同智能手机及电子测距仪远程摄影测算方法
DE102016119155A1 (de) * 2016-09-15 2018-03-15 Zoller + Fröhlich GmbH Laserscanner
CN107238920B (zh) * 2017-05-04 2020-04-14 深圳市元征科技股份有限公司 一种基于望远镜设备的控制方法及装置
EP3614173A1 (en) * 2018-08-20 2020-02-26 Leica Geosystems AG Surveying device with automatic training of locked object or person for camera based target tracking
AU2019459696A1 (en) * 2019-07-31 2022-03-10 Virtualine Pty Ltd System for aligning an item along a path in an area
CN112066899A (zh) * 2020-08-31 2020-12-11 中铁大桥局第七工程有限公司 一种桥梁吊耳轴心测量装置及测量方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8018579B1 (en) * 2005-10-21 2011-09-13 Apple Inc. Three-dimensional imaging and display system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
JP4004316B2 (ja) * 2002-03-20 2007-11-07 株式会社トプコン 測量装置及び測量装置を用いて画像データを取得する方法
CA2502012C (en) * 2002-10-12 2012-07-10 Leica Geosystems Ag Electronic display and control device for a measuring device
EP1460377A3 (de) * 2003-03-21 2004-09-29 Leica Geosystems AG Verfahren und Vorrichtung zur Bildverarbeitung in einem geodätischen Messgerät
DE10359415A1 (de) * 2003-12-16 2005-07-14 Trimble Jena Gmbh Verfahren zur Kalibrierung eines Vermessungsgeräts
JP4900741B2 (ja) * 2010-01-29 2012-03-21 島根県 画像認識装置および操作判定方法並びにプログラム
US20120056989A1 (en) * 2010-09-06 2012-03-08 Shimane Prefectural Government Image recognition apparatus, operation determining method and program
EP2431708A1 (de) * 2010-09-16 2012-03-21 Leica Geosystems AG Geodätisches Vermessungssystem mit in einer Fernbedieneinheit integrierter Kamera
CA2868276A1 (en) * 2011-03-23 2013-09-27 Mgestyk Technologies Inc. Apparatus and system for interfacing with computers and other electronic devices through gestures by using depth sensing and methods of use

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8018579B1 (en) * 2005-10-21 2011-09-13 Apple Inc. Three-dimensional imaging and display system

Also Published As

Publication number Publication date
EP2847616A1 (en) 2015-03-18
US9683833B2 (en) 2017-06-20
EP2662705A1 (en) 2013-11-13
CN104204848A (zh) 2014-12-10
EP2847616B1 (en) 2018-08-15
WO2013167472A1 (en) 2013-11-14
US20150085110A1 (en) 2015-03-26

Similar Documents

Publication Publication Date Title
CN104204848B (zh) 具有测距相机的勘测设备
US10366511B2 (en) Method and system for image georegistration
JP6484587B2 (ja) カメラの空間特性を決定する方法及びシステム
US10217288B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US10204454B2 (en) Method and system for image georegistration
KR101835434B1 (ko) 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
US9667862B2 (en) Method, system, and computer program product for gamifying the process of obtaining panoramic images
CN107402000A (zh) 用于相对于测量仪器参照显示装置的系统和方法
US9325861B1 (en) Method, system, and computer program product for providing a target user interface for capturing panoramic images
JP2006244329A (ja) 携帯端末および情報処理装置、システム
CN110377148A (zh) 计算机可读介质、训练对象检测算法的方法及训练设备
US10893190B2 (en) Tracking image collection for digital capture of environments, and associated systems and methods
CN110168615A (zh) 信息处理设备、信息处理方法和程序
KR101703013B1 (ko) 3차원 스캐너 및 스캐닝 방법
US11321864B1 (en) User guided mode for measurement purposes
CN113870213A (zh) 图像显示方法、装置、存储介质以及电子设备
KR20130142533A (ko) 스마트폰 실측기
Piérard et al. I-see-3d! an interactive and immersive system that dynamically adapts 2d projections to the location of a user's eyes
EP3903285B1 (en) Methods and systems for camera 3d pose determination
KR101153127B1 (ko) 스마트 폰의 지리정보 표시장치
JP2013214203A (ja) 撮像装置、撮像制御方法、及びプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant