CN109840950A - 真实尺寸3d模型聚集 - Google Patents

真实尺寸3d模型聚集 Download PDF

Info

Publication number
CN109840950A
CN109840950A CN201811406728.9A CN201811406728A CN109840950A CN 109840950 A CN109840950 A CN 109840950A CN 201811406728 A CN201811406728 A CN 201811406728A CN 109840950 A CN109840950 A CN 109840950A
Authority
CN
China
Prior art keywords
line segment
visual pattern
visual
model
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811406728.9A
Other languages
English (en)
Other versions
CN109840950B (zh
Inventor
伯恩哈德·麦茨勒
T·海勒
S·维尔特切
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leica Geosystems AG
Original Assignee
Leica Geosystems AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Geosystems AG filed Critical Leica Geosystems AG
Publication of CN109840950A publication Critical patent/CN109840950A/zh
Application granted granted Critical
Publication of CN109840950B publication Critical patent/CN109840950B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/30Interpretation of pictures by triangulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

真实尺寸3D模型聚集。本发明涉及一种对3D场景进行三维勘测以得到真实尺寸3D模型的方法。该方法涉及以下步骤:连同捕捉至少一个第一2D视觉图像一起得到3D场景的区段的第一3D部分模型,并且连同捕捉至少一个第二2D视觉图像一起得到3D场景的另一区段的第二3D部分模型,其中,3D部分模型部分重叠。聚集第一3D部分模型与第二3D部分模型聚集,以形成3D场景的3D模型,其通过在第一2D视觉图像中定义第一线段并且在第二2D视觉图像中定义第二线段来进行,该第一线段和第二线段表示第一2D视觉图像和第二2D视觉图像这两者中共同的视觉特征。2D视觉图像中的线段用于聚集对应的3D部分模型,以形成整个3D场景的3D模型。

Description

真实尺寸3D模型聚集
技术领域
本发明总体涉及用于生成真实世界场景的真实尺寸或3D模型的方法和装置、以及根据本发明的对应辅助工具和计算机实施方案。
背景技术
许多用途需要对真实世界3D场景(诸如例如,房间、大厅、建筑物、物体或其部分)进行测量。具体地,许多施工测量、施工工程任务、工地坐标、建筑信息管理(BIM)系统、安装工程、装饰、木工等依赖已经施工部分的测量,已经施工部分在这里通常被称为3D场景。虽然木折尺、分度器、水准仪、铅锤等越来越多地被例如电子测距仪(诸如DISTO)、倾斜传感器、激光衬垫等的电子测量装置代替,但在实际重构适于施工工程任务的3D场景的足够准确的3D模型中仍然存在大量劳动。这种装置的示例例如可以在EP 2051102或US 7568289中找到。同样并不少见的是忘记一些测量,仅实现在稍后阶段中重要的一些测量,或者一些测量结果是模糊的,因此,必须重复现场测量。
有例如在US 9752863或US 2012/188559中的激光扫描仪的装置,这些装置能够测量或勘测整个3D场景,但是这些装置不仅昂贵而且对于普通技术人员太复杂而不能处理,而且测量结果的测量和评价经常太复杂且仅可以由高技能技术人员或工程师来进行。
用于3D捕捉的较简单方案,像用于计算机游戏和娱乐环境,例如Kinect装置中或如在US 8587583中,不适于高准确性的绝对测量,因为经常需要大约1cm或优选甚至以下的准确性的施工工程。因为这种娱乐装置的3D捕捉不是尺寸准确的(无论如何对于它们的预期用途也根本不需要),所以这些3D捕捉不能如在施工工程的当前范围内期望的得到场景的真实尺寸或尺寸稳定的3D模型。
因此,目的在于改善得到要测量或勘测的3D场景的真实尺寸3D模型,具体以对于施工工程足够准确、鲁棒且容易处理的方式。这种目的具体通过提供实现这种目的的装置和/或方法来实现。
目的的一部分还可以是测量准确性不遭受需要多个不同记录来捕捉整个3D场景的影响。
目的还是提供一种通过提供计算机程序产品来快速并且直观地实现这一点的方式,由该计算机程序产品,可以生成这种3D模型,特别是在需要多个记录来覆盖整个期望3D场景的时候。
人在本性上大多数是基于视觉的。因此,假定被给予了测量或勘测场景(例如,房间、大厅、建筑物或物品)的任务,他/她较喜欢具有如摄像头的装置,示出他/她实际捕捉的内容的2D图像。虽然科技已经达到了(至少在理论上)就技术而言可以进行纯基于3D的场景捕捉的程度,但相比于复杂的3D视图,人类技术人员通常仍然偏好简单平坦2D照片视图。另一方面还在于已经良好创建了并已知2D屏幕,而很少使用真实3D屏幕,例如因为真实3D屏幕在技术上复杂、不这么非常先进、在能力上有限、昂贵、并且要求例如特殊目镜、面甲等附件。
因此,根据本发明的方面,用于3D场景(尽管实际上用于得到场景的3D模型)的这种勘测或测量系统基于呈献给操作员的2D照片和2D视图。
最直观地的是技术人员拍摄房间各个墙壁的照片(或在该墙壁未完全拟合在单个照片的视场(FOV)内时,为墙壁的多个连续照片的序列)。直观地,他将几乎总是尝试在图像边缘处的捕捉墙壁角部的小部分。
存在已知计算系统,这些计算系统自动拼接多个照片以形成全景视图,但这些计算系统依赖照片的相当大的交叠,通常大约为照片的一半或三分之一。然而,对于技术人员,拍摄具有这么大交叠的照片不直观,特别是在他的思维能够良好地组合具有远远较低交叠的照片的时候。然而,已知全景拼接方案当在此基础上工作时不能很好地胜任或易于出错。在其他情况下,墙壁的角部或边缘在照片中甚至不可见,例如由于房间中的物体到摄像头的距离短以及将由于极广角物镜引起的不期望失真的问题。
因此,根据本发明的另外方面,这种用于3D场景的勘测或测量系统必须补偿并且与用户直观行为协调,并且提供给用户对于人类思维而言(甚至是对于未经培训的操作员)直观的解决方案。
简单方案将是以实际存在所捕捉照片的足够交叠的方式,实际仅给用户提供由硬件系统实际捕捉的真实视场的有限部分,即使在被提供给用户的有限视图中由用户选择的交叠将不足的情况下,但这不是本发明的主要核心。
发明内容
根据本发明,这些目的可以通过提供对3D场景进行三维勘测以得到真实尺寸3D模型的装置和/或方法来解决。这涉及得到3D场景的区段的第一3D部分模型连同的捕捉至少一个对应的第一2D视觉图像。因为不覆盖期望3D场景的整体,所以还涉及得到3D场景的另一区段的第二3D部分模型连同捕捉至少一个与其对应的第二2D视觉图像。这些捕捉可以从不同视点和/或关于不同视向来建立,其中,3D部分模型部分交叠,例如,少于50%,少于30%或仅大约5%或10%。根据本发明,然后聚集第一3D部分模型与第二3D部分模型以形成3D场景的3D模型,这通过在第一2D视觉图像中定义第一线段并且在第二2D视觉图像中定义第二线段来进行,该第一线段和第二线段表示2D视觉图像中的视觉特征,优选地为在两个2D视觉图像中公共的视觉特征,或者这些线段在2D视觉图像之间具有已定义的几何关系或约束。2D视觉图像中的第一线段和第二线段用于聚集或组合对应的3D部分模型以形成整个3D场景的3D模型。例如,在聚集中应用几何限制,例如在聚集中固定一个或更多个自由度。
在内容中,根据本发明的聚集在借助于2D视觉图像定义的线段的帮助下来进行,而不是直接在3D部分模型本身中进行。
换言之,本发明涉及一种对3D场景进行三维测量或勘测以得到3D场景的真实尺寸3D模型的方法。3D模型因此是尺寸稳定的,因为它是可以被进行尺寸测量的3D模型,例如,至少几厘米、优选为几毫米甚至以下的准确性的3D模型的缩放尺寸和/或角度测量。具体地3D场景可以被实施为室内场景,像房间、大厅等,因为以上讨论的视场限制然后处于主导,但本发明还可以可选地应用于室外场景。
方法包括以下步骤:得到3D场景的区段的第一3D部分模型,具体地该区段为不完整区段,该得到步骤包括捕捉至少一个第一2D视觉图像,该第一2D视觉图像对应于第一3D部分模型。方法还包括以下步骤:得到3D场景的区段的第二3D部分模型,具体地该区段为另一不完整部分,该得到步骤包括捕捉至少一个第二2D视觉图像,该第二2D视觉图像对应于第二3D部分模型、遵循第二3D部分模型或与其相关。其中,第二3D部分模型与第一3D部分模型不同,例如,它可以来自不同视点和/或具有不同视向。
其中,第一3D部分模型和第二3D部分模型并且相应的对应2D视觉图像至少部分交叠,在许多情况下仅在一小部分中交叠,例如低于它们视场的30%、低于20%或低于10%。
方法然后包括以下步骤:将第一3D部分模型与第二3D部分模型聚集或组合,以形成期望测量的整个3D场景的3D模型。根据本发明,其通过在第一2D视觉图像中定义第一线段并且在第二2D视觉图像中定义第二线段来进行。第一线段和第二线段表示2D视觉图像中的视觉特征或视觉特征的区段。优选地,视觉特征是在第一2D视觉图像和第二2D视觉图像这两者中公共的视觉特征,具体地其中,第一线段和第二线段在同一视觉特征处至少部分重合或交叠,例如,在第一2D视觉图像和第二2D视觉图像的交叠部分中和/或在同一视觉特征的延伸中。视觉特征还可以定义除了为同一视觉特征之外的已定义几何约束,例如正交、平行、处于已定义角度、在同一平面中等。
利用或采用在第一2D视觉图像和第二2D视觉图像各自内的从而定义的一个或更多个第一线段和第二线段来聚集或组合对应的第一3D部分模型与第二3D部分模型以形成3D场景的3D模型,例如通过从而为3D部分模型的聚集提供几何限制,该几何限制借助于第一2D视觉图像和第二2D视觉图像中的线段来定义。
例如,根据本发明,在第一摄像头照片中,定义第一线段,并且在第二摄像头照片中,定义第二线段,其中,第一线段和第二线段是在两个照片中公共的可视线特征的区段,例如,边特征或角特征。具体地,第一线段和第二线段可以至少部分一致或交叠。在另一实施方式中,第一线段和第二线段还可以仅与同一视觉特征有关或与彼此至少具有已知的几何关系的特征有关。
方法例如还可以附加地包括:
○除了第一线段和第二线段,还在第一2D视觉图像和第二2D视觉图像(两者)内定义第一线段和第二线段的一个公共点,具体地末端点或锚点;或者
○除了第一线段和第二线段,还在第一2D视觉图像和第二2D视觉图像(两者)内定义第一线段和第二线段的两个公共末端点;或者
○除了第一线段和第二线段,还在第一2D视觉图像和第二2D视觉图像(两者)内定义公共平面的至少一个部分,具体地其中,至少两个线段在公共平面上展开,优选地公共平面为水准面;或者
○除了第一线段和第二线段之外,还在第一和第二2D视觉图像(两者)内定义至少一个公共奇异点;或者
○上述各项中的至少两项的组合。
在方法中,可以定义两个或更多个互连的第一线段或第二线段的组。例如,其用于形成2D视觉图像中包括的几何特征的模板或施工工程特征的模板,具体地为已知几何特征的模板,已知几何特征例如门、窗、桌子、角部、踢脚板等,优选地该模板具有已定义的几何特性,如平行线、右边、角、为水平等。
在该方法中,定义第一线段或第二线段的步骤可以通过将图形线符号图形地叠加在2D视觉图像上来进行。具体可以包括通过用户交互而将线符号在2D视觉图像上对准的控件和/或操控符。例如,第一线段和/或第二线段可以包括至少两个操控符,该至少两个操控符可在2D视觉图像内移动,用于使所述线段与2D视觉图像内的例如边缘或线特征叠合。在特定实施方式中,还可以2D虚拟图像与所述线段叠合的部分提供自动缩放。线段的标记不仅可以通过提供操控符来进行,另选或另外地还可以通过由鼠标、由非接触输入装置等用笔或手指在触敏显示器上绘制或拖动线来进行。在本发明的实施方式中,可以存在可以由用户或通过用户交互来在2D视觉图像中设置的不同类型的特征标记。这些类型的特征可以对应于在图像中给出的几何特征,其中,不同类型可以与一个或更多个自由度对应,该一个或更多个自由度由该类型的特征来定义并且可以用作聚集3D部分模型中的基准。特征的类型可以由表示这些特征的具体符号在视觉图像中例示或可选地还在3D视图中例示。例如:
-线可以用于固定多达两个平移自由度和两个旋转自由度,
-具有一个已定义末端点的线段可以用于固定多达三个平移自由度和两个旋转自由度,
-具有两个已定义末端点的线段可以用于固定多达三个平移自由度和两个旋转自由度以及尺度,
-点可以用于固定多达三个平移自由度,
-平面或由平面定义的法向向量可以用于固定多达一个平移自由度和多达两个旋转自由度,
其中,还可以使用其他几何图元或图元的组合。通过组合多个这种特征,通常可以固定全部6个自由度。
其中,这些类型的特征例如可以从菜单选择,或者它们可以从侧边栏拖动至图像内的对应位置。同样,触摸(或非接触)输入系统的手势识别可以用于区分不同类型的特征。例如,轻敲可以定义点,拖动可以定义线,(至少近似)圆圈可以指代平面或用于定义平面的法向向量等。在另一实施方式中,系统还可以提供在所捕捉的2D和/或3D数据中自动或半自动检测潜在几何特征。除了完全自动化尝试之外,优选选项可以提供由用于检测特征的2D图像和/或3D数据的数字处理(诸如机器学习检测器、图像处理算法、边缘检测等)得到的特征的交互建议。
根据本发明的另一个实施方式可以包括标记2D图像的区段,例如通过在触摸屏上轻敲,系统然后针对该区段及其附近执行用于检测潜在几何特征(如边缘、角部、平面等)的自动分析,之后是在轻敲位置处提供几何特征的提议,例如通过在示出2D图像的屏幕上的相应指示来进行。
方法还包括以下步骤:将第一线段或第二线段自动咬合到视觉图像特征,视觉图像特征诸如2D视觉图像中的边特征或角特征。具体地,边特征或角特征可以由自动模式识别单元来得到。例如,可以以2D照片的亚像素分辨率得到自动精细咬合,例如当定义步骤包括由人工智能计算单元等自动标识至少一个视觉特征的潜在候选以对齐线段中的一个线段时。在不需要操作员用手建立高度准确对齐的情况下,可以存在至少一个线段到这种自动标识的2D视觉图像特征的自动精细咬合,例如,对于2D视觉图像中的一个内的至少一个线段的良好对齐。例如,线段可以由边缘提取和/或线拟合算法从2D图像以子像素准确性得到。另外或另选地,对齐还可以应用于3D部分模型中,例如包括选择或标记2D图像中的特征,但通过到3D部分模型中的几何特征的咬合来进行。3D部分模型中的这种几何特征例如可以是由两个平面的平面拟合和交叉得到的线段、由两个平面的平面拟合和交叉形成的点等。因为存在2D视觉图像和3D部分模型的已知基准,虽然拟合是至少部分在3D模型中进行的,所以在用户侧进行的特征的视觉标记和处理仍然可以在2D视觉图像表示中进行。
在该方法中,第一线段和第二线段还可以被指派给虚拟平面视图中的对应特征,虚拟平面视图诸如楼面平面图、地图等。这可以包括在3D场景中的预给定2D或3D数字楼面平面图中另外定义线段,如在2D图像中定义的线段。具体地,其中,数字楼面平面图仅可以近似或不按比例,例如仅定义形状,而不定义房间的尺寸。因为楼面平面图也是虚拟生成的2D图像,所以可以应用对于2D视觉图像相同的原理。例如,这种楼面平面图可以包括已定义线段的几何限制,例如线段之间的角度依赖性。
相对于另外的线段、点或面,该第一线段或该第二线段可以设置有定义的角度约束或其他几何关系。具体地,这种约束可以定义垂直性或平行性。
在包括虚拟平面图的实施方式中,这种角度约束可以从虚拟平面图得到,优选地自动得到。
对于该方法,用于得到第一3D部分模型的视点和/或视向可以与用于得到第二3D部分模型的视点和/或视向不同,这意味着可以在3D场景周围任意移动捕捉装置,并且不需要具有如对于拍摄全景照片常见的大致单个视点。
根据本发明的方面,通过在第一2D视觉图像内定义第一线段,通过由数字图像处理单元自动识别第一2D视觉图像和第二2D视觉图像内的类似特征,还可以可选地在第二2D视觉图像内自动定义第二线段。
在本发明的实施方式中,可以由立体摄像头、三角测量或结构化光结构来实现捕捉3D部分模型的处理,其中,由立体摄像头、三角测量或结构化光结构的摄像头来捕捉对应的2D视觉图像。可以从至少两个不同视点由立体2D成像进行得到第一3D部分模型,产生作为基础的立体的一对2D视觉图像,关于该对2D视觉图像得到3D部分模型,并且其中,这些立体的一对2D视觉图像中的至少一个在定义至少一个线段中使用。
本发明可以被实施为一种用于执行这里描述的方法的勘测装置,该勘测装置至少包括用于得到3D部分模型的3D传感器和用于得到2D视觉图像的2D视觉图像传感器。具体地,这两者相对于彼此可以处于已定义的以及优选地已知的排布。该装置还包括具有触摸屏的用于提供2D视觉图像的2D视觉显示器,该触摸屏用于定义线段,和数字处理单元,该数字处理单元具有聚集器,该聚集器用于基于已定义的线段计算3D部分模型的聚集,例如,在计算机芯片中实现。
装置例如可以包括相对于彼此立体地设置的至少两个2D成像摄像头。根据本发明,这些摄像头可以用于立体地得到3D部分模型以及用于捕捉2D视觉图像捕捉。在另一实施方式中,装置可以包括至少一个2D成像摄像头和至少一个3D点云或距离图像测量单元,具体地RIM摄像头传感器、结构化光3D传感器或三角测量传感器。
本方法或至少其涉及计算的那些部分还可以被具体实施为一个或更多个计算机程序产品,该计算机程序产品存储在机器可读介质上,或者可以被具体实施为电磁波(诸如例如有线或无线数据信号)。因此,本发明还涉及包括程序代码的这种计算机程序产品,该程序代码用于根据本发明的3D真实尺寸3D建模。计算机程序产品被配置为执行如上的方法,具体地通过提供用于在2D视觉图像中定义线段的界面并计算多个对应3D部分模型的组合中从而产生的几何限制以形成已聚集3D模型。
例如,被配置为得到3D场景的真实尺寸3D模型的这种程序代码可以包括例如通过从3D传感器单元读取3D数据来获取3D场景的区段的第一数字3D部分模型,该3D数据包括至少一个第一数字2D数字图像,并且读取例如通过从数字摄像头单元读取照片数据来进行。以相同方式,包括获取3D场景的区段的第二数字3D部分模型,该第二数字3D部分模型包括至少一个第二数字2D视觉图像。具体地,可以通过对至少两个图像进行编程立体成像分析来得到相应的3D部分模型,各图像由相对于彼此立体设置的相应数字摄像头来拍摄。其中,至少两个图像中的至少一个可以是连同对于3D部分模型一起拍摄的2D视觉图像。计算机程序然后被配置为执行数字地聚集第一3D部分模型与第二3D部分模型,以形成3D场景的3D模型。这被编程为通过使用在第一2D视觉图像中定义的第一线段和在第二2D视觉图像中定义的第二线段来进行。这些线段表示第一2D视觉图像和第二2D视觉图像各自中的相同视觉特征,并且例如可以通过操作员输入提供给计算机程序。线段具体可以用作3D部分模型的数字聚集中的几何限制。
计算机程序可以在装置中执行,因此,该装置还涉及被配置为运行提供根据本发明的功能的计算机程序的计算装置,与实际加载或不加载计算机程序无关。
附图说明
以下参照在附图中示意性示出的工作示例仅用示例的方式更详细地描述或说明根据本发明的单元、方法以及系统。具体地:
图1a和图1b示出了根据本发明的所注释的2D视觉图像的实施方式的示例;
图2例示了根据本发明的所得到的真实尺寸3D模型的第一实施方式的示例;
图3a、图3b、图3c、图3d示出了根据本发明的2D视觉照片中的线段对的示例;
图4a、图4b、图4c示出了例示了根据本发明的具有线段的交叠的2D视觉图像的示例;
图5a和图5b、图6a和图6b以及图7a和图7b示出了根据本发明的2D视觉图像中的线段的对齐的实施方式;
图8a、图8b、图8c以及图8d示出了涉及在虚拟楼面平面图中定义的约束的本发明的实施方式的示例;
图9示出了例示了包括初始不完整或非按比例的平面视图的本发明的另一实施方式的示例;
图10a例示了根据本发明的装置的实施方式的示例;
图10b示出了第一示例,其例示了根据本发明的装置的简化框图;
图10c示出了第二示例,其例示了根据本发明的装置的简化框图;以及
图11示出了例示了根据本发明的方法的实施方式的原理的框图的示例。
具体实施方式
附图的图不应被认为是按比例绘制。在适当的情况下,相同的附图标记用于相同的特征或具有类似功能的特征。对附图标记的不同标号用于区分被示出为示例性的相同或等效特征的不同实施方式。措辞“大致”在这里用于描述以下事实:特定值、结构或特征不是必须需要100%准确,而是可以可能轻微漂移,但仍然在范围内。换言之,例如可以由于不精确、无意设计考虑、公差等存在一些轻微偏差,但存在朝向已提及值或结构的清楚趋势,特别是在用其实现的技术效果方面。尤其,不意指明显相反。在任何情况下,除了“几乎确切地”的意义外,措辞“大致”可以总是被解释为包括或还表达“确切地”或特定特征本身的意义。
图1a、图1b以及图2中例示了本发明的实施方式的示例。
图1a中的示例例示了示例性第一2D视觉图像1a,其叠加了一些第一线段2a、2b、2c。同样示出了非强制观察网格3。
这种第一2D视觉图像1a由测量或勘测装置拍摄的,具体由根据本发明的装置拍摄。例如但不限于,该2D视觉图像可以被实施为用于得到3D部分模型的立体视图的一个图像。2D视觉图像1a可以由某种摄像头系统来拍摄,该摄像头系统包括图像传感器和具有镜头和/或其他光学部件的光学系统,该图像传感器优选地是数字的。其中,优选地,如领域中已知的,摄像头系统可以被校准,以补偿几何和/或光学失真、颜色和/亮度偏差等,例如通过评价已定义的基准图案。在所示的示例中,要由该装置勘测的3D场景是接待室的内部,其计划通过施工工程来进行装修。因此,技术人员采用用于测量表示要勘测的3D场景的房间的装置,以得到真实尺寸(或换言之尺寸稳定)的房间的3D模型4。在该3d模型4上,然后将计划和/或执行用于施工工程的测量。就这样做而言,需要3D模型4在至少大约cm量级或优选在mm量级上是尺寸准确的。在附图中,由于缺乏合理的可理解的可呈现性,未明确示出3D模型4。
因此,装置由相应的3D传感器单元来捕捉3D模型4a。3D传感器单元在可视和/或不可视频谱范围内工作、优选地光学地工作,并且例如可以单独或组合地基于立体原理、三角测量或偏折测量法来实施,例如立体照片、光切割、结构化光、图案和条纹投影测量、SLAM计算等,或基于飞行时间或基于相位的距离测量来实施,例如像RIM摄像头、电子测距仪等。同样已知扫描式3D传感器。
根据本发明,由于以下讨论的原因,连同纯几何3D模型4a信息记录一起,还存在由同一装置拍摄的至少一个2D视觉图像1a或相片,该2D视觉图像1a对应于3D模型4a。在上述3D传感器的实施方式的许多实例中其可以被固有地给出,例如在固有地包括能够捕捉2D视觉图像1a的摄像头的装置的立体照片中或其他照片中给出。如果后者不是这种情况,则装置除了包括3D传感器外,还可以包括专用的视觉摄像头。现有装置从而可能任意地部分地包括基本结构部件中的一些,但没有预想到本发明。
由于装置的有限视场(FOV)且还由于房间的有限尺寸,不可能在单个3D测量中测量整个3D场景,整个3D场景实际需要在3D模型4中反映。根据本发明,其通过取得被拟合到视场中的3D场景的多个区段的多个3D部分模型4a、4b...测量结果来解决。例如,如图1a所示的第一视场和如图1b由第二2D视觉图像1b来示出的第二视场。再次,还存在所拍摄的未明确示出的对应的第二3D部分图像4b。这些视场可以从同一视点来取得,但根据本发明还可以从不同视点来取得,这对于小房间将较可能的情况。第一视图和第二视图的视向不同。在所示出的示例中,第一视场包括房间的第一墙壁,并且第二视场包括房间的第二墙壁。技术人员在给定测量或勘测房间的任务时通常将直观地考虑捕捉这种或类似视图。
其中,出现拍摄3D场景的两个3D部分模型4a、4b的问题,或在要3D建模的较大3D场景的情况下可能为超过两个3D部分模型。本发明现在用特定方案来组合这第一3D部分模型4a和第二3D部分模型4b,以产生需要测量的整个3D场景的3D模型4。存在已知建立这些模型的自动算法,但是这这些算法依赖于由于3D部分模型4a、4b之间的大的交叠而产生的大冗余,这在本发明中不需要,并且如所讨论的同样不是经常自然而然地给出的。
本发明的一个方面是普通用户,诸如现场技术人员而不是关于3D-CAD系统训练的高技能3D设计工程师,通常难以自己处理3D模型。
因此,本发明提出不直接提供给操作员多个3D部分模型4a、4b,相反拍摄并向操作员提供较简单的2D视觉图像1a、1b,为此目的这些2D视觉图像是在捕捉对应的3D部分模型4a、4b时拍摄的。
根据本发明,操作员处理2D视觉图像1a、1b。从而,使得操作员能够辅助或能够在不需要与3D部分模型4a、4b本身实际或直接交互的情况下将3D部分模型4a、4b聚集或组合成完整的3D场景模型。
根据本发明,其通过将2D视觉图像1a内的至少一个线段2被图形地交叠到向操作员示出的2D视觉图像1a来进行,例如这种线段2的实施方式2a、2b、2c...具体指示的。这种线段2被提供为第一2D视觉图像1a中的第一线段2b和在第二2D视觉图像1b中的第二线段2b。在所示的实施方式中,在第一2D视觉图像1a和第二2D视觉图像1b中还存在另一对对应或公共的线段2c。
借助于与第一线段和第二线段2b有关的该信息,聚集图像对应的第一3D部分模型4a和第二3D部分模型4b,以形成完整3D场景的3D模型4。
尝试在图2中示出这种聚集,图2例示了使用与2D视觉图像1a和1b中的线段2a、2b、2c有关的信息,将来自图1a和图1b的墙壁组合成房间的角部场景的3D模型视图。在组合或聚集第一3D部分模型4a与第二3D部分模型4b时,根据本发明使用分别存在于至少第一2D视觉图像1a和第二2D视觉图像1b中的线段2b和2c来产生3D模型4。根据本发明的方案建立3D部分模型的准确基准,其在它们的组合中提供真实尺寸3D模型,具体地可以满足施工工程的准确性要求。
在该实施方式中示出的另一非强制性的选项是定义第一线段与第二线段2c之间的几何限制,这里由90°角度结构的角度限制5的示例给出。以下将讨论限制5的其他示例。
图3a中的示例在2D视觉图像1所描绘的3D场景的抽象图中例示了根据本发明的这种线段2a、2b、2c的一些示例性实施方式。例如3D场景的2D视觉图像中存在线段2a,该线段位于地板与墙壁之间的边缘处。线段2a指示该边缘并且位于沿着该边缘的方便的位置,但在该实施方式中,其不具有已定义的起点和/或末端点,在几何上还被称为是直线的。例如可以认为其在3D部分模型中相应指示该边缘在对应2D图像中的方向。
在房间左上角的线段2b具有已定义的起点(或依赖于定义,末端点),该点在这里被示出为恰好在房间角部。线段2b也指示墙壁与天花板之间的边缘的方向。换言之,该线段2b还可以被描述为由其起点和其方向定义的向量,虽然不需要定义其长度和末端点,该向量在几何上还被称为射线。这种起点可以处于房间的角部,但可选地还可以为沿着该边缘的任意已定义点,例如在沿着边缘的任意可标识的物品或标记处。
在右侧的线段2c是以已定义起点和已定义末端点来表征的线段,在几何上还被称为线段。例如由顶部和底部房间角部处的特定点定义,从而定义竖直房间角部。在2D视觉图像1、1a、1b中,通常总是存在定义和/或绘制的线段2a、2b,因为(根据定义)实际上不可以绘制无限的线段等。然而,根据本发明的线段2a、2b...还可以表示实际上定义没有实际已定义的末端点的这种(无限)线、或向量等的几何特征。例如,通过在照片中示出末端点或角点(可选地甚至通过用于操纵它们的操控符来进行)来进行,但不将它们用作用于它们表示的几何特征的末端点。例如,照片中可以存在由线段指示的角部或边缘的仅一部分,但该线段针对聚集实际上可以定义没有特定末端点的线或方向。
除了以上讨论的线段之外,本发明另外还可以包括与单个点6a有关的信息,其可以由第一2D视觉图像1a和第二2D视觉图像1b中的视觉特征来确切定义。这里示例性示出了房间的角部,但它还可以是另一视觉上显著的固定点6a。
作为除了以上讨论的线段2之外的另一另外选项,本发明另外还可以包括与如由符号6b指示的2D视觉图像1a、1b中的平面或平坦表面有关的信息。尽管像点等的一些几何特征通常在定义它们的所有图像中处于同一真实世界位置处,像线、平面等的特征不需要确切处于同一位置处,但可以设置在由它们表示的特征处的不同位置/沿着该特征的不同位置处。平坦地板例如可以大致在地板上的任何地点定义,具体地在不同照片1中还处于该同一地板上的不同位置处。或者可以在沿着角部或边缘的不同位置处标记该边缘或角部,以定义用于对应3D部分模型的聚集的同一线或方向。
如上所述,根据本发明,在第一视场的第一2D视觉图像1a以及第二视场的第二2D视觉图像1b中设置了这种线段2中的一个或更多个,其可选地由点6a或平面6b进行补充。根据本发明,从而获得的几何信息用于聚集分别对应的第一3D部分模型4a和第二3D部分模型4b,以形成场景的3D模型。
本发明从而例如可以克服3D部分模型的交叠的问题,该交叠太少而不能以足够准确性和确定性实现3D部分模型的准确3D聚集来形成整个场景,在交叠少的情况下,该准确3D聚集无法由纯3D点云匹配等自动且独立地实现。较少的交叠例如可以是有利的,因为需要较少的捕捉,其节省了时间和存储器。
在特别实施方式中,装置中的IMU或倾斜传感器可以用于自动指示2D视觉图像1a、1b和/或3D部分模型4a、4b内的大致水平和/或垂直的方向。
图3b、图3c以及图3d中示出了实施方式的一些示例。
图3b中示出了基于仅在非常小的部分中在视场中交叠的两个不同3D部分模型4a、4b的3D建模的示例性实施方式。左边的视图例示了连同3D场景的第一部分的第一视图中的第一3D部分模型4a一起拍摄的第一2D视觉图像1a。右边的视图例示了连同期望测量的3D场景的第二部分的第二视图中的第二3D部分模型4b一起拍摄的第二2D视觉图像1b。
存在第一对线段2a,该第一对线段包括在第一2D视觉图像1a中定义的第一线段2a和所示的第二2D视觉照片1b中的对应第二线段2a,该第一对线段以这两者表示3D场景的同一角部的这种方式对应。这些线段2a可以但不需要具有已定义的起点或末端点。具体地,这种已定义的起点和/或末端点成对(或三个一组等,如果设置在超过两个图像中)设置,这些点在一致的2D视觉图像中指同一真实世界点,例如,房间的同一角点。的点、线等在不同图像中的配对在许多情况下可以是明显的,因为图像中仅定义了两个或一些点(等),并且仅一个组合在技术和几何上有意义,因此,配对可以由系统根据合理性计算来自动检测。另一选项将是用户提供配对,其通过明确配对点(等)或根据点(等)依次定义的逻辑序列来进行。这种配对例如可以由示出为叠加或增强到2D图像的对应符号的不同颜色、标记、标号等来标记。
在所示的示例中,各个线段2a可以位于沿着2D视觉照片1a、1b各自中的相同角特征的位置。为了以另外自由度进一步解决第一3D模型4a和第二3D模型4b的聚集中的模糊性,存在第二对线段2b,该第二对线段2b包括位于房间的顶部角部处的在第一2D视觉图像1a中定义的第三线段2b和在所示的第二2D视觉照片1b中的对应第四线段2b。在本发明的许多情况下,在第一2D视觉图像与第二2D视觉图像之间可以存在线特征2a、2b的对的自动匹配,例如经常仅一个匹配是在几何上可解决的和/或具有技术意义。因此,在许多实施方式中,可以省略的是所使用的实际对线段进行命名来将它们匹配为对,但根据本发明的系统通过向操作员呈现一个或更多个所计算的合理建议以验证,可以自动或半自动地解决这些对匹配。在其他实施方式中,对匹配可以由操作员来提供。
作为可选的添加,还定义了单个点对6a,其包括第一2D视觉图像1a中的第一点6a和第二2D视觉照片1b中的对应第二点6a。作为另一可选的增加,还定义了平面表面对6a,其包括第一2D视觉图像1a中的第一表面6b和第二2D视觉照片1b中的对应第二表面6b。这种对应表面可以为同一表面,其中,它们的定义可以包括公共表面点或同一表面的完全不同点。根据本发明的另一选项可以包括第一表面6b和第二表面6b,它们实际上不是同一表面,而是与几何约束一起提供,例如为平行(如地板和桌面)或正交(如地板和墙壁或两个不同的墙壁)的-见下文。
线段2、末端点2a、点6a以及平面6b的这种对的数量可以在以下共同目标内变化,该共同目标为这些特征的和按照可以借助于这些特征优选不模糊地组合3D部分模型4a、4b的方式来提供。依赖于这种对的确切设置,这种对中的一个可以在组合3D部分模型4a、4b时以一个或更多个自由度带来定义限制。优选地,这些对以它们得到3D部分模型4a、4b的不模糊的组合的方式来设置并配置。其中,同样地,为了增加准确性,例如由某种已知平均或统计方案,可以特意引入冗余。
图3c中的示例例示了又一示例性实施方式,在该实施方式中,在从不同观看位置拍摄的房间的第一2D视觉照片1a和第二2D视觉照片1b各自中定义了指示同一视觉房间角特征的线段2a,各观看位置面向房间的不同墙壁。还示出了其他线段2b,这些线段2b不指示相同角特征,但由限制5a配对,根据该限制,这两个线段2b相对于彼此处于90°角度偏移。另一限制例如可以是线段2b处于作为地板平面的同一平面中,并且可选地还是该平面且因此还有该线段2b是水平的。根据本发明,针对线段、点或面的对的这种几何限制的其他示例可以是这些特征中的至少两个是正交的、重合的、具有相同方向、角度偏移、水平的、竖直、平行等。在所示实施方式中,平面或面6b例如可以被限制为彼此垂直。
图3d例示了根据本发明的实施方式的示例,其中多个线段2t不仅是直的,并且还包括多个线段。具体地,在该示例中,示出了边缘对模板2t,该边缘对模板2t在2D视觉照片1a和1b中被设置在各房间角部。其中,可选地,边缘对模板2t还可以包括几何限制5即在不同的2D视觉图像1a、1b中具有90°偏移。为了将边缘对模板2t分别拟合到2D视觉图像1a和1b中,如以下讨论的,设置了操控符7,通过这些操控符,可以将边缘对模板2t适应到2D视觉图像1a、1b。
图4a、图4b以及图4c例示了要3D建模的场景的2D视觉图像2a、2b、2c的另一示例。在这种情况下,得到3D模型4的3D场景根据本发明包括超过两个不同的2D视觉图像1a、1b、1c以及对应的3D部分模型4a、4b、4c,例如为深度图、云点等的形式。根据本发明,示出了在2D视觉图像1a、1b、1c各自中设置了线段2a、2b、2c和/或与其关联的几何限制5。在该示例中,线段2a、2b、2c被示出为实施为有向向量,它们中的一些参考到彼此,例如由所示的角度限制,例如用于180°或90°结构的所示出的弧。其他这种限制可以是向量中的一些在不同视觉图像1a、1b、1c中大致是同一向量,或者具有大致相同的方向,分别是大致平行或同轴的,例如通过由特定颜色将它们匹配成对(或三个一组等),或者处于同一(地板)平面中,或者建立水平或竖直的基准等。例如,这些线段2a、2b、2c和/或几何限制5可以由人类操作员来提供,优选地如以下讨论的,根据本发明其至少部分通过自动检测单元来进行辅助。
具体地,本发明的实施方式可以以由自动检测单元得到的线段(且可选地还有点或面)的形式呈现结果,作为对操作员的建议,该操作员验证、校正或丢弃这些建议。检测单元内可以包括图像处理单元,该图像处理单元用于得到和/标识图像特征,诸如,边缘、角部、线、交点等,优选地以2D视觉图像的亚像素分辨率。在根据本发明的另一实施方式中,操作员可以根据本发明在2D视觉图像中人工定义线段2,优选地由自动图像处理特征来进行辅助,例如自动咬合功能,该功能用于将线段2、操控符7、点6a、面6b等咬合到2D视觉图像1中的图像检测到的边特征,该边特征靠近操作员设置线段2的位置。可选地,还可以存在人工调节特征,例如,在不期望自动咬合的时候通过提供人工调节自动咬合的操控符。根据本发明的方面的另一选项是在设置线段2的、2D视觉图像的区段处对2D视觉图像1的自动自缩放功能。
在图5a和图5b中,有符号化的角部的两个抽象2D视觉图像1。在各视觉图像中存在三个线段2a、2b、2c,这些线段共享角部处的公共交点。根据本发明,可以进行2D视觉图像1中的这种图像特征的自动或半自动检测。半自动方案例如可以以以下方式来实施,操作员预选择2D视觉图像1中的特定部分或邻近部分,然后对其使用自动功能。通过这样,例如可以在2D视觉图像1中检测边缘,然后可以叠加线段2,在所示的情况下为具有角部交点处的已定义起点的射线型线段,优选地通过在被提供给操作员的2D视觉图像1中例示线段来图形地叠加。第一2D视觉图像1a中的第一线段2a在其中自动和/或人工地关联和/或几何地限制5a到第二视觉图像1b中的相同或另一线段2a、2b、2c、6a。通过从提供了线段2的该2D视觉图像1得到的信息,可以关联对应的3D部分模型4a、4b以形成复合场景的单个3D模型4,具体通过在3D部分模型4a、4b中应用所产生的几何关联和限制来进行。
图6a和图6b示出了与上述类似的实施方式,但在这里,第一2D视觉图像1a中的线段2am中的至少一个是通过操纵2D视觉图像视图中的线段2a的操控符7来人工设置的,一个操控符移动至交点,并且另一操控符是沿着边缘的一个随机点。例如在边缘的部分被物体阻挡而不可见(据此,自动检测复杂)时,其可以是进一步有利的。例如还可以包括自动咬合到图像检测到的视觉边特征。并且人工校正交点6am。对2D视觉图像中的线段2c施加了几何限制5a,根据该几何限制,其大致垂直于线段2a和2b。
图7a和图7b是与上述视图类似的视图,但线段2am、2bm、2cm是通过操作员将操控符7设置在2D视觉图像1a和1b中的视觉边缘上来设置的。交点6a被自动发现并作为用于聚集视觉3D图像的建议另外点而提供。
由图8a至图8d,存在根据所例示的发明的真实尺寸3D模型的勘测的另一实施方式。如之前所示,图8a以及图8b示出了2D虚拟图像,在该2D虚拟图像中,叠加有线段2,由此,如图8d例示,将对应的3D部分模型聚集成了3D模型4。在所示的示例中,用一些第一线段2a、2b、2c以及帮助描述本发明的一些说明例如靠近线段的文本、标题等对2D视觉图像进行叠加,这些说明在实际实施中不是必须强制示出。
在这里所示的可选添加中,还提供了3D场景的平面图9或楼面平面图,如在图8c中的楼面平面图9的3D视图中进行符号化的。其例示了要建模的3D场景的已知或预定义的楼面平面图9,其中,该已知或预定义的楼面平面图9不需要按比例,因为这种缩放可能从根据本发明的测量产生。该楼面平面图例如可以为草图或预定义的非全尺寸模板,诸如例如立方体房间模板等。根据本发明的平面图模板9在其中具体可以用于在不必进行费心于数值或符号而是将这些几何限制视觉地应用于2D屏幕视图中的情况下以对操作员直观的方式提供几何限制5。具体地,线段2在其中可以匹配到平面图9的对应平面图特征2p和2h。例如,特征2p可以是如在图8a处的图像中定义的边缘2,并且特征2h可以是如在这些图像中指示的高度基准或水平基准2。这里示出的另一选项为2D视图10,但也可以独立于3D平面图来考虑,在该2D视图10中,可以图形地定义并提供与装置的视场有关的信息,具体地作为用于聚集3D部分模型4a、4b的附加信息,从而可以得到用于组合3D部分模型4a、4b的附加几何限制,其辅助将其以真实尺寸方式进行组合的处理。在该示例中,该至少粗略指示的标记10v是指楼面平面图10和/或9的所选择的墙壁,其在楼面平面图中指示图8b的照片1b所示出的墙壁,并且该标记可以提供3D部分模型(和/或照片1a、1b)与楼面平面图之间的关联信息,该信息可以用于基于3D部分模型的3D测量得到针对楼面平面图的真实尺寸3D模型,这些3D部分模型根据由在所捕捉的对应2D照片中指示的线段得到的信息来组合。指示10v可以由操作员容易地进行,但该指示还可以至少部分由例如指南针、水平传感器、加速计、陀螺仪、IMU等的技术工具来辅助或自动化。
在图9的实施方式中,存在类似实施方式,除了2D视觉图像1a和1b之外,还包括受制于线段2a、2b、2c的另外的平面图9。这里所示出的2D楼面平面图9可以定义几何关系和/或限制,该几何关系和/或限制至少近似地由线段2a、2b、2c并因此由对应的3D部分模型4a、4b满足,这些3D部分模型实际要以尺寸准确的方式来组合。作为一个可能的示例,在由平面图9提供的线段2a、2b、2c定义的两个墙壁之间存在90°的角度限制5。
楼面平面图9可以为近似模板,要由同一装置使用准确DISTO功能的并入点对点测量来测量或例如还生成(并且确切地为测量)的场景的CAD平面图的一部分。
在图10a中示出了根据本发明的装置20的示例性实施方式。所示出的示例装置20被实施为在操作期间由操作员手持,具体在尺寸和重量方面。手持装置20可选地还可以包括耦接元件29,该耦接元件附接到三脚架或杆,以在测量期间将其更静止地保持。装置20优选地包括2D视觉显示器28,该视觉显示器用于向操作员提供2D视觉图像、线段以及其他测量相关信息,但装置可选地还可以有线或无线地链接到外部显示单元、计算机或平板电脑。为了操作装置20,显示器28可以是触摸屏,和/或装置20可以包括专用按钮27。
根据本发明的装置20至少包括用于得到2D视觉图像的2D视觉图像传感器22a、22b、22c或2D视觉成像摄像头(诸如CCD或CMOS摄像头)。在所示出的实施方式中,示出了有可选的光源26a、26b或闪光灯的两个摄像头22a和22b。这些摄像头可以是数字RGB摄像头,并且立体地设置,从而,这些摄像头不仅可以拍摄2D照片,还可以组合使用作为按照立体成像原理工作以得到3D部分模型的3D传感器,该3D部分模型可以基于来自两个摄像头的图像及其固定的基于立体的距离来得到。这些摄像头可以被校准,具体关于它们的光学像差和缺陷,优选地在数字图像处理单元或处理器中数字地校准。可选地,装置20还可以包括一个或更多个光源26a、26b,这些光源例如实施用于在低光环境中拍摄2D照片的闪光灯。
在另一实施方式中,还可以存在用于得到3D部分模型的专用3D测量传感器21(诸如例如,RIM摄像头、结构化光传感器、三角测量传感器等),该传感器在所示出的具有摄像头22a和22b的立体成像方案中不是强制的。如果这种专用3D测量传感器21存在并且包括内部2D视觉成像功能(如对于RIM摄像头等例如经常是这种情况),则摄像头22a和22b可以不是强制的,但它们中的至少一个仍然是一个选择,例如用于拍摄交高质量的2D视觉图像。另一实施方式还可以包括一个或更多个摄像头22a、22b以及3D测量传感器21。
在图10b中,示出了根据本发明的装置20的框图的第一示例性实施方式。
该装置包括3D传感器块21,该3D传感器块21被配置为确定其视场的3D测量信息,例如深度图的形式,该信息在这里还被称为为3D部分模型4。因此,该实施方式的3D传感器块21包括具有已知排布的至少两个2D图像传感器块22,这些图像传感器块22被配置为得到它们对应视场的2D视觉图像1。根据该已知排布,处理来自这些2D摄像头22a、22b的图像,以得到它们视场的3D模型。例如,摄像头22a和22b可以是立体视图3D传感器21的摄像头。装置包括计算单元25,诸如微处理器或类似电子装置,该计算单元25被配置为提供用于根据本发明的方法的计算,具体地,根据本发明为计算2D视觉图像1和3D部分模型4以及线段2,例如通过所存储的计算机程序来计算。其中,计算单元可以包括聚集器23,该聚集器23计算多个3D部分模型4a、4b的组合以形成真实尺寸的组合3D模型,3D部分模型用包括需要记录的3D场景的不同部分在内的不同视图取得。不同视图具体可以指向不同方向和/或从不同位置取得,优选地,视图至少一小部分交叠。用于这些视图各自的2D图像和3D模型处于对彼此的已知基准,具体地3D模型从这些图像得到,从而,可以建立2D图像与对应3D部分模型中的几何特征的已知对应性。根据本发明,通过针对相同的几何特征在多个2D图像中定义并应用线段2a,可以建立对应3D部分模型的组合,例如,以基于由2D视觉图像1中的线段2定义的限制来一维或更多维地解决3D几何模糊性。
在图10c中,示出了根据本发明的装置20的框图的第二示例性实施方式。
该装置包括3D传感器块21,该3D传感器块21被配置为确定其视场的3D测量信息,例如,以深度图、点云等的形式,该信息在这里还被称为为3D部分模型4。3D传感器块21例如可以被实施为RIM摄像头(具体基于飞行时间测量原理)、结构化光3D传感器、三角测量传感器、激光条纹传感器或其他3D传感器。装置还包括至少一个2D图像传感器块22,该至少一个2D图像传感器块22被配置为得到其视场的2D视觉图像1。其中,传感器21和22的视场至少部分地交叠,但优选地大致交叠。在一些实施方式中,2D摄像头22不仅可以如由22c指示的为独立的,还可以为3D传感器21的功能部分,该部分(22)能够拍摄视觉2D图像1,例如被指示为(22)。例如,在一个实施方式中,摄像头(22)可以为3D传感器21的固有2D成像功能,例如拍摄2D RGB照片的能力。另选地,用于拍摄2D图像的2D成像功能根据本发明还可以由单独的摄像头22c来提供,其相对于3D传感器21具有已定义排布和视场。装置包括计算单元25,诸如微处理器或类似电子装置,其被配置为提供用于根据本发明的方法的计算,具体地根据本发明为计算2D视觉图像1和3D部分模型4以及线段2,例如通过所存储的计算机程序来计算。计算单元可以包括聚集器23,该聚集器23计算多个3D部分模型4a、4b的组合以形成真实尺寸的组合3D模型,根据本发明,其通过在组合计算中引入针对相同视觉或几何特征的线段2a来进行,例如,基于2D视觉图像1中的线段2定义的限制来一维或更多维地解决3D几何模糊性。
根据本发明的、用于测量真实尺寸3D模型的方法在其中可以被实施为包括如在图11的基本框图的示例中所示的步骤。
在块50中,使需要捕捉的3D场景的第一部分进入装置20的视场,诸如房间的墙壁或墙壁的至少一部分。为了具有最小的透视失真,视向可以被选择为大致垂直于墙壁,但根据本发明不进行严格要求,大多数操作员将直观地这样做。
在块51中,捕捉场景的第一视场的第一2D视觉图像1a,例如由装置20处的普通2D数字摄像头进行。
在块52中,捕捉场景的第一视场的第一3D部分模型4a,例如由光学3D捕捉单元,例如立体摄像头、距离成像(RIM)摄像头、飞行时间(TOF)摄像头、结构化光测量、三角测量、光切割等,优选地大致与拍摄2D视觉图像1a同时地进行。
在块53中,使3D场景的第二部分进入装置20的视场中,例如通过重新定位和/或重新定向装置。
在块54中,捕捉场景的第二视场的第二2D视觉图像1b。
在块55中,捕捉场景的第二视场的第二3D部分模型4b,例如以与第一捕捉相同的方式进行。依赖于场景和视场的尺寸,还可以存在多于如上所述的第一捕捉和第二捕捉。
在块56中,在第一2D视觉图像1a和第二2D视觉图像1b中的视觉特征定义至少一个线段2a,其可以自动、半自动或由操作员人工进行。
在块60中,基于2D视觉图像1中定义的线段2a来组合或聚集第一3D部分模型4a和第二3D部分模型4a、4b,例如通过应用由第一2D图像和第二2D图像之间的已定义的线段对2a产生的几何限制及其相应关系来进行。

Claims (15)

1.一种对3D场景进行三维勘测以得到真实尺寸3D模型(4)的方法,具体地用于对所述3D模型(4)进行缩放尺寸测量,该方法包括以下步骤:
○得到所述3D场景的区段的第一3D部分模型(4a),该得到步骤包括捕捉至少一个第一2D视觉图像(1a);
○得到所述3D场景的区段的第二3D部分模型(4b),该得到步骤包括捕捉至少一个第二2D视觉图像(1b),
其中,所述第二3D部分模型(4b)与所述第一3D部分模型(4a)不同,并且
其中,所述第一3D部分模型(4a)和所述第二3D部分模型(4b)部分交叠,以及
○聚集所述第一3D部分模型(4a)与所述第二3D部分模型(4b),以形成所述3D场景的所述3D模型(4),
其特征在于:
在所述第一2D视觉图像(1a)中定义第一线段(2a),并且
在所述第二2D视觉图像(1b)中定义第二线段(2a),
该第一线段和第二线段(2a)表示所述第一2D视觉图像(1a)和所述第二2D视觉图像(1b)各自中的视觉特征,
该第一线段和第二线段(2a)用于聚集对应的第一3D部分模型(4a)与第二3D部分模型(4b)以形成所述3D场景的所述3D模型(4)。
2.根据权利要求1所述的方法,其特征在于:
○除了所述第一线段和所述第二线段(2a)之外,还在所述第一2D视觉图像(1a)和所述第二2D视觉图像(1b)内定义所述第一线段和所述第二线段(2a)的一个公共点,具体地该公共点为末端点或锚点,或者
○除了所述第一线段和所述第二线段(2a)之外,还在所述第一2D视觉图像(1a)和所述第二2D视觉图像(1b)内定义所述第一线段和所述第二线段(2a)的两个公共末端点,或者
○除了所述第一线段和所述第二线段(2a)之外,还在所述第一2D视觉图像(1a)和所述第二2D视觉图像(1b)内定义公共平面(6b)的至少一个区段,具体地其中,至少两个线段(2a、2b)在所述公共平面(6b)上展开,优选地所述公共平面为水准面,或者
○除了所述第一线段和所述第二线段(2a)之外,还在所述第一2D视觉图像(1a)和所述第二2D视觉图像(1b)内定义至少一个公共奇异点(6a),或者
○上述各项中的至少两项的组合。
3.根据权利要求1或2中任一项所述的方法,其特征在于:
定义两个或更多个互连的第一线段或所述第二线段(2a、2b)的组,具体地,该组形成几何特征或施工工程特征的模板(2t)。
4.根据权利要求1至3中任一项所述的方法,其特征在于:
定义所述第一线段或所述第二线段(2a)的步骤是通过将图形线符号图形地叠加在所述2D视觉图像(1a、1b)上来进行的,具体地是提供通过用户交互而将所述线符号在所述2D视觉图像(1a、1b)上对准的控件和/或操控符(7)来进行的。
5.根据权利要求1至4中任一项所述的方法,其特征在于:
所述第一线段或所述第二线段(2a)包括至少两个操控符(7),该至少两个操控符能够在所述2D视觉图像(1a、1b)内移动,该至少两个操控符用于使所述线段(2a)与所述2D视觉图像(1a、1b)内的可视边或线特征叠合,具体地通过提供所述2D视觉图像(1a、1b)的与所述线段(2a)叠合的部分的自动缩放来进行。
6.根据权利要求1至5中任一项所述的方法,其特征在于:
提供所述第一线段或所述第二线段(2a)对视觉图像特征的自动咬合,该视觉图像特征诸如是所述2D视觉图像(1a、1b)中的可视边特征或角特征,具体地其中,所述可视边特征或所述角特征由自动模式识别单元来得到。
7.根据权利要求1至6中任一项所述的方法,其特征在于:
所述第一线段和所述第二线段(2a)被指派给所述3D场景的虚拟平面图(9)中的对应特征。
8.根据权利要求2至7中任一项所述的方法,其特征在于:
相对于另外的线段(2b)、点(6a)或面(6b)对所述第一线段或所述第二线段(2a)定义了角度约束(5),具体地其中,所述约束定义了垂直性或平行性。
9.根据权利要求7或8所述的方法,其特征在于:
所述角度约束(5)是从所述虚拟平面图(9)得到的,优选地自动得到的。
10.根据权利要求1至9中任一项所述的方法,其特征在于:
用于得到所述第一3D部分模型(4a)的视点和/或视向与用于得到所述第二3D部分模型(4b)的视点和/或视向不同。
11.根据权利要求1至10中任一项所述的方法,其特征在于:
通过在所述第一2D视觉图像(1a)内定义所述第一线段(2a),由数字图像处理单元自动识别2D视觉图像(1a、1b)两者内的类似特征,从而在所述第二2D视觉图像(1b)内自动定义所述第二线段(2a)。
12.根据权利要求1至11中任一项所述的方法,其特征在于:
由立体摄像头、三角测量或结构化光结构来实现捕捉所述3D部分模型(4a、4b)的处理,其中,由所述立体摄像头、三角测量或结构化光结构的摄像头来捕捉对应的2D视觉图像(1a、1b)。
13.一种勘测装置(20),该勘测装置(20)执行根据权利要求1至12中任一项所述的方法,其特征在于包括:
3D传感器(21),该3D传感器(21)用于得到所述3D部分模型(4a、4b);和
2D视觉图像传感器(22),该2D视觉图像传感器(22)用于得到所述2D视觉图像(1a、1b),具体地该2D视觉图像传感器(22)彼此处于规定的布局,优选地其中,所述2D视觉图像传感器(22)是所述3D传感器(21)的组成部分;以及
用于提供所述2D视觉图像(1a、1b)的2D视觉显示器(28),该2D视觉显示器(28)具有触摸屏和数字处理单元(25),该触摸屏用于定义所述线段(2a),该数字处理单元(25)具有聚集器(23),该聚集器(23)用于基于已定义的线段(2a)计算所述3D部分模型(4a、4b)的聚集。
14.根据权利要求13所述的装置,其特征在于:所述装置包括至少两个2D成像摄像头(22a、22b),该至少两个2D成像摄像头相互成立体布局,用于立体地得到所述3D部分模型(4a、4b)而且用于捕捉所述2D视觉图像(1a、1b),其中,这些2D成像摄像头(22a、22b)中的至少一个是所述2D视觉图像传感器(22),或者
所述装置包括至少一个2D成像摄像头(22)和至少一个3D点云或距离图像测量单元(24),具体地RIM摄像头传感器、结构化光3D传感器或三角测量传感器。
15.一种机器可读存储介质,该机器可读存储介质存储计算机程序,该计算机程序在计算装置上执行时使得该计算装置得到3D场景的真实尺寸3D模型(4),并且包括:获取:
所述3D场景的区段的第一数字3D部分模型(4a),该第一数字3D部分模型包括至少一个第一数字2D视觉图像(1a);和
所述3D场景的区段的第二数字3D部分模型(4b),该第二数字3D部分模型包括至少一个第二数字2D视觉图像(1b);以及
数字地聚集所述第一3D部分模型(4a)与所述第二3D部分模型(4b),以形成所述3D场景的所述3D模型(4),这是使用在所述第一2D视觉图像(1a)中定义的第一线段(2a)和在所述第二2D视觉图像(1b)中定义的第二线段(2a)来进行的,这些线段(2a、2b)表示所述第一2D视觉图像(1a)和第二2D视觉图像(1b)各自中的视觉特征,作为所述聚集的几何约束,具体地使得该计算装置执行根据权利要求1至12中任一项的方法的计算步骤,具体在根据权利要求13或14中任一项所述的装置中执行。
CN201811406728.9A 2017-11-24 2018-11-23 得到真实尺寸3d模型的方法、勘测装置 Active CN109840950B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17203519.8 2017-11-24
EP17203519.8A EP3489627B1 (en) 2017-11-24 2017-11-24 True to size 3d-model conglomeration

Publications (2)

Publication Number Publication Date
CN109840950A true CN109840950A (zh) 2019-06-04
CN109840950B CN109840950B (zh) 2023-02-28

Family

ID=60452516

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811406728.9A Active CN109840950B (zh) 2017-11-24 2018-11-23 得到真实尺寸3d模型的方法、勘测装置

Country Status (3)

Country Link
US (1) US11015930B2 (zh)
EP (1) EP3489627B1 (zh)
CN (1) CN109840950B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10552981B2 (en) * 2017-01-16 2020-02-04 Shapetrace Inc. Depth camera 3D pose estimation using 3D CAD models
WO2019205069A1 (en) * 2018-04-27 2019-10-31 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for updating 3d model of building
GB2606067B (en) * 2018-05-04 2023-02-15 Signaturize Holdings Ltd Generating virtual representations
GB2574795B (en) 2018-05-04 2022-10-05 Signaturize Holdings Ltd Generating virtual representations
US11243656B2 (en) * 2019-08-28 2022-02-08 Zillow, Inc. Automated tools for generating mapping information for buildings
US12014120B2 (en) 2019-08-28 2024-06-18 MFTB Holdco, Inc. Automated tools for generating mapping information for buildings
JPWO2021192782A1 (zh) * 2020-03-24 2021-09-30
US11683462B2 (en) * 2021-06-04 2023-06-20 Dierks Technology, Inc. Matching segments of video for virtual display of a space

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6333749B1 (en) * 1998-04-17 2001-12-25 Adobe Systems, Inc. Method and apparatus for image assisted modeling of three-dimensional scenes
CN102804231A (zh) * 2009-06-15 2012-11-28 微软公司 三维场景的分段平面重建
US20150104096A1 (en) * 2013-10-11 2015-04-16 Stanley K. Melax 3d object tracking
US20150249807A1 (en) * 2014-03-03 2015-09-03 Vsk Electronics Nv Intrusion detection with directional sensing
US20170109915A1 (en) * 2015-10-14 2017-04-20 Fovia, Inc. Methods and systems for interactive 3d segmentation
CN106898048A (zh) * 2017-01-19 2017-06-27 大连理工大学 一种可适应复杂场景的无畸变集成成像三维显示方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991019265A1 (en) * 1990-05-29 1991-12-12 Axiom Innovation Limited Machine vision stereo matching
US20050089213A1 (en) * 2003-10-23 2005-04-28 Geng Z. J. Method and apparatus for three-dimensional modeling via an image mosaic system
US7568289B2 (en) 2005-03-14 2009-08-04 Robert Bosch Company Limited Handheld optical distance measurement device
EP2051102B1 (de) 2007-10-18 2012-12-05 Leica Geosystems AG Justierbares elektro-optisches Messgerät
DE102009035336B3 (de) 2009-07-22 2010-11-18 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8947423B2 (en) * 2009-11-19 2015-02-03 Ocali Bilisim Teknolojileri Yazilim Donanim San. Tic. A.S. Direct 3-D drawing by employing camera view constraints
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
EP2523017A1 (de) 2011-05-13 2012-11-14 Hexagon Technology Center GmbH Kalibrierverfahren für ein Gerät mit Scanfunktionalität
WO2013033787A1 (en) * 2011-09-07 2013-03-14 Commonwealth Scientific And Industrial Research Organisation System and method for three-dimensional surface imaging
PT2909807T (pt) * 2012-10-17 2020-05-06 Cathx Res Ltd Melhoramentos em relação à formação de imagens para vistorias subaquáticas
WO2016065063A1 (en) * 2014-10-22 2016-04-28 Pointivo, Inc. Photogrammetric methods and devices related thereto
US9965863B2 (en) * 2016-08-26 2018-05-08 Elekta, Inc. System and methods for image segmentation using convolutional neural network

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6333749B1 (en) * 1998-04-17 2001-12-25 Adobe Systems, Inc. Method and apparatus for image assisted modeling of three-dimensional scenes
CN102804231A (zh) * 2009-06-15 2012-11-28 微软公司 三维场景的分段平面重建
US20150104096A1 (en) * 2013-10-11 2015-04-16 Stanley K. Melax 3d object tracking
US20150249807A1 (en) * 2014-03-03 2015-09-03 Vsk Electronics Nv Intrusion detection with directional sensing
US20170109915A1 (en) * 2015-10-14 2017-04-20 Fovia, Inc. Methods and systems for interactive 3d segmentation
CN106898048A (zh) * 2017-01-19 2017-06-27 大连理工大学 一种可适应复杂场景的无畸变集成成像三维显示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
冯玉芬: "图形和图像构建虚拟场景技术研究", 《电脑编程技巧与维护》 *

Also Published As

Publication number Publication date
CN109840950B (zh) 2023-02-28
EP3489627B1 (en) 2020-08-19
US20190162534A1 (en) 2019-05-30
US11015930B2 (en) 2021-05-25
EP3489627A1 (en) 2019-05-29

Similar Documents

Publication Publication Date Title
CN109840950A (zh) 真实尺寸3d模型聚集
JP4537557B2 (ja) 情報呈示システム
US11024079B1 (en) Three-dimensional room model generation using panorama paths and photogrammetry
US9747392B2 (en) System and method for generation of a room model
CN103959012B (zh) 6自由度位置和取向确定
US9341848B2 (en) Method of 3D modeling
US10937247B1 (en) Three-dimensional room model generation using ring paths and photogrammetry
ES2835598T3 (es) Interfaz de gesto
WO2017020766A1 (zh) 场景提取方法、物体定位方法及其系统
TWI408587B (zh) 觸控系統及其定位方法
JP6310149B2 (ja) 画像生成装置、画像生成システム及び画像生成方法
CN110825234A (zh) 一种面向工业场景的投影式增强现实跟踪显示方法和系统
JP7182976B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7238060B2 (ja) 情報処理装置及びその制御方法、並びに、プログラム
CN105264566A (zh) 建模装置、三维模型生成装置、建模方法、程序和布局模拟器
US10706624B1 (en) Three-dimensional room model generation using panorama paths with augmented reality guidance
JP2017129567A (ja) 情報処理装置、情報処理方法、プログラム
US20150317070A1 (en) Mobile handheld instruments and methods
US10645275B1 (en) Three-dimensional room measurement process with augmented reality guidance
CN105939472A (zh) 具有视频叠加的激光投影系统
KR20150133585A (ko) 3차원 영상의 단면 탐색 시스템 및 방법
Braun et al. Process-and computer vision-based detection of as-built components on construction sites
JP2013008257A (ja) 画像合成プログラム
US10643344B1 (en) Three-dimensional room measurement process
JP6975001B2 (ja) 傾き測定装置及び傾き測定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant