CN112840178A - 用于生成对象的正交视图的方法 - Google Patents
用于生成对象的正交视图的方法 Download PDFInfo
- Publication number
- CN112840178A CN112840178A CN201980067538.5A CN201980067538A CN112840178A CN 112840178 A CN112840178 A CN 112840178A CN 201980067538 A CN201980067538 A CN 201980067538A CN 112840178 A CN112840178 A CN 112840178A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- view
- derived
- terminal
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000009467 reduction Effects 0.000 claims description 6
- 230000004807 localization Effects 0.000 claims description 2
- 238000005259 measurement Methods 0.000 description 8
- 238000012512 characterization method Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005305 interferometry Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000009420 retrofitting Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C15/00—Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
- G01C15/002—Active optical surveying means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种用于生成周围区域(1)中的对象(2)的正交视图(18)的方法,包括以下步骤:在围绕第一位置(8)的预设角度范围(Ω)内通过激光扫描仪(5)创建(S1)基于位置的第一3D点云(7);在计算机生成的表征(13)中表示(S3)所述对象(2);选择(S4)所述计算机生成的表征(13)中的视图方向(14)和视图边界(15);将所述第一3D点云(7)或由其衍生的衍生的第一3D点云(7')沿所述视图方向(14)逆向投影(S5)到由所述视图边界(15)限定的平面(19)上;以及,将投影到所述视图边界(15)内的所述平面(19)上的所述第一3D点云(7)或所述衍生的第一3D点云(7')输出(S6)作为正交视图(18)。
Description
技术领域
本发明涉及一种用于生成周围区域中的对象的正交视图的方法。
背景技术
在许多专业活动中,特别是与建筑、公路建设或城市规划相关的那些活动中,非常需要现有建筑物或者一般而言街景或景观的平面图和立面图,即所谓的"正交视图"。这些图或正交视图,其是建筑物、街景或景观的二维视图,例如用于改造现有建筑物,或用于新规划城市或乡村中的建筑。
目前,测量师或摄影测量员用于这种正交视图,以首先使用全站仪、水准仪、测角仪、激光测距仪等来执行手动测量,或者使用照相机或激光扫描仪来执行自动测量,然后手动创建CAD图(矢量图形)或正交视图。如果所谓的“正射影像”由照片创建,则这些影像通常需要附加的手动后处理。
手动测量("步测")是耗时且繁琐的过程。使用照相机的自动测量也还不能提供正交视图,因为照相机在记录图像时位于单个位置,由此所记录的图像会发生透视变形。激光扫描仪也存在同样的问题,激光扫描仪从一个位置发射多个激光测量光束,并例如根据由周围区域反射的激光测量光束的飞行时间测量值,创建周围区域的多个扫描点("点云")。然而,这样创建的点云又只能呈现从激光扫描仪的位置开始的周围区域,因此,类似于相机图像,从其记录位置来看,会发生透视变形。
US2006/0182314A1描述了一种用于从激光扫描仪记录的点云开始创建正交视图的方法。在此方法中,用户必须选择3D视图内的视点,基于该视点创建正交视图。
EP2866198A2公开了一种方法,在该方法中通过计算在点云中确定突出方向。用户可以从多个突出方向中进行选择,以便基于此创建正交视图。
发明内容
本发明的目的是创建一种用于创建正交视图的方法,该方法比已知的测量方法更灵活且更不复杂。
根据本发明,该目的通过一种用于生成周围区域中的对象的正交视图的方法来实现,该方法包括以下步骤:
在围绕第一位置的预设的角度范围内创建基于位置的第一3D点云,其中所述第一3D点云通过位于所述第一位置处的激光扫描仪来创建,使得所述第一3D点云映射所述对象的至少一部分;
在计算机生成的表征中表示所述对象,其中所述计算机生成的表征是顶视图;
选择所述计算机生成的表征中的视图方向和视图边界;
将所述第一3D点云或由其衍生的衍生点云沿所述视图方向逆向投影到由所述视图边界限定的平面上;以及
将投影到所述视图边界内的所述平面上的所述第一3D点云或所述衍生的点云输出作为正交视图。
根据本发明的方法创建了以这样的方式处理激光扫描点云的选项,即从中获得正交视图是可能的。因此,本发明使得从单个点云提取映射在点云中的对象的若干不同正交视图成为可能。这是特别有价值的,因为在点云的创建期间,通常还未确定用户在稍后的时间点实际上将需要哪个正交视图。这样,根据映射在点云中的单个对象生成例如建筑物的正视图和侧视图的多个正交视图是可能的。
视图边界可以用于两个方面,即,一方面确定正交视图的图像区域(左、右、顶、底),以及另一方面确定图像深度,以便隐藏位于所需视图"前面"或"后面"的部分点云,例如位于建筑物前面的树。视图方向又确定了待映射的对象将被观察的方向。这些步骤也使得预先记录点云成为可能,并且使得仅在稍后的时间点单独地创建正交视图成为可能。
根据本发明的特别优选的实施例,至少两个基于位置的点云用于创建正交视图。为此,该方法可以包括以下步骤:
创建至少一个基于第二位置的3D点云,其是围绕第二位置创建的;以及
基于不同的位置将所述第一3D点云与所述第二3D点云调整,
其中,所述第一3D点云或衍生的第一3D点云的所述投影还包括将所述第二3D点云或衍生的第二3D点云沿所述视图方向逆向投影到上述平面上,并且所述输出还包括将投影到所述平面上的所述第二3D点云或衍生的第二3D点云输出。
在该优选实施例中,因此使用在不同位置记录的至少两个点云,并且在投影期间将其融合为共享正交视图。这是特别有利的,因为由于第二点云,在正交视图中表示对象的未映射在第一点云中的部分是可能的,例如因为建筑立面的部分在那里被建筑码头、汽车或树所覆盖。
应当理解,该方法不限于两个点云,而是可以扩展到任意数目的点云。这开辟了附加的优点,使得例如整个道路、城市或者甚至整个国家可以利用点云"绘制"并且以数据库的形式存储。对由点云集合捕捉的任意建筑物的正交视图感兴趣的建筑师、工程师或一般而言的用户,可以通过简单地指示视图边界和视图方向来自己创建这些视图。与传统的从各种方向创建各种建筑物的正交视图相比,由此节省了大量的时间和工作。
点云的相互调整可以以各种方式改进。首先,可以基于在创建第一3D点云和第二3D点云期间测量的角度方向来执行调整。这允许快速且特别是资源节约的调整,因为仅必须知道在点云的创建时间点处的激光扫描仪的角度方向。例如与磁场相比,为此可以按绝对值测量角度方向,或者例如通过陀螺仪相对于彼此测量角度方向,所述陀螺仪测量从第一位置到第二位置的移动变化。
其次,例如由于建筑物墙壁、车辆等的一致性,可以通过以计算机辅助方式定位第一3D点云和第二3D点云中的相同特征来执行调整。所述特征可以预先识别,特别是当参考目标用于参照时,或者通过反向旋转点云直到这些在特征中一致。
根据本发明的方法可以实现多个应用选项或实施选项,其中三个实施例是特别优选的。
在第一优选实施例中,每个3D点云在创建之后直接传输到终端,并且在终端上执行表示步骤、选择步骤、投影步骤和输出步骤。在点云的创建和正交视图的创建由同一实体执行时,例如在通过激光扫描仪创建的点云仅在公司内使用时,这是特别有利的。在这种情况下,例如经由互联网、经由激光扫描仪和终端之间的WLAN连接、经由数据线连接的局域网接口、或者还经由诸如USB存储之类的数据载体,点云可以直接传输到终端,例如工作站、笔记本电脑、手机等。
在第二优选实施例中,每个3D点云在创建之后传输到服务器,对象的表示在经由网络连接到服务器的终端上执行,视图方向和视图边界的选择从终端传输到服务器,投影在服务器中执行,并且正交视图的输出通过将正交视图从服务器传输到终端来执行。该实施例允许正交视图的基于服务器的生成。例如膝上型计算机、工作站或智能电话的终端设备,仅用于选择视图边界和视图方向,从而所有计算密集的方法步骤,尤其是投影,都在服务器中进行。此外,特别有利的是,因为高信息点云不必传输到终端,所以经由网络的数据传输极少。
在第三优选实施例中,每个3D点云传输到服务器,关于所需的地理区域的信息从终端传输到服务器,并且仅至少部分位于上述地理区域中的3D点云传输到终端,并且在终端上执行表示步骤、选择步骤、投影步骤和输出步骤。这是一种混合的变体,其基本上结合了上述两个实施例的优点。在该方法中,例如地区、城市或国家的多个点云可以存储在服务器中。用户可以下载与他或她相关的点云,并且亲自执行计算密集的步骤,使得服务器仅需提供存储容量。通过定制的技术功能也有助于这种系统的广泛推广,因为这里建筑师或城市规划者能够从点云的供应商单独地获取道路、地区或城市的各个点云包,以便然后能够根据他们自己的需要在本地创建正交视图。
在第二实施例和第三实施例的基于服务器的方法的情况下,点云可以通过例如广泛的测量的方式预先记录下来。然后,可以经由基于浏览器的平台向用户提供对点云的访问,以便在周围区域中在可自由选择的位置创建任意正交视图。各个点云可以单独分发,这也最小化了传输的数据量。特别地,点云、表征或者衍生的点云可以根据预设的地域或者根据对视图方向和视图边界的选择进行捆绑,以便促进在服务器与终端之间的分发。
上述计算机创建的表征例如可以由第三方供应商以地图的形式提供,用户在该表征中选择视图方向和视图边界。为此,该地图可以例如从本地存储器中读出,或者从互联网上下载。
然而,优选地,对象的计算机生成的表征是从一个3D点云本身或多个3D点云本身例如通过其数据缩减获得的,在该表征中选择视图方向和视图边界。由此创建的表征例如可以是周围区域的简化的也是融合的距离图像、彩色图像和/或强度图像,其可以经由互联网在仅需较少带宽的情况下提供给用户,以选择视图方向和视图边界。
此外,在以这种方式例如通过互联网分发给用户的表征也包含距离信息("深度信息")时,该表征可以以特别有利的方式直接用作原始3D点云的简化的("衍生的")3D点云,该距离信息也被称为"2.5D"。衍生的、简化的或用户适配的3D点云可以根据这样的2.5D表征"重构",然后通过投影在所选择的视图方向和视图边界上从该点云创建需要的正交视图。换言之,所衍生的第一3D点云因此优选地根据计算机生成的表征本身创建,并且基于所衍生的第一3D点云执行投影。由此,可以进一步减少要传输的数据,特别是在基于服务器的方法的情况下,因为(通常数据缩减的)2.5D或3D对象表征也表示待分发给用户的衍生点云。
作为替代,可以例如直接在激光扫描仪中或者通过服务器中的数据处理通过对第一点云进行数据缩减来创建衍生的点云。为此,例如可以删除点云中过于接近其它点的各个点,从而有效地降低点密度。
在创建每个3D点云期间,也优选地在预设角度范围内记录彩色图像,并且点云与彩色图像融合,使得以相应的色值输出正交视图。这实现了使用传统绘图方法不可实现的彩色正交视图,因为全景彩色图像本质上不能提供真正的正交视图。
附图说明
下面将基于附图中所示的示例性实施例更详细地描述本发明。在附图中:
图1以示意性透视图示出了在本发明的方法中使用的包括多个部分的周围区域中的对象;
图2示出了图1的对象的示例性的基于位置的全景图像;
图3示出了当正在执行本发明的方法时图1的对象在计算机生成的表征中的表征;
图4示出了由本发明的方法生成的图1的对象的正交视图;
图5以示意图示出了用于执行本发明的方法的另一实施例的激光扫描仪、服务器和三个终端;
图6示出了根据本发明的方法的第一实施例的流程图;
图7示出了根据本发明的方法的第二实施例的流程图;以及
图8示出了根据本发明的方法的第三实施例的流程图。
具体实施方式
图1示出了对象2位于其中的周围区域1。对象2例如是房屋,其与其他房屋3一起沿着道路4位于周围区域1中,一般来说位于街道景观中。对象2的其它例子包括城堡、桥梁、工业建筑物、景观、露天矿或地下矿井等。
此后描述的方法的目的是测量对象2并生成其图,即正交视图。为此使用一个或多个激光扫描仪5,它们例如由三脚架6支撑在工作高度处。
为了创建周围区域1的3D点云7,每个激光扫描仪5例如在预设的角度范围Ω(立体角)内发射多个激光束L,其中,基于记录在激光扫描仪5中的激光束L的反射,例如使用飞行时间或干涉测量,以测距点P的形式测量周围区域2。测距点P的集合形成3D点云7。作为参考,激光束L的相应发射方向例如在水平面中表示为方位角α,而在平行于方位角α的垂直平面中表示为仰角β。经由相应发射方向{α,β}发射的激光束L优选地均匀分布在预设角度范围Ω内。
在图1的示例中,示出了右激光扫描仪5的角度范围Ω,其在方位角α上具有(从任意选择的原点开始的)0°至30°的角度范围,而在仰角β上具有(从水平面开始的)-15°至+15°的角度范围。作为替代,还示出了角度范围Ω',其在方位角α在跨越0°至360°的角度范围。尽管在所示的示例中,所示的角度范围Ω'在仰角β上跨越-15°至+15°的有限角度范围,但是其也可以跨越高达-90°至+90°的角度范围,使得角度范围Ω'也可以成形为球体。
当在创建点云7的时间点处激光扫描仪的位置8例如通过GPS位置被地理定位时,点云7可以将具有特定发射方向{α,β}的各个激光测量束L的测距值链接为点P,或者已经将测距值转换为例如笛卡尔坐标系,例如转换为全局坐标系。
除了创建3D点云7之外,通过照相机9在预设角度范围Ω内记录一个或多个彩色图像10也是可能的,该彩色图像中的一个在图2中以例子的方式示出。此后,点云7可以与一个(多个)彩色图像10结合,即,点云7的每个点P被分配色值。以这种方式,以彩色输出随后创建的正交视图也是可能的。
为了将色值与点P一起存储,色值例如可以转换成黑白值(假设其尚未以这种方式记录)并且存储在RGB图像的一个颜色通道中,而点P的关联测距值可以存储在其它两个颜色通道中(或者仅存储在颜色通道之一中)。
从图2中可以明显看出,以基于位置的方式创建的点云7或彩色图像10总是以弯曲的方式映射所记录的包括对象2的周围区域1,由此如在图2中的房屋2的情况中很明显的,所记录的平面以失真的方式表示。为此,从这种基于位置的视图中无法识别出图形或正交视图。
为了进一步处理,每个点云7在由相应的激光扫描仪5创建之后因此传输到终端11,例如膝上型计算机、工作站、蜂窝电话等。传输可以任意地进行,例如在创建一个(多个)点云7之后或期间经由无线或硬连线接口直接在线进行,或者也可以仅在已经创建了一个或多个点云7之后例如借助于诸如USB棒之类的数据载体离线进行。
如图3所示,终端11在监视器12上以计算机生成的表征13向用户表示对象2。在最简单的情况下,该表征13是映射对象2的地理地图,如图3的例子所示。表征13甚至不必包含关于所记录的点云7本身的信息,即,表征13可以与其解耦。表征13可以由第三方供应商,例如由谷歌地图获取。然而,在所示的例子中,至少点云7的位置8被绘制在表征13中,以便向用户提供关于点云7的可用性的信息。
在另一个实施例中,选择例如以顶视图直接表示点云7(或几个点云7,如将在下文中描述的)的表征13,而不是独立于点云7的地图。这允许用户甚至在创建正交视图之前知道一个(多个)点云7提供什么数据。取决于设计,这种表征13可以是距离图像、彩色图像和/或强度图像。取决于实施例,表征13是2D表征、2.5D表征或3D表征。2.5D表征应当被理解为是指附加地编码了距离信息或深度信息例如作为"隐藏"在这里未使用的图像的颜色通道中的深度信息的2D图像。
如果已经直接从一个(多个)点云7获得表征13作为2.5D或3D表征13,则再次根据这样的2.5D或3D表征13重建点云7'是可能的,点云7'在这里被称为点云7的"衍生的"点云7'。例如,点云7中的与计算机生成的表征13不相关的各个测距点P没有考虑保留在表征13中。在这种情况下,由表征13重建的衍生的点云7'的大小小于原始点云7的大小。
现在为了生成对象2的正交视图,用户选择计算机生成的表征13中的视图方向14和视图边界15。在表征13是顶视图时,无论它是包括所绘制的对象2的地图,还是直接从一个(多个)点云7衍生的,可以特别容易地例如通过在起始点16上的第一次点击和在对角端点17上的第二次点击来将视图边界15绘制为地图中的矩形。作为替代,第一次点击可以通过按下鼠标按钮或输入键来执行,而第二次点击可以通过释放同一按钮或键来执行("使用鼠标绘制边框")。同时,在还考虑从起点16到终点17的方向时,可以选择矩形的短边之一作为视图方向。
当计算机生成的表征13不是2D视图而是3D透视图时,视图边界15例如可以在3D视图中表示为立方体。可以将视图方向14自动地确定在存在于点云中且最靠近立方体的平面(例如墙壁)的方向上。
图3中所示的视图边界15在两个维度上提供界限,该两个维度由示出的矩形限定。此外,高度界限或深度界限可以例如通过预设的或可设置的数值来选择。因此,即使表征13是二维的,视图边界15也优选为立方体。
为了生成正交视图18,该正交视图18在图4中作为结果示出,终端11现在将3D点云7或衍生的点云7',沿视图方向14逆向投影到由视图边界15限定的平面上,而无论所述衍生的点云7'是通过数据缩减直接从点云7创建的,还是从由点云7创建的2.5D或3D表征13重建的。视图边界15的一侧优选地位于所述平面中(例如,立方体视图边界的一侧位于所述平面中)。该平面另外优选地垂直于视图方向14。这就是为什么立方体视图边界的侧面总体上位于沿着视图方向14观察时位于前面的平面内。在图3的例子中,该平面垂直延伸到并且平行于用作视图边界的矩形的沿着视图方向观察的前侧19。为了创建平面图,平面将相应地水平地延伸。
在最后的方法步骤中,例如通过在终端11的监视器12上显示或者通过在连接到终端11的打印机上打印,来输出这样生成的正交视图18。
代替创建单个点云7或衍生的点云7'以及随后通过该单个点云7或7'生成正交视图18,预先创建多个点云7或7'也是可能的。为此,将激光扫描仪5或另一激光扫描仪5设置在第二位置8,并且基于此,创建至少一个基于第二位置的点云7(或衍生的点云7'),如图1中示意性地示出的那样。
为了融合第一和(至少一个)第二点云7,这些点云彼此调整。这首先基于不同的位置8进行,即点云7彼此相距一定距离,该距离对应于两个位置8之间的差。在某些情况下,例如在点云7具有相同的记录方向时,不需要两个点云7的角度方向。作为替代,在基于衍生的点云7'执行投影时融合衍生的点云7'也是可能的。
此外,还可以基于在创建第一和第二3D点云7期间测量的激光扫描仪5的角度方向来执行调整。激光扫描仪5的角度方向可以例如以绝对值(例如使用地球的磁场作为参考)来测量,或者如果将同一激光扫描仪5从第一位置8重新定位到第二位置8,则具有例如作为通过陀螺仪的测量的结果的相对关系。
作为替代或此外,还可以通过以计算机辅助方式在第一和第二3D点云7或7'中定位相同特征来执行调整。这些特征可以预先识别,特别是在诸如高反射标记对象或具有已知形式的标记对象的容易识别的已知"目标"用于参照时,或者通过反向旋转点云反复试验直到它们在所找到的特征中一致。
在(至少两个)点云7或衍生的点云7'已经调整之后,可以像单个点云7或单个衍生的点云7'来对待这些点云。特别地,各个点云7、7'的各个点P也可以存储为融合的点云7、7'。
为了基于两个或多个点云7或7'生成正交视图18,第一3D点云7或7'的投影也包括将第二3D点云7或7'沿视图方向14逆向投影到上述平面19上。如果多个点云7或7'融合成单个点云,则相应地仅进行一个投影,否则进行多于一个的投影。
图5示出了点云7或衍生的点云7'不必直接传输到终端11,而是也可以传输到服务器20,该服务器具有相应大的存储器以存储多个点云7、7'。例如,整个城市或国家的点云7、7'都存储在服务器20中。本身没有供其处理的点云7、7'的终端11充当想要生成正交视图18的用户的接口。终端11例如通过诸如互联网之类的网络21连接到服务器20。
在第一基于服务器的实施例中,服务器20本身执行所有计算密集的步骤。在每个3D点云7在创建之后传输到服务器20之后,对象2在终端11上的表征13中表示。此后,用户选择表征13中的视图方向14和视图边界15,并且视图方向14和视图边界15的选择从终端11传输到服务器20。此后,服务器20执行投影,并通过将正交视图18从服务器20传输到终端11来输出正交视图18。
在第二基于服务器的实施例中,服务器20仅用作多个点云7的存储单元,所述点云7可以选择性地传输给用户。在每个3D点云7在创建之后传输到服务器20之后,关于所需的地理区域的信息为此目的从终端11传输到服务器20。该信息可以是诸如所需的道路或城市的一条一般信息,或者其可以直接是视图方向14和视图边界15。因此,仅将至少部分位于上述地理区域的一个(多个)3D点云7、2.5D或3D表征13或衍生的点云7'传输到终端11,并且在终端11上执行表示步骤、选择步骤、投影步骤和输出步骤。由于上述信息也可以直接是视图方向14和视图边界15(在这种情况下,对象2是基于独立于点云7的表征13来表示的),所以表示步骤和选择步骤可以在一个(多个)点云7从服务器20传输到终端11之前或之后进行。
图6示出了上述方法的第一实施例,该方法例如可以以无服务器方式执行。在该方法中,在第一步骤S1中创建点云7,在第二步骤S2中根据点云7获得例如以点云7的2D、2.5D或3D表征的形式的表征13。在第三步骤S3中例如在终端11的监视器12上表示该表征13,接着在步骤S4中选择表征13中的视图方向14和视图边界15。在步骤S5中投影后,在步骤S6中输出正交视图。
图7示出了另一实施例,其中在左侧示出的步骤发生在终端11中,而在右侧示出的步骤在服务器20中执行(步骤S1除外,其在激光扫描仪5中执行)。在该实施例中,表征13特别地不是由点云7本身生成的,而是在步骤S7中例如经由互联网通过第三方供应商接收或加载的。
这样,创建点云7的步骤S1独立于表示表征13的步骤S3,因为表征13不是直接从点云7获得的。在步骤S4中,在终端11中选择了视图方向14和视图边界15之后,将这些传输到服务器20,在步骤S5中服务器20执行投影。由此创建的正交视图18随后传输到终端11,在步骤S6中输出。
图8示出了一个实施例,其中投影步骤S5和输出步骤S6基于衍生的点云7'进行。在该方法中,进行通过一个(多个)点云7的数据缩减来获得表征13的步骤S2,其中表征13以2.5D或3D表征13的形式存在,并且在步骤S3中例如作为2D视图输出。在选择步骤S4之后(或者之前),在步骤S8中根据2.5D或3D表征13创建衍生的点云7',即,根据表征13"重建"该(衍生的)点云7',以便然后能够将投影步骤S5应用于衍生的点云7'。
根据步骤S2和/或S8中的数据缩减的设计,以这种方式,可以针对衍生的点云7'实现更大或更小的数据缩减。数据缩减的2.5D或3D表征13也可以例如通过移动无线电通信以带宽节约的方式分发到具有低带宽互联网连接的终端11,终端11可以由此重建衍生的点云7'以进行投影。
在图8的实施例中,步骤S1在激光扫描仪5中执行,步骤S2-S6、S8在终端11中执行。作为选择,步骤S2在服务器20中执行,而在表征13已经从服务器20传输到终端11之后,步骤S3-S6、S8在终端11中执行。作为另一选择,如图7的实施例中的混合形式也是可能的,其中步骤S2和S8在服务器20中进行,而步骤S3、S4、S5和S6在终端11中进行。
因此,本发明不限于所示的实施例,而是包括由所附权利要求的范围覆盖的所有变体、修改和组合。
Claims (10)
1.一种用于生成周围区域(1)中的对象(2)的正交视图(18)的方法,其特征在于:
在围绕第一位置(8)的预设角度范围(Ω)内创建(S1)基于位置的第一3D点云(7),其中所述第一3D点云(7)通过位于所述第一位置(8)处的激光扫描仪(5)创建,使得所述第一3D点云(7)映射所述对象(2)的至少一部分;
在计算机生成的表征(13)中表示(S3)所述对象(2),其中所述计算机生成的表征是顶视图;
选择(S4)所述计算机生成的表征(13)中的视图方向(14)和视图边界(15);
将所述第一3D点云(7)或由其衍生的衍生的第一3D点云(7')沿所述视图方向(14)逆向投影(S5)到由所述视图边界(15)限定的平面(19)上;以及
将投影到所述视图边界(15)内的所述平面(19)上的所述第一3D点云(7)或所述衍生的第一3D点云(7')输出(S6)作为正交视图(18)。
2.根据权利要求1所述的方法,其特征在于:
创建(S1)至少一个基于第二位置的3D点云(7),其是围绕第二位置(8)创建的;以及
基于不同的位置(8)将所述第一3D点云(7)与所述第二3D点云(7)调整;
其中,所述第一3D点云(7)或衍生的第一3D点云(7')的所述投影(S5)还包括将所述第二3D点云(7)或从其衍生的衍生的第二3D点云(7')沿所述视图方向(14)逆向投影到上述平面(19)上,并且所述输出(S6)还包括将投影到所述平面(19)上的所述第二3D点云(7)或衍生的第二3D点云(7')输出。
3.根据权利要求2所述的方法,其中,所述调整还基于在创建(S1)所述第一3D点云和所述第二3D点云(7)期间测量的角度方向来执行。
4.根据权利要求2或3所述的方法,其中,所述调整还通过以计算机辅助的方式定位所述第一3D点云和所述第二3D点云(7)中的相同特征来执行。
5.根据权利要求1至4中任一项所述的方法,其中,每个点云(7)在创建(S1)之后直接传输至终端(11),并且在所述终端(11)上执行表示步骤(S3)、选择步骤(S4)、投影步骤(S5)和输出步骤(S6)。
6.根据权利要求1至4中任一项所述的方法,其中,每个3D点云(7)在创建(S1)之后传输至服务器(20),所述对象(2)的所述表示(S3)在连接至所述服务器(20)的终端(11)上执行,所述视图方向(14)和所述视图边界(15)的所述选择从所述终端(11)传输到所述服务器(20),所述投影(S5)在所述服务器(20)中执行,并且所述正交视图(18)的所述输出(S6)通过将所述正交视图(18)从所述服务器(20)传输至所述终端(11)来执行。
7.根据权利要求1至4中任一项所述的方法,其中,每个3D点云(7)传输至服务器(20),关于所需的地理区域的信息从终端(11)传输至所述服务器(20),并且仅至少部分地位于前述地理区域中的所述3D点云(7)传输至所述终端(11),并且表示步骤(S3)、选择步骤(S4)、投影步骤(S5)和输出步骤(S6)在所述终端(11)上执行。
8.根据权利要求1至7中任一项所述的方法,其中,所述计算机生成的表征(13)通过数据缩减从所述第一3D点云(7)获得。
9.根据权利要求8所述的方法,其中,所述衍生的第一3D点云(7')是根据所述计算机生成的表征(13)创建的,以及
所述投影(S5)基于所述衍生的第一3D点云(7')来执行。
10.根据权利要求1至7中任一项所述的方法,其中,在创建(S1)每个3D点云(7)期间,还在所述预设角度范围(Ω)内记录彩色图像(10),并且将所述点云(7)与所述彩色图像(10)融合,使得以相应的色值输出所述正交视图(18)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18194763.1A EP3623752A1 (de) | 2018-09-17 | 2018-09-17 | Verfahren zum generieren einer orthogonalansicht eines objekts |
EP18194763.1 | 2018-09-17 | ||
PCT/EP2019/074693 WO2020058184A1 (de) | 2018-09-17 | 2019-09-16 | Verfahren zum generieren einer orthogonalansicht eines objekts |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112840178A true CN112840178A (zh) | 2021-05-25 |
Family
ID=63787694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980067538.5A Pending CN112840178A (zh) | 2018-09-17 | 2019-09-16 | 用于生成对象的正交视图的方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11341713B2 (zh) |
EP (1) | EP3623752A1 (zh) |
CN (1) | CN112840178A (zh) |
CA (1) | CA3112311A1 (zh) |
WO (1) | WO2020058184A1 (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060182314A1 (en) * | 2005-02-11 | 2006-08-17 | England James N | Method and apparatus for displaying a calculated geometric entity within one or more 3D rangefinder data sets |
CN104700393A (zh) * | 2013-10-22 | 2015-06-10 | 莱卡地球系统公开股份有限公司 | 多个激光扫描的配准 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8179393B2 (en) * | 2009-02-13 | 2012-05-15 | Harris Corporation | Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment |
US20100208981A1 (en) * | 2009-02-13 | 2010-08-19 | Harris Corporation | Method for visualization of point cloud data based on scene content |
US20110187704A1 (en) * | 2010-02-04 | 2011-08-04 | Microsoft Corporation | Generating and displaying top-down maps of reconstructed 3-d scenes |
US9811880B2 (en) * | 2012-11-09 | 2017-11-07 | The Boeing Company | Backfilling points in a point cloud |
US10032311B1 (en) * | 2014-09-29 | 2018-07-24 | Rockwell Collins, Inc. | Synthetic image enhancing system, device, and method |
US10818084B2 (en) * | 2015-04-07 | 2020-10-27 | Geopogo, Inc. | Dynamically customized three dimensional geospatial visualization |
CN107918753B (zh) * | 2016-10-10 | 2019-02-22 | 腾讯科技(深圳)有限公司 | 点云数据处理方法及装置 |
EP3315907A1 (de) * | 2016-10-27 | 2018-05-02 | Leica Geosystems AG | Verfahren zur visuellen darstellung von scandaten |
-
2018
- 2018-09-17 EP EP18194763.1A patent/EP3623752A1/de not_active Withdrawn
-
2019
- 2019-09-16 CA CA3112311A patent/CA3112311A1/en active Pending
- 2019-09-16 US US17/275,278 patent/US11341713B2/en active Active
- 2019-09-16 CN CN201980067538.5A patent/CN112840178A/zh active Pending
- 2019-09-16 WO PCT/EP2019/074693 patent/WO2020058184A1/de active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060182314A1 (en) * | 2005-02-11 | 2006-08-17 | England James N | Method and apparatus for displaying a calculated geometric entity within one or more 3D rangefinder data sets |
CN104700393A (zh) * | 2013-10-22 | 2015-06-10 | 莱卡地球系统公开股份有限公司 | 多个激光扫描的配准 |
Non-Patent Citations (2)
Title |
---|
GRAPHISOFT DEUTSCHLAND: "AC19-Punktewolke 12-Punktewolken-Objekte in Projekt-Ansichten", Retrieved from the Internet <URL:https://www.youtube.com/watch?v=ITkG-2dUzn8> * |
GRAPHISOFT DEUTSCHLAND: "AC19-Punktewolke 13-Punktewolken-Objekte auf Layouts", Retrieved from the Internet <URL:https://www.youtube.com/watch?v=Lh1bCWr1Xnw> * |
Also Published As
Publication number | Publication date |
---|---|
CA3112311A1 (en) | 2020-03-26 |
WO2020058184A1 (de) | 2020-03-26 |
US11341713B2 (en) | 2022-05-24 |
US20220044473A1 (en) | 2022-02-10 |
EP3623752A1 (de) | 2020-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200255143A1 (en) | Three-dimensional reconstruction method, system and apparatus based on aerial photography by unmanned aerial vehicle | |
Balsa-Barreiro et al. | Generation of visually aesthetic and detailed 3D models of historical cities by using laser scanning and digital photogrammetry | |
US6759979B2 (en) | GPS-enhanced system and method for automatically capturing and co-registering virtual models of a site | |
CN111724477A (zh) | 一种多源数据融合构建多层次三维地形模型方法 | |
CN109883418A (zh) | 一种室内定位方法及装置 | |
JP5575758B2 (ja) | 空間予測近似 | |
JP2010533282A (ja) | 多視点パノラマを生成する方法及び装置 | |
JP2005070840A (ja) | 三次元モデル作成装置、三次元モデル作成方法、及び三次元モデル作成プログラム | |
CN109903382B (zh) | 点云数据的融合方法及装置 | |
KR20130086509A (ko) | 수치지도의 실시간 편집 방법 및 시스템, 이를 위한 서버 및 기록매체 | |
Bruno et al. | Accuracy assessment of 3d models generated from google street view imagery | |
KR20190114696A (ko) | 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법 및 이를 기록한 기록매체 | |
JP4255777B2 (ja) | 電波伝搬シミュレーション装置、及び電波伝搬シミュレーション方法 | |
Fangi et al. | Notre Dame du Haut by spherical photogrammetry integrated by point clouds generated by multi-view software | |
Alshawabkeh et al. | A new true ortho‐photo methodology for complex archaeological application | |
KR101409802B1 (ko) | 3차원 3d 스캐너를 활용한 최적의 공간정보 분석 시스템 | |
CN112840178A (zh) | 用于生成对象的正交视图的方法 | |
JP2020135764A (ja) | 立体物のモデリング方法、立体物のモデリング装置、サーバ、3次元モデル作成システム、およびプログラム | |
KR101176446B1 (ko) | 수치지도의 실시간 편집 방법 및 시스템, 이를 위한 서버 및 기록매체 | |
US20220358731A1 (en) | High density 3d environment capture with guided mixed reality | |
Frueh | Automated 3D model generation for urban environments | |
JPH1186035A (ja) | 距離参照型景観ラベリング装置およびシステム | |
Tsakiri et al. | 3D laser scanning for the documentation of cave environments | |
Al-Ruzouq et al. | Photogrammetry and GIS for three-dimensional modeling of the Dome of the Rock | |
CA2704656A1 (en) | Apparatus and method for modeling building |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210525 |