CN108287345A - 基于点云数据的空间扫描方法及系统 - Google Patents
基于点云数据的空间扫描方法及系统 Download PDFInfo
- Publication number
- CN108287345A CN108287345A CN201810083123.4A CN201810083123A CN108287345A CN 108287345 A CN108287345 A CN 108287345A CN 201810083123 A CN201810083123 A CN 201810083123A CN 108287345 A CN108287345 A CN 108287345A
- Authority
- CN
- China
- Prior art keywords
- data
- modules
- point cloud
- data capture
- capture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000013481 data capture Methods 0.000 claims abstract description 84
- 230000002093 peripheral effect Effects 0.000 claims description 2
- 230000007613 environmental effect Effects 0.000 abstract description 6
- 241001269238 Data Species 0.000 abstract description 4
- 230000010354 integration Effects 0.000 abstract description 3
- 238000001514 detection method Methods 0.000 abstract description 2
- 239000002131 composite material Substances 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 239000000956 alloy Substances 0.000 description 1
- 229910045601 alloy Inorganic materials 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于点云数据的空间扫描方法及系统,方法包括:通过位于扫描设备上的第一数据捕捉模块获取待扫描空间的周围环境信息;通过第二数据捕捉模块采集扫描设备的移动数据;通过第三数据捕捉模块采集扫描设备周围的图片信息;对第三数据捕捉模块采集的图片信息进行实时拼接,生成对齐后的数据;通过第四数据捕捉模块采集扫描设备周围的数据,并根据第四数据捕捉模块采集的数据创建点云数据;将获取的周围环境信息、对齐后的数据和点云数据进行整合,以生成待扫描空间的复合视图。本发明不受人工扫描方式检测范围和采集数据的限制,效率高,扫描精度高,且实现了多个扫描数据的整合,实时性好。本发明可广泛应用于环境扫描领域。
Description
技术领域
本发明涉及环境扫描领域,尤其是一种基于点云数据的室内环境空间扫描方法及系统。
背景技术
近年来,激光技术、计算机技术发展迅速,环境扫描技术在环境识别、导航和定位等方面的应用也越来越广泛。以谷歌地球和谷歌街景为例,其能提供基于GPS定位信息的高精度360度全景照片,极大地方便了用户进行导航、路径规划等操作,其应用已扩展到与空间分布有关的诸多方面,如自然环境监测与分析、资源调查与开发、交通导航等。然而,目前的环境扫描技术大多针对的是室外环境,对室内环境的扫描方案较为少见。在数字城市、应急响应模拟与培训、数字文化遗产、展会等方面的巨大应用需求推动下,尤其在反恐、消防、展会、智慧楼宇等典型应用中,室内环境扫描技术获得的室内环境信息是不可或缺的基础数据。和室外不同,室内环境具有近距离、多转角、易遮挡、光照复杂、缺乏绝对定位等特点,高效、准确地获取室内环境信息是具有挑战性的课题。目前普遍使用的解决方案是通过使用扫描设备来对室内环境进行人工扫描,但此人工扫描方式的扫描效率低下(尤其是在大规模场景下的室内环境扫描,如在1万平方米的博物馆内进行环境扫描)且难以保证扫描精度。而且目前的人工扫描方式受检测范围和采集数据的限制,也无法进行多个扫描数据的整合,实时性较差。
发明内容
为解决上述技术问题,本发明的目的在于:提供一种效率高、精度高和实时性好的基于点云数据的空间扫描方法及系统。
本发明所采取的第一技术方案是:
基于点云数据的空间扫描方法,包括以下步骤:
通过位于扫描设备上的第一数据捕捉模块获取待扫描空间的周围环境信息;
通过第二数据捕捉模块采集扫描设备的移动数据;
通过第三数据捕捉模块采集扫描设备周围的图片信息;
对第三数据捕捉模块采集的图片信息进行实时拼接,生成对齐后的数据;
通过第四数据捕捉模块采集扫描设备周围的数据,并根据第四数据捕捉模块采集的数据创建点云数据;
将获取的周围环境信息、对齐后的数据和点云数据进行整合,以生成待扫描空间的复合视图。
进一步,所述第一数据捕捉模块是用于不断获取周围环境信息的激光雷达传感器。
进一步,所述第二数据捕捉模块包括多个里程计传感器。
进一步,所述第三数据捕捉模块是多个摄像机传感器。
进一步,所述第四数据捕捉模块是RGB-D摄像机。
进一步,所述待扫描空间是室内空间。
本发明所采取的第二技术方案是:
基于点云数据的空间扫描系统,包括:
第一数据捕捉模块,用于捕捉待扫描空间的周围环境信息;
第二数据捕捉模块,用于捕捉扫描设备的移动数据;
第三数据捕捉模块,用于捕捉扫描设备周围的图片信息;
第四数据捕捉模块,用于创建待扫描空间周围的点云结构;
处理器,用于从所述第一数据捕捉模块、第二数据捕捉模块、第三数据捕捉模块和第四数据捕捉模块接收数据,并整合所接收的数据,以生成待扫描空间的复合视图。
进一步,所述扫描设备是自主或半自主机器人。
进一步,所述第一数据捕捉模块是用于不断获取周围环境信息的激光雷达传感器。
进一步,所述第二数据捕捉模块包括多个里程计传感器。
进一步,所述第三数据捕捉模块是多个摄像机传感器。
进一步,所述第四数据捕捉模块是RGB-D摄像机。
本发明的有益效果是:本发明基于点云数据的空间扫描方法及系统,通过第一数据捕捉模块、第二数据捕捉模块、第三数据捕捉模块和第四数据捕捉模块分别采集环境信息、移动数据、图片信息和深度数据,然后进行实时数据拼接和点云数据创建,最后进行扫描数据的整合来生成空间环境的复合视图,不受人工扫描方式检测范围和采集数据的限制,效率高,扫描精度高,且实现了多个扫描数据的整合,实时性好。
附图说明
图1为本发明基于点云数据的空间扫描系统的一种具体实施例结构框图;
图2为本发明空间扫描系统为机器人时的优选实施例结构示意图;
图3为本发明处理器的一种内部结构框图;
图4为本发明基于点云数据的空间扫描方法的一种具体实施例流程图。
具体实施方式
下面结合说明书附图和具体实施例对本发明作进一步解释和说明。
参考图1,本实施例用于空间扫描的系统为机器人,该机器人可以是手动控制、自主控制或二者的组合,还可以使用移动应用来控制。如图1所示,该机器人包括第一数据捕捉模块102,第二数据捕捉模块104,第三数据捕捉模块106,第四数据捕捉模块108以及处理器110。
进一步作为优选的实施方式,第一数据捕捉模块102可以是雷达RADAR或激光雷达LiDAR。其中,LiDAR更适合用来识别和获取与机器人距离较为接近的对象的信息。LiDAR可以被放置在机器人的顶部,以使机器人能够扫描整个环境的信息。第一数据捕捉模块102通过雷达RADAR或激光雷达LiDAR等发射的超声波或激光等信号后所接收的反射回的信号来获得环境的相应信息。
进一步作为优选的实施方式,第二数据捕捉模块104可以是捕捉机器人的运动数据的里程计传感器(里程计传感器是测量机器人的轮子转动运行的传感器)。里程计传感器能够识别机器人已经移动了多远以及机器人经过的距离。此外,里程计传感器足以识别机器人的准确移动。
进一步作为优选的实施方式,第三数据捕捉模块106由多个摄像机组成。例如,第三数据捕捉模块106至少有两个摄像机来捕捉机器人周围环境的图像信息。摄像机可以包括以球形视图方式捕捉数据的鱼眼镜头。优选地,第三数据捕捉模块106可包括4个朝向不同方向的摄像机,这4个摄像机能在同一时间捕捉机器人周围环境360度的图像信息。
进一步作为优选的实施方式,第四数据捕捉模块108可以是RGB-D摄像机,TOF(飞行时间)摄像机,测距摄像机和闪光激光雷达中的任意一种。这里,为了便于理解和说明,第四数据捕捉模块108选择RGB-D摄像机。RGB-D摄像机是与RGB摄像机关联工作的特定类型的深度感测设备,能够以像素为基础获取具有深度信息的RGB图像。RGB-D摄像机可捕捉对象(物体或环境,图中未示出)的一个或多个图像以获得对象的360度视图。此外,在某些实施例中,RGB-D摄像机还可用来生成对象的三维扫描模型和三维扫描图像。此时RGB-D摄像机被配置来创建对象的点云。点云可以是坐标系统中的一系列数据点。在三维坐标系中,这些数据点可以由X,Y和Z坐标来定义,并且可以表示对象的外表面。
进一步作为优选的实施方式,处理器110可以是具有各种硬件内部处理组件的独立处理器,或者处理器110的内部组件也可以由软件生成。处理器110也可以是多个处理器的集合,共同实现与上述独立处理器相同的功能。处理器110还可以用来实时对周围环境信息进行三维渲染。周围环境信息可以由处理器110通过将预设的模型数据,对齐后的图片(根据第三数据捕捉模块106的数据得到)和点云数据(根据第四数据捕捉模块108的数据得到)合并而成。其中,预设的模型数据,是指贴合扫描图片前的扫描模型(如几何体等常用模型),也可称为“裸模”,其可预先设置或存储在数据库中。本实施例通过在裸模上的相应位置贴合上实时扫描的图片并配合优化等进一步处理来生成对象最终的三维扫描图像。
参照图2,本实施例的机器人包括主框架202和多个支撑腿204。如图2所示,主框架202可包括第三数据捕捉模块106的多个摄像机。其中,主框架202可以由木材、金属、合金、塑料、橡胶和纤维中的任意一种或任意几种的组合构成。支撑腿204用于向机器人提供可达到和能够扫描到的高度(该高度可进行调节)。在本实施例中,多个摄像机可以包括鱼眼镜头,以便于捕捉对应方向区域的球形视图。主框架202还可包括第一数据捕捉模块102和第四数据捕获数据模块108。此外,机器人的多个支撑腿204中每个支撑腿204上包括至少一个第二数据捕捉模块104。第二数据捕捉模块104的布置是十分重要的,其能紧密跟踪机器人的运动行为。
进一步作为优选的实施方式,所述多个支撑腿204包括至少一个移动装置。其中,移动装置可以选择轮子,该轮子能在任意方向自由地滑动,从而能驱动整个机器人自动移动(对应于机器人自主控制方式)或受控移动(对应于手动控制方式)到目标位置,以进行实时运动扫描,解决了现有人工扫描方式无法实现实时运动扫描的问题。
进一步作为优选的实施方式,主框架202可以具有任何形状和尺寸。图2所示的主框架202的形状仅起方便说明的作用,并不以任何方式被认为是对本发明的限制。
进一步作为优选的实施方式,第一数据捕捉模块102除了设于主框架202内之外,还可以安装在机器人的顶部(即主框架202的顶部),如图2所示。类似地,第四数据捕捉模块108也可以安装在第一数据捕捉模块102的上方,如图2所示。
参考图3,本实施例的处理器110包括数据获取模块302、模型关联模块304、拼接模块306、点云模块308、边缘选择模块310、图像合成模块312和存储器316。
其中,数据获取模块302,用于控制来自第一数据捕捉模块102、第二数据捕捉模块104、第三数据捕捉模块106和第四数据捕捉模块108的数据捕获。数据获取模块302可以进一步控制扫描的速度、定时捕获的数据量等。另外,数据获取模块302还可以使得从各数据捕捉模块接收到的数据保持相互隔离状态,这可以通过使用存储器316来实现,在存储器316中来自每个数据捕捉模块的数据被分开来存储。
模型关联模块304,用于接收第一数据捕捉模块102和第二数据捕捉模块104的数据,然后结合预设的模型数据将接收的数据进行组合和关联,以生成一个空间环境的扫描模型。其中,预设的模型数据包含有空间环境的一个或多个扫描模型。在进行关联时,可根据相似性等模型属性信息来选择相应的扫描模型。
拼接模块306,用于接收第三数据捕捉模块106所捕捉的数据。第三数据捕捉模块106所捕捉的数据可包含在相同情况下的单个或多个摄像机拍摄的周边环境的图片。所述拍摄的图片可能包括用来高效地捕捉环境信息的球形视图。拼接模块306还用于拼接所接收到的多个图像信息,尤其是将在相同情况下拍摄的球面视图进行数据拼接与对齐,以产生3维或2维视图。
点云模块308,用于接收由第四数据捕捉模块108捕获的数据,并创建存在于室内环境内的对象的点云数据。点云数据可以使用由第四数据捕捉模块108捕获的多个深度图像来生成。点云可以是坐标系统中的一系列数据点。在三维坐标系中,这些数据点可以由X,Y和Z坐标来定义,并且可以表示对象的外表面。
边缘选择模块310,用于从模型关联模块304、拼接模块306和点云模块308接收数据,并通过采用诸如手动剪切分析、图形切割分析、射线基于剪切分析等各种优化方法来处理接收的数据。
图像合成模块312,用于从接收经边缘选择模块310处理后的数据,并对接收的数据进行进一步处理(包括填充孔洞和执行额外的混合等,用于减少瑕疵),以生成环境的单个3维或2维视图。图像合成模块312生成的视图可以发送到存储器进行存储,还可以被发送到用户设备的显示器以在用户显示界面上显示。
参考图4,本实施例基于图1所示的机器人来扫描空间环境的方法包括但不限于以下步骤:
步骤402:通过第一数据捕捉模块102捕捉周围环境距离信息。
步骤404:通过第二数据捕捉模块104捕捉机器人执行扫描功能时的移动数据。
步骤406:处理器110将捕捉的周围环境数据和移动数据进行组合和关联,以形成空间环境的扫描模型。
步骤408:通过第三数据捕捉模块106捕获周围环境的图像信息。
步骤410:处理器110将步骤408捕捉的所有图像信息拼接在一起以形成作为周围环境对齐后的数据(如球形视图的数据)。
步骤412:通过第四数据捕捉模块108来捕获机器人扫描时周围的深度数据。
步骤414:处理器110利用第四数据捕捉模块108捕获的数据来生成周围环境内的对象的点云数据。
步骤416:处理器110对空间环境的扫描模型、对齐后的数据和点云数据进行处理。其中,处理可以包括手动切割分析,图形切割分析,基于射线的切割分析等优化处理。
步骤418:对步骤416处理后的图像进行合成处理。合成处理可以包括孔填充或混合处理的步骤。
步骤420:根据步骤418的处理结果生成可以被传送到用户设备的显示器显示的单个3维或2维视图。
上述步骤402~步骤420组成的过程以预设的间隔重复进行,直到扫描完成且预定数量的捕捉数据在随后的周期性更新信息中没有变化。此外,如上所述,还可以根据远程设备的指令手动停止扫描。
以上方法和系统的流程图和/或框图详细描述了本发明的实施例。本领域的技术人员容易理解,上述流程图和/或框图中的每个框以及流程图和/或框图中的框的组合可以通过计算机程序指令来实现。这些计算机程序指令可以实现在流程图和/或框图的一个或多个框中指定的动作的手段,可以被提供给通用计算机,专用计算机或其他可编程数据处理装置的处理器以产生可由计算机或其他可编程数据处理装置的处理器执行的机器指令。这些计算机程序指令还可以被存储在计算机可读存储器中,该计算机可读存储器可以指导计算机或其他可编程数据处理装置以特定方式操作,使得存储在计算机可读存储器中的指令产生能实现该指令在流程图和/或框图的一个或多个方框中指定的动作的装置。计算机程序指令还可以被加载到计算机或其他可编程数据处理装置上,使计算机或其他可编程装置上执行一系列操作,从而在计算机或其他可编程装置根据加载的指令实现在流程图和/或框图的一个或多个框中所指定的动作或步骤。
另外,本发明实施例中的步骤编号或模块编号,其仅为了便于阐述说明而设置,对步骤之间的顺序或模块间的连接关系不做任何限定,实施例中的各步骤的执行顺序和模块间的连接关系均可根据本领域技术人员的理解来进行适应性调整。
以上是对本发明的较佳实施进行了具体说明,但本发明并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (10)
1.基于点云数据的空间扫描方法,其特征在于:包括以下步骤:
通过位于扫描设备上的第一数据捕捉模块获取待扫描空间的周围环境信息;
通过第二数据捕捉模块采集扫描设备的移动数据;
通过第三数据捕捉模块采集扫描设备周围的图片信息;
对第三数据捕捉模块采集的图片信息进行实时拼接,生成对齐后的数据;
通过第四数据捕捉模块采集扫描设备周围的数据,并根据第四数据捕捉模块采集的数据创建点云数据;
将获取的周围环境信息、对齐后的数据和点云数据进行整合,以生成待扫描空间的复合视图。
2.根据权利要求1所述的基于点云数据的空间扫描方法,其特征在于:所述第一数据捕捉模块是用于不断获取周围环境信息的激光雷达传感器。
3.根据权利要求1所述的基于点云数据的空间扫描方法,其特征在于:所述第二数据捕捉模块包括多个里程计传感器。
4.根据权利要求1所述的基于点云数据的空间扫描方法,其特征在于:所述第三数据捕捉模块是多个摄像机传感器。
5.根据权利要求1所述的基于点云数据的空间扫描方法,其特征在于:所述第四数据捕捉模块是RGB-D摄像机。
6.根据权利要求1所述的基于点云数据的空间扫描方法,其特征在于:所述待扫描空间是室内空间。
7.基于点云数据的空间扫描系统,其特征在于:包括:
第一数据捕捉模块,用于捕捉待扫描空间的周围环境信息;
第二数据捕捉模块,用于捕捉扫描设备的移动数据;
第三数据捕捉模块,用于捕捉扫描设备周围的图片信息;
第四数据捕捉模块,用于创建待扫描空间周围的点云结构;
处理器,用于从所述第一数据捕捉模块、第二数据捕捉模块、第三数据捕捉模块和第四数据捕捉模块接收数据,并整合所接收的数据,以生成待扫描空间的复合视图。
8.根据权利要求7所述的基于点云数据的空间扫描系统,其特征在于:所述扫描设备是自主或半自主机器人。
9.根据权利要求7所述的基于点云数据的空间扫描系统,其特征在于:所述第一数据捕捉模块是用于不断获取周围环境信息的激光雷达传感器。
10.根据权利要求7所述的基于点云数据的空间扫描系统,其特征在于:所述第二数据捕捉模块包括多个里程计传感器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762584133P | 2017-11-10 | 2017-11-10 | |
US62/584,133 | 2017-11-10 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108287345A true CN108287345A (zh) | 2018-07-17 |
Family
ID=62836116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810083123.4A Pending CN108287345A (zh) | 2017-11-10 | 2018-01-29 | 基于点云数据的空间扫描方法及系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN108287345A (zh) |
WO (1) | WO2019091115A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110888442A (zh) * | 2019-11-29 | 2020-03-17 | 中国科学院自动化研究所 | 消防机器人和基于云平台架构的消防机器人系统 |
CN113227713A (zh) * | 2018-12-13 | 2021-08-06 | 大陆汽车有限责任公司 | 生成用于定位的环境模型的方法和系统 |
TWI741450B (zh) * | 2018-05-03 | 2021-10-01 | 聯發科技股份有限公司 | 物體檢測方法及裝置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113359154A (zh) * | 2021-05-24 | 2021-09-07 | 邓良波 | 一种室内外通用的高精度实时测量方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101577795A (zh) * | 2009-06-17 | 2009-11-11 | 深圳华为通信技术有限公司 | 一种实现全景图像的实时预览的方法和装置 |
CN102679959A (zh) * | 2012-05-03 | 2012-09-19 | 浙江工业大学 | 基于主动全景视觉传感器的全方位三维建模系统 |
CN102938142A (zh) * | 2012-09-20 | 2013-02-20 | 武汉大学 | 基于Kinect的室内LiDAR缺失数据填补方法 |
CN104865578A (zh) * | 2015-05-12 | 2015-08-26 | 上海交通大学 | 一种室内停车场高精细地图生成装置及方法 |
US9224368B2 (en) * | 2013-02-20 | 2015-12-29 | Google Inc. | Merging three-dimensional models of varying resolution |
CN105205858A (zh) * | 2015-09-18 | 2015-12-30 | 天津理工大学 | 一种基于单个深度视觉传感器的室内场景三维重建方法 |
CN107150329A (zh) * | 2017-04-27 | 2017-09-12 | 中国矿业大学 | 一种基于三自由度视觉平台的移动机器人及其控制方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8457790B2 (en) * | 2007-09-14 | 2013-06-04 | Zimmer, Inc. | Robotic calibration method |
US10088317B2 (en) * | 2011-06-09 | 2018-10-02 | Microsoft Technologies Licensing, LLC | Hybrid-approach for localization of an agent |
US20130338525A1 (en) * | 2012-04-24 | 2013-12-19 | Irobot Corporation | Mobile Human Interface Robot |
CN106325268A (zh) * | 2015-06-30 | 2017-01-11 | 芋头科技(杭州)有限公司 | 一种移动控制装置及移动控制方法 |
-
2018
- 2018-01-29 CN CN201810083123.4A patent/CN108287345A/zh active Pending
- 2018-06-15 WO PCT/CN2018/091575 patent/WO2019091115A1/en active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101577795A (zh) * | 2009-06-17 | 2009-11-11 | 深圳华为通信技术有限公司 | 一种实现全景图像的实时预览的方法和装置 |
CN102679959A (zh) * | 2012-05-03 | 2012-09-19 | 浙江工业大学 | 基于主动全景视觉传感器的全方位三维建模系统 |
CN102938142A (zh) * | 2012-09-20 | 2013-02-20 | 武汉大学 | 基于Kinect的室内LiDAR缺失数据填补方法 |
US9224368B2 (en) * | 2013-02-20 | 2015-12-29 | Google Inc. | Merging three-dimensional models of varying resolution |
CN104865578A (zh) * | 2015-05-12 | 2015-08-26 | 上海交通大学 | 一种室内停车场高精细地图生成装置及方法 |
CN105205858A (zh) * | 2015-09-18 | 2015-12-30 | 天津理工大学 | 一种基于单个深度视觉传感器的室内场景三维重建方法 |
CN107150329A (zh) * | 2017-04-27 | 2017-09-12 | 中国矿业大学 | 一种基于三自由度视觉平台的移动机器人及其控制方法 |
Non-Patent Citations (2)
Title |
---|
WEN,C.ET AL.: "《Three-Dimensional Indoor Mobile Mapping With Fusion of Two-Dimensional Laser Scanner and RGB-D Camera Data》", 《GEOSCIENCE AND REMOTE SENSING LETTERS》 * |
陈峥嵘: "《基于RGBD传感器的室内三维重建》", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI741450B (zh) * | 2018-05-03 | 2021-10-01 | 聯發科技股份有限公司 | 物體檢測方法及裝置 |
CN113227713A (zh) * | 2018-12-13 | 2021-08-06 | 大陆汽车有限责任公司 | 生成用于定位的环境模型的方法和系统 |
CN110888442A (zh) * | 2019-11-29 | 2020-03-17 | 中国科学院自动化研究所 | 消防机器人和基于云平台架构的消防机器人系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2019091115A1 (en) | 2019-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA3120725C (en) | Surveying and mapping system, surveying and mapping method and device, apparatus and medium | |
CN108287345A (zh) | 基于点云数据的空间扫描方法及系统 | |
CN108789421B (zh) | 基于云平台的云机器人交互方法和云机器人及云平台 | |
CN112132972A (zh) | 一种激光与图像数据融合的三维重建方法及系统 | |
CN112469967B (zh) | 测绘系统、测绘方法、装置、设备及存储介质 | |
CN108286945A (zh) | 基于视觉反馈的三维扫描系统和方法 | |
US20180204387A1 (en) | Image generation device, image generation system, and image generation method | |
CN108332660A (zh) | 机器人三维扫描系统和扫描方法 | |
CN115641401A (zh) | 一种三维实景模型的构建方法及相关装置 | |
JP2023546739A (ja) | シーンの3次元モデルを生成するための方法、装置、およびシステム | |
WO2022077238A1 (zh) | 成像显示方法、遥控终端、装置、系统及存储介质 | |
CN108340405A (zh) | 一种机器人三维扫描系统及方法 | |
CN108364340A (zh) | 同步空间扫描的方法及系统 | |
CN108447042A (zh) | 城市景观影像数据的融合方法及系统 | |
CN108347561B (zh) | 激光引导扫描系统及扫描方法 | |
CN110021210B (zh) | 一种具有可扩展性虚拟空间的无人机vr训练方法 | |
CN111868656B (zh) | 一种作业控制系统、作业控制方法、装置、设备及介质 | |
CN117103295A (zh) | 位姿确定方法及建筑机器人 | |
US11943539B2 (en) | Systems and methods for capturing and generating panoramic three-dimensional models and images | |
CN112672134B (zh) | 基于移动终端三维信息采集控制设备及方法 | |
CN108282615B (zh) | 周边环境扫描方法及系统 | |
CN108287549A (zh) | 一种改善空间扫描时间性能的方法及系统 | |
CN108363392A (zh) | 确定扫描的最佳路径的方法及系统 | |
CN112304250A (zh) | 一种移动物体之间的三维匹配设备及方法 | |
US20240244330A1 (en) | Systems and methods for capturing and generating panoramic three-dimensional models and images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180717 |
|
RJ01 | Rejection of invention patent application after publication |