WO2020119684A1 - 一种3d导航语义地图更新方法、装置及设备 - Google Patents

一种3d导航语义地图更新方法、装置及设备 Download PDF

Info

Publication number
WO2020119684A1
WO2020119684A1 PCT/CN2019/124335 CN2019124335W WO2020119684A1 WO 2020119684 A1 WO2020119684 A1 WO 2020119684A1 CN 2019124335 W CN2019124335 W CN 2019124335W WO 2020119684 A1 WO2020119684 A1 WO 2020119684A1
Authority
WO
WIPO (PCT)
Prior art keywords
map
grid
updating
coordinates
camera
Prior art date
Application number
PCT/CN2019/124335
Other languages
English (en)
French (fr)
Inventor
张锲石
程俊
刘志强
Original Assignee
中国科学院深圳先进技术研究院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中国科学院深圳先进技术研究院 filed Critical 中国科学院深圳先进技术研究院
Publication of WO2020119684A1 publication Critical patent/WO2020119684A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3881Tile-based structures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3878Hierarchical structures, e.g. layering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Definitions

  • the present application belongs to the field of maps, and particularly relates to a method, device and equipment for updating a 3D navigation semantic map.
  • the 3D semantic information of environmental space is particularly important.
  • a simple grasping task needs to know not only what something is, but also its location.
  • the user and the robot communicate, if the user and the robot have a common spatial and semantic understanding, the user can issue instructions that can be effectively executed. For example, when the user issues the instruction "take coffee cup from the nearest table on your right", the robot needs to understand the meaning of "table” and “coffee cup”, and understand the distance information "shortest" between the target and the robot body.
  • the initial indoor semantic map will gradually decay or even Is to undermine the performance of location-based service systems. Under such circumstances, the indoor semantic map cannot not only improve the existing indoor location-based service experience, but also cannot generate a new indoor location-based service system.
  • the mobile terminal crowdsourcing method is used to publish the crowdsourcing tasks to all mobile terminals.
  • the indoor semantic map is updated according to the task results and the corresponding evaluation results. Additional units are required to participate in the update. The calculation process is more complicated and the update is real-time. not tall.
  • the embodiments of the present application provide a method, device and device for updating a 3D navigation semantic map.
  • additional units are required to participate in the update, the calculation process is more complicated, and the updated The problem of low real-time.
  • a first aspect of an embodiment of the present application provides a 3D navigation semantic map update method.
  • the 3D navigation semantic map update method includes:
  • the step of constructing a 3D map based on the image collected by the camera includes:
  • the TSDF value of the small square is fused to generate a 3D map.
  • the step of performing target recognition on the collected image information through a convolutional neural network and mapping the recognized result to the 3D map includes:
  • VGG-16-Atrous as a basic network, a feature extraction layer is added on the basic network, and in the detection process, detection is performed on both the added feature layer and the basic network feature layer.
  • the step of performing target recognition on the collected image information through a convolutional neural network and mapping the recognized result to the 3D map includes:
  • the loss function of the convolutional neural network is:
  • L conf is the classification loss
  • L loc is the positioning loss
  • represents the defect and the positioning balance constant, adjusted according to different recognition areas
  • x represents the training sample
  • c represents the defect classification
  • l represents the positioning prediction frame
  • g represents the calibration sample Real box.
  • the 3D map is projected onto a 2D grid map to establish a correspondence between the 3D map and the 2D grid map, when the two-dimensional data changes
  • the step of storing and updating the spatial information of the 3D map corresponding to the grid in the grid map through the two-dimensional array includes:
  • the 3D navigation semantic map is updated through the correspondence between the two-dimensional array and the nodes in the octree structure of the three-dimensional map.
  • the step of updating the two-dimensional state of the grid through a two-dimensional array includes:
  • the two-dimensional state of the grid is updated with the currently acquired two-dimensional data.
  • a second aspect of an embodiment of the present application provides a 3D navigation semantic map update device.
  • the 3D navigation semantic map update device includes:
  • the 3D map construction unit is used to construct a 3D map based on the image collected by the camera;
  • the target recognition unit is used to perform target recognition on the collected image information through a convolutional neural network, and map the recognized result to the 3D map;
  • a map updating unit is used to project the 3D map onto a 2D grid map, establish a correspondence between the 3D map and the 2D grid map, and store and update the grid map through a two-dimensional array when the two-dimensional data changes The spatial information of the 3D map corresponding to the grid.
  • the 3D map construction unit includes:
  • Segmentation subunit used to divide the 3D space of a predetermined size into multiple small squares uniformly
  • the coordinate determination subunit is used to collect images including depth information through the camera and determine the coordinates and normal vector coordinates of each small square;
  • the camera posture determination subunit is used to calculate the current camera position and posture according to the coordinates and normal vector coordinates of the small square in the current frame, and the coordinates and normal vector coordinates predicted in the previous frame;
  • the TSDF value updating subunit is used to update the TSDF value of the shortest distance from the small square to the surface according to the position and posture of the current camera;
  • the fusion subunit is used to fuse the TSDF values of the small squares to generate a 3D map.
  • a third aspect of an embodiment of the present application provides a 3D navigation semantic map update device, including a memory, a processor, and a computer program stored in the memory and executable on the processor, characterized in that When the processor executes the computer program, the steps of the method according to any one of the first aspects are realized.
  • a fourth aspect of the embodiments of the present application provides a computer-readable storage medium that stores a computer program, and when the computer program is executed by a processor, the method according to any one of the first aspects is implemented A step of.
  • the embodiment of the present application has the following beneficial effects: it collects images through a camera to construct a 3D map, and uses a convolutional neural network to identify the target in the image, maps the recognition result to the 3D map, and maps the 3D map Project to a 2D raster map, establish the correspondence between the 3D map and the 2D raster map, store and update the spatial information of the 3D map corresponding to the grid in the 2D raster map through a two-dimensional array, which is conducive to simplify the update of the semantic map Operation to improve the efficiency of updating the semantic map.
  • FIG. 1 is a schematic diagram of an implementation process of a method for updating a 3D navigation semantic map provided by an embodiment of the present application
  • FIG. 2 is a schematic diagram of an implementation process of constructing a 3D map provided by an embodiment of the present application
  • FIG. 3 is a schematic diagram of creating an index of pixels from a grid to a three-dimensional map provided by an embodiment of the present application
  • FIG. 4 is a schematic diagram of a grid-to-octree node mapping provided by a real-life example of this application;
  • FIG. 5 is a schematic diagram of a 3D navigation semantic map updating device provided by an embodiment of the present application.
  • FIG. 6 is a schematic diagram of a 3D navigation semantic map updating device provided by an embodiment of the present application.
  • FIG. 1 is a schematic diagram of an implementation process of a method for updating a 3D navigation semantic map provided by an embodiment of the present application. Details are as follows:
  • step S101 construct a 3D map according to the image collected by the camera
  • kinect can be used to collect the point cloud data of the scene, and after the steps of depth image enhancement, point cloud calculation and registration, data fusion, and surface generation, the three-dimensional reconstruction of the scene is completed.
  • the 3D map construction method shown in FIG. 2 can be used to quickly complete the construction of the 3D map, which may include:
  • step S201 the 3D space of a predetermined size is evenly divided into multiple small squares
  • the predetermined 3D space may be determined according to the device using the method, such as the scene in which the robot is located.
  • the 3D space of the predetermined size may be 3m ⁇ 3m ⁇ 3m, and the size of the small square may be 512 ⁇ 512 ⁇ 512.
  • step S202 an image including depth information is collected by the camera, and the coordinates and normal vector coordinates of each small square are determined;
  • the collected image including depth information it can be filtered to reduce noise first, for example, bilateral filtering can be selected to maintain a clear boundary of the image.
  • filtering can be performed by weighted averaging in the spatial domain. The closer the pixel is to the center point, the higher the weight.
  • the weighted average of the spatial domain the weighted average of the value domain is obtained, that is, the closer the pixel gray value is to the gray value of the central pixel, the higher the weight.
  • the gray value is very different, so although the pixels on both sides of the boundary are close together in the spatial domain, the gray value of the pixels near the boundary is very different and the weight is very low, so you can maintain a clear boundary.
  • step S203 according to the coordinates and normal vector coordinates of the small square of the current frame, and the coordinates and normal vector coordinates of the small square predicted in the previous frame, calculate the position and posture of the current camera;
  • the point-to-point distance is projected to the normal vector to determine the position and posture of the camera.
  • step S204 the TSDF value of the shortest distance from the small square to the surface is updated according to the position and posture of the current camera;
  • each small square to the camera according to the calculated camera position and posture. If it is in the camera's viewing cone, there will be a pixel corresponding to it.
  • D i (p) is the actual measurement of this pixel from the surface Value
  • t i -v g is the distance from the small square to the camera
  • the difference between the two is the SDF (point to surface distance) value.
  • max truncation to normalize to get the current TSDF value.
  • the TSDF value can be updated by weighted average. The closer the small square is to the camera and the closer it is to the camera, the greater the weight.
  • step S205 the TSDF values of the small squares are fused to generate a 3D map.
  • TSDF After updating the TSDF value, you can use TSDF to estimate the surface.
  • the surface thus estimated has less noise than the depth map obtained directly with the RGBD camera.
  • the estimated surface and the measured value of the new frame together can estimate the position and posture of the camera.
  • step S102 perform target recognition on the collected image information through a convolutional neural network, and map the recognized result to the 3D map;
  • the single shot multi-boundary detection SSD method based on the convolutional neural network to generate a predetermined number of object suggestion bounding boxes for key frame images and calculate the confidence of each bounding box.
  • the convolutional neural network described in this application can use VGG-16-Atrous (the number of layers with trainable and trainable parameters in the entire convolutional neural network is 16) as a basic network, and a feature extraction layer is added to the basic network .
  • the detection process not only in the feature layer (for example, can be conv8_2, conv9_2, conv_10_2, pool_11), in order to ensure that the network has a good detection effect on small targets, the detection process can also be in the basic network feature layer (conv4_3 ,conv_7).
  • the loss function of the convolutional neural network can be defined as
  • L conf is the classification loss
  • L loc is the positioning loss
  • represents the defect and the positioning balance constant, adjusted according to different recognition areas
  • x represents the training sample
  • c represents the defect classification
  • l represents the positioning prediction frame
  • g represents the calibration sample Real box.
  • step S103 the 3D map is projected onto a 2D grid map to establish a correspondence between the 3D map and the 2D grid map.
  • the two-dimensional array is used to store and update the Spatial information of the 3D map corresponding to the grid.
  • the coordinates of the position of each point in space can be uniquely determined.
  • the focus is usually on navigation and obstacle avoidance, so we can project the three-dimensional points in the 3D map onto the 2D grid map, which is suitable for robot navigation and obstacle avoidance.
  • the 2D projection can be completed by discarding the 3D coordinates, that is, the Z coordinate data, and the state of the grid marked by the 2D array (the stored value 0 indicates that the grid is not occupied, and 1 indicates that it is occupied).
  • the index of pixels from the grid to the 3D map can be established, as shown in Figure 3, including:
  • step S301 the index relationship between the grid and the pixels in the 2D grid map is established
  • the three-dimensional point projection can be converted into a two-dimensional point, and according to the division of the grid, the three-dimensional pixel point corresponding to each grid can be determined .
  • step S302 the spatial information of the 3D map is projected onto the grid according to the index relationship between the grid and the pixels, and the two-dimensional state of the grid is determined according to the spatial information of the 3D map;
  • the spatial information of the 3D map determine whether the pixel point of the spatial obstacle exists at the location of the grid, and determine the two-dimensional state of the grid according to the correspondence between the grid and the pixel point.
  • the two-dimensional state can be 1 and 0, where 1 can be occupied and 0 means unoccupied.
  • step S303 when the two-dimensional array is updated, the 3D navigation semantic map is updated through the correspondence between the two-dimensional array and the nodes in the octree structure of the three-dimensional map.
  • the state of the grid can be quickly updated, and the two-dimensional array of the current storage grid state and the previous storage grid state The two-dimensional arrays are compared. If there are differences, the grid status can be updated through the current two-dimensional array.
  • This application establishes the correspondence between the 3D map and the 2D grid map by mapping the recognition results to the 3D map and projecting the 3D map onto the 2D grid map, and storing the grid locations in the 2D grid map through a two-dimensional array
  • the spatial information of the corresponding 3D map is helpful to simplify the update operation of the semantic map and improve the update efficiency of the semantic map.
  • FIG. 5 is a schematic structural diagram of a 3D navigation semantic map updating device provided by an embodiment of the present application, which is described in detail as follows:
  • the 3D navigation semantic map updating device includes:
  • the 3D map construction unit 501 is used to construct a 3D map according to the image collected by the camera;
  • the target recognition unit 502 is configured to perform target recognition on the collected image information through a convolutional neural network, and map the recognized result to the 3D map;
  • the map updating unit 503 is used to project the 3D map onto the 2D grid map, establish a correspondence between the 3D map and the 2D grid map, and store and update the grid map through the two-dimensional array when the two-dimensional data changes Spatial information of the 3D map corresponding to the grid in.
  • the 3D map construction unit includes:
  • Segmentation subunit used to divide the 3D space of a predetermined size into multiple small squares uniformly
  • the coordinate determination subunit is used to collect images including depth information through the camera and determine the coordinates and normal vector coordinates of each small square;
  • the camera posture determination subunit is used to calculate the current camera position and posture according to the coordinates and normal vector coordinates of the small square in the current frame, and the coordinates and normal vector coordinates predicted in the previous frame;
  • the TSDF value updating subunit is used to update the TSDF value of the shortest distance from the small square to the surface according to the position and posture of the current camera;
  • the fusion subunit is used to fuse the TSDF values of the small squares to generate a 3D map.
  • the 3D navigation semantic map updating device described in this application corresponds to the 3D navigation semantic map updating method described in FIG. 1.
  • the 3D navigation semantic map updating device 6 of this embodiment includes: a processor 60, a memory 61, and a computer program 62 stored in the memory 61 and executable on the processor 60, for example, 3D Navigation semantic map update program.
  • the processor 60 executes the computer program 62, the steps in the embodiments of the above 3D navigation semantic map updating methods are implemented.
  • the processor 60 executes the computer program 62, the functions of each module/unit in the foregoing device embodiments are realized.
  • the computer program 62 may be divided into one or more modules/units, and the one or more modules/units are stored in the memory 61 and executed by the processor 60 to complete This application.
  • the one or more modules/units may be a series of computer program instruction segments capable of performing specific functions.
  • the instruction segments are used to describe the execution process of the computer program 62 in the 3D navigation semantic map updating device 6.
  • the computer program 62 may be divided into:
  • the 3D map construction unit is used to construct a 3D map based on the image collected by the camera;
  • the target recognition unit is used to perform target recognition on the collected image information through a convolutional neural network, and map the recognized result to the 3D map;
  • a map update unit is used to project the 3D map onto a 2D grid map, establish a correspondence between the 3D map and the 2D grid map, and store and update the grid map through a two-dimensional array when the two-dimensional data changes The spatial information of the 3D map corresponding to the grid.
  • the 3D navigation semantic map updating device 6 may be a robot.
  • the 3D navigation semantic map updating device may include, but is not limited to, the processor 60 and the memory 61.
  • FIG. 6 is only an example of the 3D navigation semantic map update device 6, and does not constitute a limitation on the 3D navigation semantic map update device 6, and may include more or less components than the illustration, or a combination
  • Some components, or different components, for example, the 3D navigation semantic map updating device may further include an input and output device, a network access device, a bus, and the like.
  • the so-called processor 60 may be a central processing unit (Central Processing Unit, CPU), or other general-purpose processors, digital signal processors (Digital Signal Processor, DSP), application specific integrated circuits (Application Specific Integrated Circuit, ASIC), Ready-made programmable gate array (Field-Programmable Gate Array, FPGA) or other programmable logic devices, discrete gate or transistor logic devices, discrete hardware components, etc.
  • the general-purpose processor may be a microprocessor or the processor may be any conventional processor or the like.
  • the memory 61 may be an internal storage unit of the 3D navigation semantic map updating device 6, such as a hard disk or a memory of the 3D navigation semantic map updating device 6.
  • the memory 61 may also be an external storage device of the 3D navigation semantic map updating device 6, for example, a plug-in hard disk equipped on the 3D navigation semantic map updating device 6, a smart memory card (Smart Media Card, SMC), Secure Digital (SD) card, Flash card, etc.
  • the memory 61 may also include both the internal storage unit of the 3D navigation semantic map updating device 6 and the external storage device.
  • the memory 61 is used to store the computer program and other programs and data required by the 3D navigation semantic map update device.
  • the memory 61 can also be used to temporarily store data that has been or will be output.
  • each functional unit and module is used as an example for illustration.
  • the above-mentioned functions may be allocated by different functional units
  • Module completion means that the internal structure of the device is divided into different functional units or modules to complete all or part of the functions described above.
  • the functional units and modules in the embodiments may be integrated into one processing unit, or each unit may exist alone physically, or two or more units may be integrated into one unit.
  • the above integrated unit may use hardware It can also be implemented in the form of software functional units.
  • the specific names of each functional unit and module are only for the purpose of distinguishing each other, and are not used to limit the protection scope of the present application.
  • the disclosed device/terminal device and method may be implemented in other ways.
  • the device/terminal device embodiments described above are only schematic.
  • the division of the module or unit is only a logical function division, and in actual implementation, there may be another division manner, such as multiple units Or components can be combined or integrated into another system, or some features can be ignored or not implemented.
  • the displayed or discussed mutual coupling or direct coupling or communication connection may be indirect coupling or communication connection through some interfaces, devices or units, and may be in electrical, mechanical or other forms.
  • the units described as separate components may or may not be physically separated, and the components displayed as units may or may not be physical units, that is, they may be located in one place, or may be distributed on multiple network units. Some or all of the units may be selected according to actual needs to achieve the purpose of the solution of this embodiment.
  • each functional unit in each embodiment of the present application may be integrated into one processing unit, or each unit may exist alone physically, or two or more units may be integrated into one unit.
  • the above integrated unit may be implemented in the form of hardware or software functional unit.
  • the integrated module/unit is implemented in the form of a software functional unit and sold or used as an independent product, it may be stored in a computer-readable storage medium.
  • the present application can implement all or part of the processes in the methods of the above embodiments, and can also be completed by a computer program instructing relevant hardware.
  • the computer program can be stored in a computer-readable storage medium. When the program is executed by the processor, the steps of the foregoing method embodiments may be implemented.
  • the computer program includes computer program code, and the computer program code may be in the form of source code, object code, executable file, or some intermediate form.
  • the computer-readable medium may include: any entity or device capable of carrying the computer program code, a recording medium, a USB flash drive, a mobile hard disk, a magnetic disk, an optical disk, a computer memory, a read-only memory (ROM, Read-Only Memory) , Random Access Memory (RAM, Random Access Memory), electrical carrier signals, telecommunications signals and software distribution media, etc.
  • ROM Read-Only Memory
  • RAM Random Access Memory
  • electrical carrier signals telecommunications signals and software distribution media, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Instructional Devices (AREA)

Abstract

一种3D导航语义地图更新方法,包括:根据摄像头采集的图像构建3D地图(S101);通过卷积神经网络对采集到的图像信息进行目标识别,将所识别的结果映射至3D地图(S102);将3D地图投影至2D栅格地图,建立3D地图与2D栅格地图的对应关系,当二维数据变化时,通过二维数组存储和更新栅格地图中的栅格所对应的3D地图的空间信息(S103)。通过将3D地图投影至2D栅格地图,建立3D地图与2D栅格地图的对应关系,由二维数组存储和更新2D栅格地图中的栅格所对应的3D地图的空间信息,有利于简化语义地图的更新操作,提高语义地图的更新效率。

Description

一种3D导航语义地图更新方法、装置及设备 技术领域
本申请属于地图领域,尤其涉及一种3D导航语义地图更新方法、装置及设备。
背景技术
在室内服务机器人领域,环境空间的3D语义信息尤显重要。例如,在家用机器人技术中,一个简单的抓取任务既需要知道某物是什么,也需要知道它的位置。当用户和机器人交流时,如果用户和机器人有共同的空间和语义理解,用户可以发出可以有效执行的指令。比如用户发出“从你右边最近的桌子上取咖啡杯”的指令时,机器人需要理解“桌子”和“咖啡杯”的含义,并且理解目标与机器人本体之间的距离信息“最短”。
当地图上的已经标记的语义信息与当前室内语义信息存在差异,如果新更新的语义信息没有被及时标记或者是旧的语义信息没有及时被移除,初始的室内语义地图就会逐步的衰减甚至是破坏基于位置服务系统的绩效。在这样的情况下,室内语义地图不仅不能够改善现有的基于室内位置的服务体验,而且也不能产生新的基于室内位置服务系统。现有技术中采用移动端众包方式,向所有移动端发布众包任务,根据任务结果与对应的评估结果更新室内语义地图,需要额外的单元参与更新,计算处理较为复杂,并且更新的实时性不高。
技术问题
有鉴于此,本申请实施例提供了一种3D导航语义地图更新方法、装置及设备,以解决现有技术中的语义地图更新方式时,需要额外单元参与更新,计算处理较为复杂,并且更新的实时性不高的问题。
技术解决方案
本申请实施例的第一方面提供了一种3D导航语义地图更新方法,所述3D导航语义地图更新方法包括:
根据摄像头采集的图像构建3D地图;
通过卷积神经网络对采集到的图像信息进行目标识别,将所识别的结果映射至所述3D地图;
将所述3D地图投影至2D栅格地图,建立3D地图与2D栅格地图的对应关系,当二维数据变化时,通过二维数组存储和更新所述栅格地图中的栅格所对应的3D地图的空间信息。
结合第一方面,在第一方面的第一种可能实现方式中,所述根据摄像头采集的图像构建3D地图的步骤包括:
将预定大小的3D空间均匀分割为多个小方块;
通过相机采集包括深度信息的图像,确定每个小方块的坐标及法向量坐标;
根据当前帧的小方块的坐标及法向量坐标,以及上一帧预测出的小方块的坐标及法向量坐标,计算当前相机的位置姿态;
根据所述当前相机的位置姿态,更新所述小方块到表面的最近距离TSDF值;
融合所述小方块的TSDF值,生成3D地图。
结合第一方面,在第一方面的第二种可能实现方式中,所述通过卷积神经网络对采集到的图像信息进行目标识别,将所识别的结果映射至所述3D地图的步骤包括:
通过VGG-16-Atrous作为基础网络,在所述基础网络上填加特征提取层,在检测过程中,在填加特征层和基础网络特征层上均进行检测。
结合第一方面,在第一方面的第三种可能实现方式中,所述通过卷积神经网络对采集到的图像信息进行目标识别,将所识别的结果映射至所述3D地图的步骤包括:
所述卷积神经网络的损失函数为:
Figure PCTCN2019124335-appb-000001
其中,L conf为分类损失,L loc为定位损失,α表示缺陷和定位平衡常数,依据不同识别区域调整;x表示训练样本;c表示缺陷分类;l表示定位预测的外框;g表示标定样本的真实框。
结合第一方面,在第一方面的第四种可能实现方式中,所述将所述3D地图投影至2D栅格地图,建立3D地图与2D栅格地图的对应关系,当二维数据变化时,通过二维数组存储和更新所述栅格地图中的栅格所对应的3D地图的空间信息的步骤包括:
建立2D栅格地图中的栅格与像素点的索引关系;
根据所述栅格与像素点的索引关系,将所述3D地图的空间信息投影至所述栅格,根据3D地图的空间信息确定所栅格的二维状态;
当二维数组更新时,通过二维数组与三维地图的八叉树结构中的节点的对应关系,更新所述3D导航语义地图。
结合第一方面,在第一方面的第五种可能实现方式中,通过二维数组更新所述栅格的二维状态的步骤包括:
将当前获取的二维数组与之前存储的二维数组的数值进行比较;
如果当前获取的二维数据与之前存储的二维数据的数值不同,则将当前获取的二维数据更新所述栅格的二维状态。
本申请实施例的第二方面提供了一种3D导航语义地图更新装置,所述3D导航语义地图更新装置包括:
3D地图构建单元,用于根据摄像头采集的图像构建3D地图;
目标识别单元,用于通过卷积神经网络对采集到的图像信息进行目标识别,将所识别的结果映射至所述3D地图;
映射更新单元,用于将所述3D地图投影至2D栅格地图,建立3D地图与2D栅格地图的对应关系,当二维数据变化时,通过二维数组存储和更新所述栅格地图中的栅格所对应的3D地图的空间信息。
结合第二方面,在第二方面的第一种可能实现方式中,所述3D地图构建单元包括:
分割子单元,用于将预定大小的3D空间均匀分割为多个小方块;
坐标确定子单元,用于通过相机采集包括深度信息的图像,确定每个小方块的坐标及法向量坐标;
相机位姿确定子单元,用于根据当前帧的小方块的坐标及法向量坐标,以及上一帧预测出的小方块的坐标及法向量坐标,计算当前相机的位置姿态;
TSDF值更新子单元,用于根据所述当前相机的位置姿态,更新所述小方块到表面的最近距离TSDF值;
融合子单元,用于融合所述小方块的TSDF值,生成3D地图。
本申请实施例的第三方面提供了一种3D导航语义地图更新设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如第一方面任一项所述方法的步骤。
本申请实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面任一项所述方法的步骤。
有益效果
本申请实施例与现有技术相比存在的有益效果是:通过摄像头采集图像构建3D地图,并通过卷积神经网络识别图像中的目标,将识别结果映射至所述3D地图,并将3D地图投影至2D栅格地图,建立3D地图与2D栅格地图的对应关系,通过二维数组存储和更新2D栅格地图中的栅格所对应的3D地图的空间信息,有利于简化语义地图的更新操作,提高语义地图的更新效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种3D导航语义地图更新方法的实现流程示意图;
图2是本申请实施例提供的一种构建3D地图的实现流程示意图;
图3是本申请实施例提供的一种建立栅格到三D地图的像素点的索引的示意图;
图4为本申请实话例提供的一种栅格与八叉树节点映射示意图;
图5是本申请实施例提供的一种3D导航语义地图更新装置的示意图;
图6是本申请实施例提供的3D导航语义地图更新设备的示意图。
本发明的实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节 妨碍本申请的描述。
为了说明本申请所述的技术方案,下面通过具体实施例来进行说明。
图1为本申请实施例提供的一种3D导航语义地图更新方法的实现流程示意图,详述如下:
在步骤S101中,根据摄像头采集的图像构建3D地图;
具体的,所述3D地图的构建,可以采用kinect采集景物的点云数据,经过深度图像增强、点云计算与配准、数据融合、表面生成等步骤,完成对景物的三维重建。当然,作为本申请优选的一种实施方式,可以通过图2所示的3D地图构建方法,快速的完成3D地图的构建,具体可以包括:
在步骤S201中,将预定大小的3D空间均匀分割为多个小方块;
所述预定大小的3D空间,可以根据使用本方法的设备,比如机器人所处的场景来确定。比如,所述预定大小的3D空间可以为3m×3m×3m,所述小方块的尺寸可以为512×512×512。
在步骤S202中,通过相机采集包括深度信息的图像,确定每个小方块的坐标及法向量坐标;
对于采集的包括深度信息的图像,可以先对其进行滤波降噪,比如可以选择双边滤波,以保持图像清晰的边界。比如,可以通过在空间域进行加权平均的方式进行滤波,像素越靠近中心点,权重越高。在空间域加权平均的基础上再对值域加权平均,即像素灰度值越靠近中心像素的灰度值,权重越高。在边界附近,灰度值差异很大,所以虽然边界两边的像素在空间域靠在一起,但是由于边界附近的像素灰度值差别非常大,权重很低,所以可以保持清晰的边界。
在步骤S203中,根据当前帧的小方块的坐标及法向量坐标,以及上一帧预测出的小方块的坐标及法向量坐标,计算当前相机的位置姿态;
通过确定小方块的坐标以及法向量的坐标,把点到点的距离向法向量投影,确定相机的位置姿态。
在步骤S204中,根据所述当前相机的位置姿态,更新所述小方块到表面的最近距离TSDF值;
首先把每个小方块根据计算出的相机位置姿态投影到相机上,如果在相机的视椎内,则会有一个像素点和它对应,D i(p)是这个像素点距离表面的实际测量值,t i-v g则是小方块到相机的距离,两者的差就是SDF(点到面的距离)值。然后用max truncation归一化得到当前TSDF值。然后,可以用加权平均的方式更新TSDF值。小方块越正对着相机,越靠近相机,权重越大。
在步骤S205中,融合所述小方块的TSDF值,生成3D地图。
更新完TSDF值之后,就可以用TSDF来估计表面。这样估计出来的表面比直接用RGBD相机得到的深度图有更少的噪音。估计出的表面与新一帧的测量值一起可以估算相机的位置姿态。
在步骤S102中,通过卷积神经网络对采集到的图像信息进行目标识别,将所识别的结果映射至所述3D地图;
为了获取3D地图的语义信息,我们可以采用基于卷积神经网络的单次拍摄多边界检测SSD方法,对关键帧图像生成预定数量的物体建议边界框,并计算每个边界框的置信度。本申请所述卷积神经网络可以使用VGG-16-Atrous(整个卷积神经网络中有trainable可训练的参数的层数为16层)作为基础网络,在所述基础网络上填加特征提取层。检测过程中,不仅在填加特征层(比如,可以为conv8_2,conv9_2,conv_10_2,pool_11)上进行,为了保证网络对小目标有很好的检测效果,检测过程也可以在基础网络特征层(conv4_3,conv_7)上进行。另外,所述卷积神经网络的损失函数可以定义为
Figure PCTCN2019124335-appb-000002
其中,L conf为分类损失,L loc为定位损失,α表示缺陷和定位平衡常数,依据不同识别区域调整;x表示训练样本;c表示缺陷分类;l表示定位预测的外框;g表示标定样本的真实框。
在步骤S103中,将所述3D地图投影至2D栅格地图,建立3D地图与2D栅格地图的对应关系,当二维数据变化时,通过二维数组存储和更新所述栅格地图中的栅格所对应的3D地图的空间信息。
对于三维地图建立空间坐标系,空间中的每个点的位置的坐标可以唯一确定。对于室内机器人而言,所关注的通常是导航和避障,因此我们可以将3D地图中的三维点投影到2D栅格地图中,即可适用于机器人导航和避障。可以通过抛弃第三维坐标,即Z坐标的数据即可完成二维投影,可以通过二维数组标记的栅格的状态(存储值0表示该栅格未被占据,1表示被占据)。可以建立栅格到三D地图的像素点的索引,具体可以如图3所示,包括:
在步骤S301中,建立2D栅格地图中的栅格与像素点的索引关系;
通过将3D地图中的像素点的第三维坐标,即Z坐标去除后投影,可以将三维点投影转化为二维点,并根据栅格的划分,确定每个栅格所对应的三维的像素点。
在步骤S302中,根据所述栅格与像素点的索引关系,将所述3D地图的空间信息投影至所述栅格,根据3D地图的空间信息确定所栅格的二维状态;
根据3D地图的空间信息,确定在栅格所在位置是否存在空间的障碍物的像素点,根据栅格与像素点的对应关系,确定栅格的二维状态,所述二维状态可以为1和0,其中1可以表示被占据,0表示未被占据。
在步骤S303中,当二维数组更新时,通过二维数组与三维地图的八叉树结构中的节点的对应关系,更新所述3D导航语义地图。
当室内的环境信息发生变化,比如客厅茶几位置发生变化,通过实时快速的三维重构,可以快速的更新栅格的状态,可以将当前存储栅格状态的二维数组与之前存储栅格状态的二维数组进行比对,如果存在不同,则可以通过当前的二维数组更新栅格的状态。
如图4所示,通过建立栅格与三维地图的八叉树结构中的节点的对应关系,当二维数组中的数值发生变化后,可以查找到栅格所对应的八叉树节点,对八叉树节点进行更新,包括对节点进行删除,或者增加节点等,以达到更新地图的目的。
本申请通过将识别结果映射至所述3D地图,并将3D地图投影至2D栅格地图,建立3D地图与2D栅格地图的对应关系,通过二维数组存储2D栅格地图中的栅格所对应的3D地图的空间信息,有利于简化语义地图的更新操作,提高语义地图的更新效率。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
图5为本申请实施例提供的一种3D导航语义地图更新装置的结构示意图,详述如下:
所述3D导航语义地图更新装置包括:
3D地图构建单元501,用于根据摄像头采集的图像构建3D地图;
目标识别单元502,用于通过卷积神经网络对采集到的图像信息进行目标识别,将所识别的结果映射至所述3D地图;
映射更新单元503,用于将所述3D地图投影至2D栅格地图,建立3D地图与2D栅格地图的对应关系,当二维数据变化时,通过二维数组存储和更新所述栅格地图中的栅格所对应的3D地图的空间信息。
优选的,所述3D地图构建单元包括:
分割子单元,用于将预定大小的3D空间均匀分割为多个小方块;
坐标确定子单元,用于通过相机采集包括深度信息的图像,确定每个小方块的坐标及法向量坐标;
相机位姿确定子单元,用于根据当前帧的小方块的坐标及法向量坐标,以及上一帧预测出的小方块的坐标及法向量坐标,计算当前相机的位置姿态;
TSDF值更新子单元,用于根据所述当前相机的位置姿态,更新所述小方块到表面的最近距离TSDF值;
融合子单元,用于融合所述小方块的TSDF值,生成3D地图。
本申请所述3D导航语义地图更新设备,与图1所述的3D导航语义地图更新方法对应。
图6是本申请一实施例提供的3D导航语义地图更新设备的示意图。如图6所示,该实施例的3D导航语义地图更新设备6包括:处理器60、存储器61以及存储在所述存储器61中并可在所述处理器60上运行的计算机程序62,例如3D导航语义地图更新程序。所述处理器60执行所述计算机程序62时实现上述各个3D导航语义地图更新方法实施例中的步骤。或者,所述处理器60执行所述计算机程序62时实现上述各装置实施例中各模块/单元的功能。
示例性的,所述计算机程序62可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器61中,并由所述处理器60执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列 计算机程序指令段,该指令段用于描述所述计算机程序62在所述3D导航语义地图更新设备6中的执行过程。例如,所述计算机程序62可以被分割成:
3D地图构建单元,用于根据摄像头采集的图像构建3D地图;
目标识别单元,用于通过卷积神经网络对采集到的图像信息进行目标识别,将所识别的结果映射至所述3D地图;
映射更新单元,用于将所述3D地图投影至2D栅格地图,建立3D地图与2D栅格地图的对应关系,当二维数据变化时,通过二维数组存储和更新所述栅格地图中的栅格所对应的3D地图的空间信息。
所述3D导航语义地图更新设备6可以是机器人。所述3D导航语义地图更新设备可包括,但不仅限于,处理器60、存储器61。本领域技术人员可以理解,图6仅仅是3D导航语义地图更新设备6的示例,并不构成对3D导航语义地图更新设备6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述3D导航语义地图更新设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器60可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器61可以是所述3D导航语义地图更新设备6的内部存储单元,例如3D导航语义地图更新设备6的硬盘或内存。所述存储器61也可以是所述3D导航语义地图更新设备6的外部存储设备,例如所述3D导航语义地图 更新设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器61还可以既包括所述3D导航语义地图更新设备6的内部存储单元也包括外部存储设备。所述存储器61用于存储所述计算机程序以及所述3D导航语义地图更新设备所需的其他程序和数据。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移 动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

  1. 一种3D导航语义地图更新方法,其特征在于,所述3D导航语义地图更新方法包括:
    根据摄像头采集的图像构建3D地图;
    通过卷积神经网络对采集到的图像信息进行目标识别,将所识别的结果映射至所述3D地图;
    将所述3D地图投影至2D栅格地图,建立3D地图与2D栅格地图的对应关系,当二维数据变化时,通过二维数组存储和更新所述栅格地图中的栅格所对应的3D地图的空间信息。
  2. 根据权利要求1所述的3D导航语义地图更新方法,其特征在于,所述根据摄像头采集的图像构建3D地图的步骤包括:
    将预定大小的3D空间均匀分割为多个小方块;
    通过相机采集包括深度信息的图像,确定每个小方块的坐标及法向量坐标;
    根据当前帧的小方块的坐标及法向量坐标,以及上一帧预测出的小方块的坐标及法向量坐标,计算当前相机的位置姿态;
    根据所述当前相机的位置姿态,更新所述小方块到表面的最近距离TSDF值;
    融合所述小方块的TSDF值,生成3D地图。
  3. 根据权利要求1所述的3D导航语义地图更新方法,其特征在于,所述通过卷积神经网络对采集到的图像信息进行目标识别,将所识别的结果映射至所述3D地图的步骤包括:
    通过VGG-16-Atrous作为基础网络,在所述基础网络上填加特征提取层, 在检测过程中,在填加特征层和基础网络特征层上均进行检测。
  4. 根据权利要求1所述的3D导航语义地图更新方法,其特征在于,所述通过卷积神经网络对采集到的图像信息进行目标识别,将所识别的结果映射至所述3D地图的步骤包括:
    所述卷积神经网络的损失函数为:
    Figure PCTCN2019124335-appb-100001
    其中,L conf为分类损失,L loc为定位损失,α表示缺陷和定位平衡常数,依据不同识别区域调整;x表示训练样本;c表示缺陷分类;l表示定位预测的外框;g表示标定样本的真实框。
  5. 根据权利要求1所述的3D导航语义地图更新方法,其特征在于,所述将所述3D地图投影至2D栅格地图,建立3D地图与2D栅格地图的对应关系,当二维数据变化时,通过二维数组存储和更新所述栅格地图中的栅格所对应的3D地图的空间信息的步骤包括:
    建立2D栅格地图中的栅格与像素点的索引关系;
    根据所述栅格与像素点的索引关系,将所述3D地图的空间信息投影至所述栅格,根据3D地图的空间信息确定所栅格的二维状态;
    当二维数组更新时,通过二维数组与三维地图的八叉树结构中的节点的对应关系,更新所述3D导航语义地图。
  6. 根据权利要求1所述的3D导航语义地图更新方法,其特征在于,通过二维数组更新所述栅格的二维状态的步骤包括:
    将当前获取的二维数组与之前存储的二维数组的数值进行比较;
    如果当前获取的二维数据与之前存储的二维数据的数值不同,则将当前获 取的二维数据更新所述栅格的二维状态。
  7. 一种3D导航语义地图更新装置,其特征在于,所述3D导航语义地图更新装置包括:
    3D地图构建单元,用于根据摄像头采集的图像构建3D地图;
    目标识别单元,用于通过卷积神经网络对采集到的图像信息进行目标识别,将所识别的结果映射至所述3D地图;
    映射更新单元,用于将所述3D地图投影至2D栅格地图,建立3D地图与2D栅格地图的对应关系,当二维数据变化时,通过二维数组存储和更新所述栅格地图中的栅格所对应的3D地图的空间信息。
  8. 根据权利要求7所述的3D导航语义地图更新装置,其特征在于,所述3D地图构建单元包括:
    分割子单元,用于将预定大小的3D空间均匀分割为多个小方块;
    坐标确定子单元,用于通过相机采集包括深度信息的图像,确定每个小方块的坐标及法向量坐标;
    相机位姿确定子单元,用于根据当前帧的小方块的坐标及法向量坐标,以及上一帧预测出的小方块的坐标及法向量坐标,计算当前相机的位置姿态;
    TSDF值更新子单元,用于根据所述当前相机的位置姿态,更新所述小方块到表面的最近距离TSDF值;
    融合子单元,用于融合所述小方块的TSDF值,生成3D地图。
  9. 一种3D导航语义地图更新设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述方法的步骤。
  10. 一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程 序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述方法的步骤。
PCT/CN2019/124335 2018-12-14 2019-12-10 一种3d导航语义地图更新方法、装置及设备 WO2020119684A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811536694.5A CN109737974B (zh) 2018-12-14 2018-12-14 一种3d导航语义地图更新方法、装置及设备
CN201811536694.5 2018-12-14

Publications (1)

Publication Number Publication Date
WO2020119684A1 true WO2020119684A1 (zh) 2020-06-18

Family

ID=66360308

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2019/124335 WO2020119684A1 (zh) 2018-12-14 2019-12-10 一种3d导航语义地图更新方法、装置及设备

Country Status (2)

Country Link
CN (1) CN109737974B (zh)
WO (1) WO2020119684A1 (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111797187A (zh) * 2020-06-22 2020-10-20 北京百度网讯科技有限公司 地图数据的更新方法、装置、电子设备和存储介质
CN111882611A (zh) * 2020-07-17 2020-11-03 北京三快在线科技有限公司 一种地图构建方法及装置
CN112037325A (zh) * 2020-08-07 2020-12-04 珠海格力电器股份有限公司 构建语义地图的方法、装置、计算机设备和存储介质
CN112489131A (zh) * 2020-12-26 2021-03-12 上海有个机器人有限公司 基于路面检测构建代价地图的方法、装置、介质和机器人
CN112766670A (zh) * 2021-01-07 2021-05-07 武汉四维图新科技有限公司 基于高精度地图数据众包更新系统的评估方法及装置
CN113720325A (zh) * 2021-09-14 2021-11-30 阿里巴巴达摩院(杭州)科技有限公司 环境变化检测方法、装置、电子设备及计算机存储介质
CN113762397A (zh) * 2021-09-10 2021-12-07 北京百度网讯科技有限公司 检测模型训练、高精度地图更新方法、设备、介质及产品
CN114820972A (zh) * 2022-05-20 2022-07-29 中国电建集团中南勘测设计研究院有限公司 等值线和/或等值面生成方法、系统、设备及存储介质
CN115638788A (zh) * 2022-12-23 2023-01-24 安徽蔚来智驾科技有限公司 语义矢量地图的构建方法、计算机设备及存储介质
CN116242339A (zh) * 2023-05-11 2023-06-09 天津市安定医院 一种基于5g的医院门诊导航系统
US20230206647A1 (en) * 2021-12-29 2023-06-29 Midea Group Co., Ltd. Automatic Robotic Lawn Mowing Boundary Detection Using 3D Semantic Segmentation
CN116383883A (zh) * 2023-04-14 2023-07-04 于诚优品信息科技(福州)有限责任公司 一种基于大数据的数据管理权限处理方法及系统
CN116804560A (zh) * 2023-08-23 2023-09-26 四川交通职业技术学院 一种管制路段下无人驾驶汽车安全导航方法及装置
CN117253232A (zh) * 2023-11-17 2023-12-19 北京理工大学前沿技术研究院 一种高精地图的标注自动生成方法、存储器及存储介质
CN117437654A (zh) * 2023-12-19 2024-01-23 中国地质大学(武汉) 一种基于语义识别的栅格地图解析方法、设备和介质
CN117576200A (zh) * 2024-01-15 2024-02-20 山东大学 一种长周期移动机器人定位方法、系统、设备及介质
US12033394B2 (en) 2021-12-29 2024-07-09 Midea Group Co., Ltd. Automatic robotic lawn mowing boundary detection using 3D semantic segmentation

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109737974B (zh) * 2018-12-14 2020-11-27 中国科学院深圳先进技术研究院 一种3d导航语义地图更新方法、装置及设备
CN111935642B (zh) * 2019-05-13 2022-10-21 北京地平线机器人技术研发有限公司 一种可移动设备的定位方法及装置
CN110164288A (zh) * 2019-06-04 2019-08-23 浙江大学昆山创新中心 一种基于自建图的静态地图在线更新方法和装置
CN110160544A (zh) * 2019-06-12 2019-08-23 北京深思敏行科技有限责任公司 一种基于边缘计算的高精度地图众包更新系统
CN112150538B (zh) * 2019-06-27 2024-04-12 北京初速度科技有限公司 一种在三维地图构建过程中车辆位姿的确定方法和装置
CN111670417A (zh) * 2019-07-05 2020-09-15 深圳市大疆创新科技有限公司 语义地图的构建方法、系统、可移动平台和存储介质
CN110610650A (zh) * 2019-08-27 2019-12-24 杭州电子科技大学 一种基于深度学习和深度相机的点云语义地图的构建方法
CN110889364A (zh) * 2019-11-21 2020-03-17 大连理工大学 一种利用红外传感器和可见光传感器构建栅格地图的方法
CN113252034A (zh) * 2020-02-12 2021-08-13 华为技术有限公司 一种路径规划方法及相关设备
CN111461245B (zh) * 2020-04-09 2022-11-04 武汉大学 一种融合点云和图像的轮式机器人语义建图方法及系统
CN111210475B (zh) * 2020-04-21 2020-07-14 浙江欣奕华智能科技有限公司 一种地图更新方法及装置
CN111552764B (zh) * 2020-05-15 2023-07-25 汇智机器人科技(深圳)有限公司 一种车位检测方法、装置、系统及机器人和存储介质
CN111652113B (zh) * 2020-05-29 2023-07-25 阿波罗智联(北京)科技有限公司 障碍物检测方法、装置、设备以及存储介质
CN111679688A (zh) * 2020-06-18 2020-09-18 小狗电器互联网科技(北京)股份有限公司 一种自走机器人的充电方法、装置、可读介质及电子设备
CN112053415B (zh) * 2020-07-17 2023-08-01 科沃斯机器人股份有限公司 一种地图构建方法和自行走设备
CN112527929B (zh) * 2020-10-20 2023-12-08 深圳银星智能集团股份有限公司 一种栅格地图编码方法及其装置、电子设备
CN114817426A (zh) * 2021-01-28 2022-07-29 中强光电股份有限公司 地图建构装置及方法
CN113419537A (zh) * 2021-07-08 2021-09-21 西安理工大学 一种面向移动机器人自主运动的脑机融合控制方法及系统
CN114877893A (zh) * 2022-05-05 2022-08-09 普联技术有限公司 地图生成方法、装置、电子设备及存储介质
CN115600156B (zh) * 2022-11-14 2023-03-28 苏州魔视智能科技有限公司 基于最小树的语义地图融合方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9565521B1 (en) * 2015-08-14 2017-02-07 Samsung Electronics Co., Ltd. Automatic semantic labeling based on activity recognition
CN106705972A (zh) * 2016-11-25 2017-05-24 梁海燕 一种基于用户反馈的室内语义地图更新方法与系统
CN107564012A (zh) * 2017-08-01 2018-01-09 中国科学院自动化研究所 面向未知环境的增强现实方法及装置
CN109737974A (zh) * 2018-12-14 2019-05-10 中国科学院深圳先进技术研究院 一种3d导航语义地图更新方法、装置及设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204705B (zh) * 2016-07-05 2018-12-07 长安大学 一种基于多线激光雷达的3d点云分割方法
CN108088445A (zh) * 2016-11-22 2018-05-29 广州映博智能科技有限公司 基于八叉树表示的三维栅格地图路径规划系统及方法
CN106599108B (zh) * 2016-11-30 2019-12-31 浙江大学 一种三维环境中多模态环境地图构建方法
CN108268878A (zh) * 2016-12-30 2018-07-10 乐视汽车(北京)有限公司 三维全卷积网络实现设备
CN107066507B (zh) * 2017-01-10 2019-09-17 中国人民解放军国防科学技术大学 一种基于云机器人混合云架构的语义地图构建方法
CN106910242B (zh) * 2017-01-23 2020-02-28 中国科学院自动化研究所 基于深度相机进行室内完整场景三维重建的方法及系统
CN107063258A (zh) * 2017-03-07 2017-08-18 重庆邮电大学 一种基于语义信息的移动机器人室内导航方法
CN107316007B (zh) * 2017-06-07 2020-04-03 浙江捷尚视觉科技股份有限公司 一种基于深度学习的监控图像多类物体检测与识别方法
CN108170134A (zh) * 2017-11-15 2018-06-15 国电南瑞科技股份有限公司 一种变电站智能巡检机器人路径规划方法
CN108256424A (zh) * 2017-12-11 2018-07-06 中交信息技术国家工程实验室有限公司 一种基于深度学习的高分辨率遥感图像道路提取方法
CN108171752A (zh) * 2017-12-28 2018-06-15 成都阿普奇科技股份有限公司 一种基于深度学习的海面船只视频检测与跟踪方法
CN108257201B (zh) * 2017-12-29 2021-10-19 深圳海桐防务装备技术有限责任公司 二维图案在三维工业模型表面帖敷的方法
CN108319972B (zh) * 2018-01-18 2021-11-02 南京师范大学 一种针对图像语义分割的端到端差异网络学习方法
CN108171217A (zh) * 2018-01-29 2018-06-15 深圳市唯特视科技有限公司 一种基于点融合网络的三维物体检测方法
CN108665496B (zh) * 2018-03-21 2021-01-26 浙江大学 一种基于深度学习的端到端的语义即时定位与建图方法
CN108958282B (zh) * 2018-06-21 2020-08-14 浙江大学 基于动态球形窗口的三维空间路径规划方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9565521B1 (en) * 2015-08-14 2017-02-07 Samsung Electronics Co., Ltd. Automatic semantic labeling based on activity recognition
CN106705972A (zh) * 2016-11-25 2017-05-24 梁海燕 一种基于用户反馈的室内语义地图更新方法与系统
CN107564012A (zh) * 2017-08-01 2018-01-09 中国科学院自动化研究所 面向未知环境的增强现实方法及装置
CN109737974A (zh) * 2018-12-14 2019-05-10 中国科学院深圳先进技术研究院 一种3d导航语义地图更新方法、装置及设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
熊枭 (XIONG, XIAO): "室内服务机器人的三维地图构建与导航研究 (Research on Three Dimensional Mapping and Navigation of Indoor Service Robot)", 《中国优秀硕士学位论文全文数据库(电子期刊) 信息科技辑》 (CHINA MASTERS’ THESES FULL-TEXT DATABASE (ELECTRONIC JOURNAL), INFORMATION TECHNOLOGY), no. 1, 31 January 2018 (2018-01-31), ISSN: 1674-0246, DOI: 20200226144126Y *
王春生 (WANG, CHUNSHENG): "基于动态A路径规划算法的移动机器人室内定位方法研究 (Study on Indoor Localization of Mobile Robot Based on Dynamic A Plan Planning Algorithm)", 《中国优秀硕士学位论文全文数据库(电子期刊) 信息科技辑》(CHINA MASTERS’ THESES FULL-TEXT DATABASE (ELECTRONIC JOURNAL), INFORMATION TECHNOLOGY), no. 7, 31 July 2018 (2018-07-31), ISSN: 1674-0246, DOI: 20200226144325Y *

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111797187B (zh) * 2020-06-22 2023-09-26 北京百度网讯科技有限公司 地图数据的更新方法、装置、电子设备和存储介质
CN111797187A (zh) * 2020-06-22 2020-10-20 北京百度网讯科技有限公司 地图数据的更新方法、装置、电子设备和存储介质
CN111882611A (zh) * 2020-07-17 2020-11-03 北京三快在线科技有限公司 一种地图构建方法及装置
CN111882611B (zh) * 2020-07-17 2023-11-24 北京三快在线科技有限公司 一种地图构建方法及装置
CN112037325A (zh) * 2020-08-07 2020-12-04 珠海格力电器股份有限公司 构建语义地图的方法、装置、计算机设备和存储介质
CN112489131A (zh) * 2020-12-26 2021-03-12 上海有个机器人有限公司 基于路面检测构建代价地图的方法、装置、介质和机器人
CN112489131B (zh) * 2020-12-26 2024-04-05 上海有个机器人有限公司 基于路面检测构建代价地图的方法、装置、介质和机器人
CN112766670A (zh) * 2021-01-07 2021-05-07 武汉四维图新科技有限公司 基于高精度地图数据众包更新系统的评估方法及装置
CN112766670B (zh) * 2021-01-07 2023-11-14 武汉四维图新科技有限公司 基于高精度地图数据众包更新系统的评估方法及装置
CN113762397B (zh) * 2021-09-10 2024-04-05 北京百度网讯科技有限公司 检测模型训练、高精度地图更新方法、设备、介质及产品
CN113762397A (zh) * 2021-09-10 2021-12-07 北京百度网讯科技有限公司 检测模型训练、高精度地图更新方法、设备、介质及产品
CN113720325A (zh) * 2021-09-14 2021-11-30 阿里巴巴达摩院(杭州)科技有限公司 环境变化检测方法、装置、电子设备及计算机存储介质
CN113720325B (zh) * 2021-09-14 2024-05-17 阿里巴巴达摩院(杭州)科技有限公司 环境变化检测方法、装置、电子设备及计算机存储介质
WO2023126726A1 (en) * 2021-12-29 2023-07-06 Midea Group Co., Ltd. Automatic robotic lawn mowing boundary detection using 3d semantic segmentation
US20230206647A1 (en) * 2021-12-29 2023-06-29 Midea Group Co., Ltd. Automatic Robotic Lawn Mowing Boundary Detection Using 3D Semantic Segmentation
US12033394B2 (en) 2021-12-29 2024-07-09 Midea Group Co., Ltd. Automatic robotic lawn mowing boundary detection using 3D semantic segmentation
CN114820972B (zh) * 2022-05-20 2024-04-09 中国电建集团中南勘测设计研究院有限公司 等值线和/或等值面生成方法、系统、设备及存储介质
CN114820972A (zh) * 2022-05-20 2022-07-29 中国电建集团中南勘测设计研究院有限公司 等值线和/或等值面生成方法、系统、设备及存储介质
CN115638788B (zh) * 2022-12-23 2023-03-21 安徽蔚来智驾科技有限公司 语义矢量地图的构建方法、计算机设备及存储介质
CN115638788A (zh) * 2022-12-23 2023-01-24 安徽蔚来智驾科技有限公司 语义矢量地图的构建方法、计算机设备及存储介质
CN116383883A (zh) * 2023-04-14 2023-07-04 于诚优品信息科技(福州)有限责任公司 一种基于大数据的数据管理权限处理方法及系统
CN116383883B (zh) * 2023-04-14 2023-12-22 水发科技信息(山东)有限公司 一种基于大数据的数据管理权限处理方法及系统
CN116242339B (zh) * 2023-05-11 2023-10-03 天津市安定医院 一种基于5g的医院门诊导航系统
CN116242339A (zh) * 2023-05-11 2023-06-09 天津市安定医院 一种基于5g的医院门诊导航系统
CN116804560B (zh) * 2023-08-23 2023-11-03 四川交通职业技术学院 一种管制路段下无人驾驶汽车安全导航方法及装置
CN116804560A (zh) * 2023-08-23 2023-09-26 四川交通职业技术学院 一种管制路段下无人驾驶汽车安全导航方法及装置
CN117253232B (zh) * 2023-11-17 2024-02-09 北京理工大学前沿技术研究院 一种高精地图的标注自动生成方法、存储器及存储介质
CN117253232A (zh) * 2023-11-17 2023-12-19 北京理工大学前沿技术研究院 一种高精地图的标注自动生成方法、存储器及存储介质
CN117437654B (zh) * 2023-12-19 2024-03-08 中国地质大学(武汉) 一种基于语义识别的栅格地图解析方法、设备和介质
CN117437654A (zh) * 2023-12-19 2024-01-23 中国地质大学(武汉) 一种基于语义识别的栅格地图解析方法、设备和介质
CN117576200A (zh) * 2024-01-15 2024-02-20 山东大学 一种长周期移动机器人定位方法、系统、设备及介质
CN117576200B (zh) * 2024-01-15 2024-05-03 山东大学 一种长周期移动机器人定位方法、系统、设备及介质

Also Published As

Publication number Publication date
CN109737974B (zh) 2020-11-27
CN109737974A (zh) 2019-05-10

Similar Documents

Publication Publication Date Title
WO2020119684A1 (zh) 一种3d导航语义地图更新方法、装置及设备
CN107223269B (zh) 三维场景定位方法和装置
CN108986161B (zh) 一种三维空间坐标估计方法、装置、终端和存储介质
CN106940704B (zh) 一种基于栅格地图的定位方法及装置
CN110568447A (zh) 视觉定位的方法、装置及计算机可读介质
CN108604379A (zh) 用于确定图像中的区域的系统及方法
CN111640180B (zh) 一种三维重建方法、装置及终端设备
CN112927363B (zh) 体素地图构建方法及装置、计算机可读介质和电子设备
WO2023024441A1 (zh) 模型重建方法及相关装置、电子设备和存储介质
US20230281927A1 (en) Three-dimensional point cloud densification device, three-dimensional point cloud densification method, and recording medium
CN108664860A (zh) 房间平面图的识别方法及装置
CN117132737B (zh) 一种三维建筑模型构建方法、系统及设备
CN114494582A (zh) 一种基于视觉感知的三维模型动态更新方法
WO2021217403A1 (zh) 可移动平台的控制方法、装置、设备及存储介质
WO2023088127A1 (zh) 室内导航方法、服务器、装置和终端
WO2019045714A1 (en) METHODS, DEVICES AND COMPUTER PROGRAM PRODUCTS FOR MESH GENERATION IN BUILD 3D IMAGES
CN115619986B (zh) 场景漫游方法、装置、设备和介质
CN115457202B (zh) 一种三维模型更新的方法、装置及存储介质
CN116642490A (zh) 基于混合地图的视觉定位导航方法、机器人及存储介质
CN116994122A (zh) 建筑物拾取方法、装置、设备及存储介质
CN111784579B (zh) 制图方法及装置
WO2022041119A1 (zh) 三维点云处理方法及装置
CN113808196A (zh) 平面融合定位方法、装置、电子设备及存储介质
CN112652056A (zh) 一种3d信息展示方法及装置
CN108062793A (zh) 基于高程的物体顶部处理方法、装置、设备和存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19894636

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 02/11/2021)

122 Ep: pct application non-entry in european phase

Ref document number: 19894636

Country of ref document: EP

Kind code of ref document: A1