JP2020035448A - 3次元シーンマップの生成方法、生成装置、機器および記憶媒体 - Google Patents

3次元シーンマップの生成方法、生成装置、機器および記憶媒体 Download PDF

Info

Publication number
JP2020035448A
JP2020035448A JP2019157031A JP2019157031A JP2020035448A JP 2020035448 A JP2020035448 A JP 2020035448A JP 2019157031 A JP2019157031 A JP 2019157031A JP 2019157031 A JP2019157031 A JP 2019157031A JP 2020035448 A JP2020035448 A JP 2020035448A
Authority
JP
Japan
Prior art keywords
point cloud
cloud data
scene map
data
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019157031A
Other languages
English (en)
Other versions
JP6866441B2 (ja
Inventor
フェイロン ヤン,
Feilong Yan
フェイロン ヤン,
トントン チャオ,
Tongtong Zhao
トントン チャオ,
ジン ファン,
Jin Fang
ジン ファン,
リャン ワン,
Liang Wang
リャン ワン,
ユウ マ,
Yu Ma
ユウ マ,
ルイガン ヤン,
Ruigang Yang
ルイガン ヤン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2020035448A publication Critical patent/JP2020035448A/ja
Application granted granted Critical
Publication of JP6866441B2 publication Critical patent/JP6866441B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7553Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Automation & Control Theory (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Abstract

【課題】3次元シーンマップの生成方法、生成装置、機器及び記憶媒体を提供する。【解決手段】3次元シーンマップの生成方法は、基本道路情報採集機器によって採集された少なくとも2フレームの点群データを取得し、少なくとも2フレームの点群データをデータレジストレーションするステップ101と、各フレームの点群データのうち、動的障害物に対応する第1類の点群データを削除し、各フレームの点群データをデータフュージョンしてオリジナルシーンマップを取得するステップ102と、オリジナルシーンマップにおいて、少なくとも1つの規則的物体に対応する第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換して3次元シーンマップを取得するステップ103とを含む。【選択図】図1

Description

本発明は、点群データ処理技術に関し、特に3次元シーンマップの生成方法、生成装置、機器および記憶媒体に関する。
点群データの模擬は、目標シーンの点群データおよびコンピュータ補助設計モデルに基づいて、写実性の高い仮想点群データを生成する技術であり、大規模なシーンの構築に用いられる。たとえば、無人運転の3次元感知モジュールのトレーニングに用いられる多種類の道路シーンを構築する。点群データの模擬は、3次元静的環境を背景とすることが必要である。
従来技術において、3次元静的環境の点群データを取得するには、主に2つの方式がある。方式1として、3次元静的環境の3Dメッシュモデルを人工的に作成してシーンの模擬を行い、それからカメラや3次元スキャナなどの仮想センサによって3次元静的環境点群データを合成する。方式2として、高精度のレーザスキャナによって高精度で高密度の3次元静的環境点群データを採集する。
方式1は、モデルの作成コストが比較的に高い。従来の3次元モデリング技術の条件では、写実性の高いシーンまたは単一障害物のモデルを全自動で作成できず、人工的または半自動的なモデリング方式を必要とする。よって、大規模なシーンおよび大量な障害物のモデルを作成するためには、高い人件費を投入する必要がある。方式は、データ量が大きく、しかも高精度のレーザスキャナの運搬が不便であり、3次元静的環境の作成コストが向上する。よって、従来技術の2つの方式は、いずれもあらゆるシーンに迅速に適用することができず、点群データの模擬が限られている。
本発明は、3次元シーンマップを低コストで高品質に生成することを実現するために、3次元シーンマップの生成方法、生成装置、機器および記憶媒体を提供する。
本発明の第1態様は、3次元シーンマップの生成方法において、基本道路情報採集機器によって採集された少なくとも2フレームの点群データを取得し、少なくとも2フレームの該点群データをデータレジストレーションするステップと、各フレームの前記点群データのうち、動的障害物に対応する第1類の点群データを削除し、各フレームの前記点群データをデータフュージョンしてオリジナルシーンマップを取得するステップと、前記オリジナルシーンマップにおいて、少なくとも1つの規則的物体に対応する第2類の点群データを、前記規則的物体にマッチングする幾何モデルのモデルデータに置換して、前記3次元シーンマップを取得するステップとを含む3次元シーンマップの生成方法を提供する。
本発明の第2態様は、3次元シーンマップの生成装置において、基本道路情報採集機器によって採集された少なくとも2フレームの点群データを取得し、少なくとも2フレームの該点群データをデータレジストレーションする点群データ取得モジュールと、各フレームの前記点群データのうち、動的障害物に対応する第1類の点群データを削除し、各フレームの前記点群データをデータフュージョンしてオリジナルシーンマップを生成するオリジナルマップ生成モジュールと、前記オリジナルシーンマップにおいて、少なくとも1つの規則的物体に対応する第2類の点群データを、前記規則的物体にマッチングする幾何モデルのモデルデータに置換して3次元シーンマップを取得する3次元マップ生成モジュールとを備える3次元シーンマップの生成装置を提供する。
本発明の第3態様は、少なくとも1つのプロセッサと、少なくとも1つのプログラムが記憶されている記憶装置とを備え、少なくとも1つの前記プログラムが少なくとも1つのプロセッサによって実行される場合に、少なくとも1つの該プロセッサが、上記の3次元シーンマップの生成方法を実現する機器を提供する。
本発明の第4態様は、コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムがプロセッサによって実行される場合に、上記の3次元シーンマップの生成方法が実現されるコンピュータ読み取り可能な記憶媒体を提供する。
本発明の上記態様において、基本道路情報採集機器によって採集された少なくとも2フレームの点群データのデータレジストレーションを行い、各フレームの点群データのうち、動的障害物に対応する第1類の点群データを削除し、各フレームの点群データをデータフュージョンしてオリジナルシーンマップを取得する。そして、取得したオリジナルシーンマップにおいて、少なくとも1つの規則的物体に対応する第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換して3次元シーンマップを取得する。これにより、基本道路情報採集機器によって採集された点群データで3次元背景マップを生成することができ、点群データの模擬要件を満たすよう3次元背景マップの品質を保証すると同時に、コストを削減させ、異なるシーンまで適用されやすい。
本発明の実施例1に係る3次元シーンマップの生成方法を説明するフローチャートである。 本発明の実施例2に係る3次元シーンマップの生成方法を説明するフローチャートである。 本発明の実施例3に係る3次元シーンマップの生成方法を説明するフローチャートである。 本発明の実施例4に係る3次元シーンマップの生成方法を説明するフローチャートである。 本発明の実施例5に係る3次元シーンマップの生成装置の構造図である。 本発明の実施例6に係る機器の構造図である。
以下、添付図面および実施例を参照しながら本発明をさらに詳細に記載する。なお、ここに記載した具体的な実施例は、単に本発明の解釈に用いられるものであり、本発明を限定することではない。また、記載の便利上、図面には、全部の構成ではなく、本発明に関連する一部しか示されていない。
実施例1
図1は、本発明の実施例1に係る3次元シーンマップの生成方法を説明するフローチャートである。本実施例は、3次元シーンマップの生成に適用できる。3次元シーンマップの生成方法は、3次元シーンマップの生成装置によって実行可能である。コンピュータデバイスに構成される3次元シーンマップの生成装置は、ソフトウェアおよび/またはハードウェアの形態で実現可能である。図1に示されるように、3次元シーンマップの生成方法は、具体的には以下のステップを含む。
ステップ101は、基本道路情報採集機器によって採集された少なくとも2フレームの点群データを取得し、少なくとも2フレームの点群データをデータレジストレーションする。
ここで、3次元シーンマップを構築するには、まず、点群データを取得する必要がある。3次元レーザスキャナでシーンをサンプリングして物体の表面情報を記述する点が取得されるが、通常、これらの点の集合は、点群データと呼ばれる。
また、基本道路情報採集機器に3次元レーザスキャナを取り付け、基本道路情報採集機器を運転して指定シーンにおける道路を走行し、シーン表面の深度データを採集してもよい。基本道路情報採集機器は、たとえば無人車である。指定シーンは、たとえば道路である。立体測定機器である3次元レーザスキャナは、レーザセンサからレーザを被測定実物の表面まで持続的に発射し、実物の表面から反射された光がレーザパルス受信機に受信され、変換・計算で物体の距離の測定を実現する。
3次元レーザスキャナは、異なる角度から点群データを取得することによって、物体の表面のすべての点群データを取得することができる。しかし、これらの点群データは、互いに独立するものであり、変換によってすべての点群データを同一の座標系に変換して完全な物体表面情報を取得する必要がある。このプロセスは、データレジストレーションと呼ばれる。現在、レジストレーションアルゴリズムは、実現のプロセスによってグローバルレジストレーションアルゴリズムとローカルレジストレーションアルゴリズムに分けられる。グローバルレジストレーションアルゴリズムは、ICP(Iterative Closest Point)アルゴリズム、幾何特徴に基づくレジストレーションアルゴリズムおよび動的レジストレーションアルゴリズムを含む。ローカルレジストレーションアルゴリズムは、曲面特徴に基づくレジストレーションアルゴリズムを含む。よって、所定のレジストレーションアルゴリズムで少なくとも2フレームの点群データをデータレジストレーションすることによって、基本道路情報採集機器によって採集された連続フレームの点群データは、統一した座標系に正確に変換される。
ステップ102は、各フレームの点群データのうち、動的障害物に対応する第1類の点群データを削除し、各フレームの点群データをデータフュージョンしてオリジナルシーンマップを取得する。
ここで、基本道路情報採集機器によって採集された少なくとも2フレームの点群データには、移動不可能な物体と移動可能な物体とにそれぞれ対応する点群データを含む。3次元シーンマップは、シーンにおける移動不可能な物体、たとえば道路または壁などに基づいて生成されたマップであり、シーンにおける移動可能な物体を含む必要がない。よって、3次元シーンマップを生成する際に、各フレームの点群データのうち、移動可能な物体に対応する第1類の点群データを削除する必要がある。
動的障害物は、指定シーンにおける移動可能な物体である。たとえば、車両、通行人である。第1類の点群データは、動的障害物に対応する点群データである。各フレームの点群データのうち、動的障害物に対応する点群データを削除し、残りの点群データは、静的障害物に対応する点群データしか含まない。各フレームの残りの点群データに対してデータフュージョンを行ってオリジナルシーンマップを取得する。具体的には、第1類の点群データを採集する場合に基礎的な道路情報採集機器の位置を座標の原点としてグローバル座標系を確立し、ほかのフレームの点群データを、座標の回転およびシフトによって、第1類の点群データの位置するグローバル座標系に変換してオリジナルシーンマップの作成を実現する。
さらに、基礎的な道路情報採集機器自身には、通常GPSなどのナビゲーション機器を備える。よって、地理的座標系における基礎的な道路情報採集機器自身のリアルタイムのロケーションと関連付けて、地理的座標系における点群データの位置座標を特定することができる。
ステップ103は、オリジナルシーンマップにおいて、少なくとも1つの規則的物体に対応する第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換して3次元シーンマップを取得する。
ここで、基礎的な道路情報採集機器によって採集された点群データは、通常ノイズと誤差が大きい。そのため、各フレームの点群データを統一した座標系に変換しても、直接使用可能な3次元シーンマップを形成することができない。たとえば、地面の厚さは、十数センチである可能性がある。
規則的物体は、オリジナルシーンマップにおける人造物体である。第2類の点群データは、オリジナルシーンマップにおける人造物体に対応する点群データである。シーンにおける物体を、予め、たとえば植物の自然物体と、たとえば道路または壁などの人造物体に分ける。自然物体に対し、そのオリジナルの点群データを保留する。一方、人造物体に対し、3次元モデリング技術によって、人造物体にマッチングする幾何モデルのモデルデータを生成する。少なくとも1つの規則的物体に対応する第2類の点群データを、規則的物体にマッチングする幾何モデルの滑らかで自然なモデルデータに置換して3次元シーンマップを取得する。よって、人造物体のゆがみ問題を解決するのみならず、点群データの模擬品質に影響を与えることもない。
本実施例は、3次元シーンマップの生成方法を提供し、基本道路情報採集機器によって採集された少なくとも2フレームの点群データのデータレジストレーションを行い、各フレームの点群データのうち、動的障害物に対応する第1類の点群データを削除し、各フレームの点群データをデータフュージョンしてオリジナルシーンマップを取得する。そして、取得したオリジナルシーンマップにおいて、少なくとも1つの規則的物体に対応する第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換して3次元シーンマップを取得する。よって、基本道路情報採集機器によって採集された点群データで3次元背景マップを生成することができ、点群データの模擬要件を満たすよう3次元背景マップの品質を保証すると同時に、コストを削減させ、しかも異なるシーンまで適用されやすい。
実施例2
図2は、本発明の実施例2に係る3次元シーンマップの生成方法を説明するフローチャートである。本実施例は、上記の実施例1に基づいて具現化される。本実施例において、少なくとも2フレームの点群データをデータレジストレーションするステップは、各フレームの点群データに含まれる障害物を識別し、各障害物にそれぞれ対応する語意情報を取得するステップと、各障害物にそれぞれ対応する語意情報に基づいて、識別された障害物を静的障害物と動的障害物とに区分するステップと、隣接する2フレームの点群データに含まれる静的障害物をペアリングし、ペアリング結果に基づいて、隣接する2フレームの点群データを初期レジストレーションするステップと、点群グローバルレジストレーション技術によって、初期レジストレーションされた少なくとも2フレームの点群データに対してプレシジョンレジストレーション(precision registration)を行うステップを含む。
図2に示されるように、3次元シーンマップの生成方法は、具体的に以下のステップを含む。
ステップ201は、基本道路情報採集機器によって採集された少なくとも2フレームの点群データを取得する。
ステップ202は、各フレームの点群データに含まれる障害物を識別し、各障害物にそれぞれ対応する語意情報を取得する。
ここで、障害物検出アルゴリズムで各フレームの点群データに含まれる障害物を識別し、各障害物にそれぞれ対応する語意情報を取得する。たとえば、各障害物に対応する語意情報は、ゴミ箱、電信柱、車両および通行人などである。また、より正確なオフライン障害物検出アルゴリズムを使用してもよい。
ステップ203は、各障害物にそれぞれ対応する語意情報に基づいて、識別された障害物を静的障害物と動的障害物とに区分する。
ここで、静的障害物は、シーンにおける移動不可能な物体である。動的障害物は、シーンにおける移動可能な物体である。たとえば、ゴミ箱に対応する障害物、電信柱に対応する障害物を静的障害物に区分し、車両に対応する障害物、通行人に対応する障害物を動的障害物に区分する。
ステップ204は、隣接する2フレームの点群データに含まれる静的障害物をペアリングし、ペアリング結果に基づいて、隣接する2フレームの点群データを初期レジストレーションする。
ここで、隣接する2フレームの点群データに含まれる静的障害物をマッチングすることは、すなわち静的障害物の軌跡を算出する。静的障害物の軌跡を算出することによって、複数の連続フレームの点群データで、単一フレームの点群データの静的障害物検出結果を補正することができる。ある静的障害物は、1フレームの点群データで検出漏れや検出エラーが発生しても、前後の複数のフレームの点群データの分析によって、修復できる。
隣接する2フレームの点群データに含まれる静的障害物をマッチングする後に、マッチング結果に基づいて、隣接する2フレームの点群データを初期レジストレーションする。初期レジストレーションは、2フレームの点群データの相対的位置関係がまったく不明である場合に、2フレームの点群データに対応する近似的な回転シフト行列を特定することである。初期レジストレーションによって得られる回転シフト行列は、正確であるとは限らないが、2フレームの点群データの間の正確な回転シフト行列に類似している。具体的には、サンプリング一致性の初期レジストレーションアルゴリズムによって、隣接する2フレームの点群データを初期レジストレーションする。
ステップ205は、点群グローバルレジストレーション技術によって、初期レジストレーションされた少なくとも2フレームの点群データをプレシジョンレジストレーションする。
ここで、点群グローバルレジストレーション技術は、ICP(Iterative Closest Point)アルゴリズム、幾何特徴に基づくレジストレーションアルゴリズムおよび動的レジストレーションアルゴリズムにおけるいずれか1つである。
ステップ206は、各フレームの点群データのうち、動的障害物に対応する第1類の点群データを削除し、各フレームの点群データをデータフュージョンしてオリジナルシーンマップを取得する。
また、各フレームの点群データのうち、動的障害物に対応する第1類の点群データを削除するステップの後に、点群グローバルレジストレーション技術によって、各フレームの点群データを再度レジストレーションするステップをさらに含んでいてもよい。
これによって、再度レジストレーションするプロセスにより正確な点群データレジストレーション結果が得られる。
ステップ207は、オリジナルシーンマップにおいて、少なくとも1つの規則的物体に対応する第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換して3次元シーンマップを取得する。
本実施例は、3次元シーンマップの生成方法を提供する。3次元シーンマップの生成方法は、各フレームの点群データに含まれる障害物を識別し、各障害物にそれぞれ対応する語意情報に基づいて、識別された障害物を静的障害物と動的障害物に区分し、隣接する2フレームの点群データに含まれる静的障害物をペアリングし、ペアリング結果に基づいて、隣接する2フレームの点群データの初期レジストレーションを行った後に、点群グローバルレジストレーション技術によって、初期レジストレーションされた少なくとも2フレームの点群データをプレシジョンレジストレーションする。よって、単一フレームの点群データの静的障害物検出結果を補正することができ、ある静的障害物が1フレームのデータで検出漏れや検出エラーになることを防止し、2回のレジストレーションプロセスにより正確な点群データレジストレーションを実現することができる。
実施例3
図3は、本発明の実施例3に係る3次元シーンマップの生成方法を説明するフローチャートである。本実施例は、上記の実施例に基づいて具現化される。本実施例において、各フレームの点群データのうち、動的障害物に対応する第1類の点群データを削除するステップは、動的障害物の各フレームの点群データにおける位置に基づいて、動的障害物に対応する理想的な運動軌跡を特定するステップと、動的障害物の理想的な運動軌跡に基づいて、各フレームの点群データにおける動的障害物に対応する点群データを補正するステップと、各フレームの点群データのうち、動的障害物に対応する点群データを削除するステップとを含む。
図3に示されるように、3次元シーンマップの生成方法は、具体的に以下のステップを含む。
ステップ301は、基本道路情報採集機器によって採集された少なくとも2フレームの点群データを取得し、各フレームの点群データに含まれる障害物を識別し、各障害物にそれぞれ対応する語意情報を取得する。
ステップ302は、各障害物にそれぞれ対応する語意情報に基づいて、識別された障害物を静的障害物と動的障害物とに区分する。
ステップ303は、隣接する2フレームの点群データに含まれる静的障害物をペアリングし、ペアリング結果に基づいて、隣接する2フレームの点群データを初期レジストレーションする。
ステップ304は、点群グローバルレジストレーション技術によって、初期レジストレーションされた少なくとも2フレームの点群データをプレシジョンレジストレーションする。
ステップ305は、動的障害物の各フレームの点群データにおける位置に基づいて、動的障害物に対応する理想的な運動軌跡を特定する。
ここで、理想的な運動軌跡は、動的障害物の各フレームの点群データにおける位置から構成される運動軌跡である。たとえば、各フレームの点群データにおける通行人の位置に基づいて、通行人に対応する理想的な運動軌跡、すなわち通行人の移動過程を特定する。
ステップ306は、動的障害物の理想的な運動軌跡に基づいて、各フレームの点群データにおける動的障害物に対応する点群データを補正する。
ここで、各フレームの点群データにおいて、同一の動的障害物に対応する点群データは、対応するものである。動的障害物の理想的な運動軌跡に基づいて、各フレームの点群データにおける動的障害物に対応する点群データを補正する。すなわち、複数の連続フレームの点群データによって、単一フレームの点群データの動的障害物検出結果を補正する。ある動的障害物は、あるフレームの点群データで検出漏れや検出エラーになっても、前後の複数のフレームの点群データの分析によって修復できる。たとえば、各フレームの点群データにおける通行人の位置に基づいて、通行人に対応する理想的な運動軌跡を特定する。理想的な運動軌跡に基づいて、通行人があるフレームの点群データにあるべきと特定するが、あるフレームの点群データにおいて、通行人に対応する点群データは、検出漏れである。通行人に対応する理想的な運動軌跡に基づいて、通行人に対応する点群データを当該フレームの点群データに追加して修復する。
ステップ307は、各フレームの点群データのうち、動的障害物に対応する点群データを削除する。
ここで、各フレームの点群データのうち、動的障害物に対応する点群データを削除し、残りの点群データは、静的障害物に対応する点群データしか含まない。
ステップ308は、各フレームの点群データをデータフュージョンしてオリジナルシーンマップを取得する。
ステップ309は、オリジナルシーンマップにおいて、少なくとも1つの規則的物体に対応する第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換して3次元シーンマップを取得する。
本実施例は、3次元シーンマップの生成方法を提供する。3次元シーンマップの生成方法は、動的障害物の各フレームの点群データにおける位置に基づいて、動的障害物に対応する理想的な運動軌跡を特定し、動的障害物の理想的な運動軌跡に基づいて、各フレームの点群データにおける動的障害物に対応する点群データを補正し、各フレームの点群データのうち、動的障害物に対応する点群データを削除する。よって、単一フレームの点群データの動的障害物検出結果を補正することができ、ある動的障害物が1フレームのデータで検出漏れや検出エラーになることを防止し、語意情報に基づいて、動的障害物に対応する点群データを削除することができる。
実施例4
図4は、本発明の実施例4に係る3次元シーンマップの生成方法を説明するフローチャートである。本実施例は、上記の実施例に基づいて具現化される。本実施例において、オリジナルシーンマップにおいて、少なくとも1つの規則的物体に対応する第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換して3次元シーンマップを取得するステップは、オリジナルシーンマップにおいて、形状属性を設定した点群データを分類対象点群データとして取得するステップと、各分類対象点群データの形状属性および各分類対象点群データのオリジナルシーンマップにおける位置に基づいて、少なくとも1つの規則的物体に対応する第2類の点群データを取得するステップと、規則的物体に対応する第2類の点群データの形状属性に基づいて、形状属性にマッチングする置換ルールによって、オリジナルシーンマップにおける第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換するステップとを含む。
図4に示されるように、3次元シーンマップの生成方法は、具体的に以下のステップを含む。
ステップ401は、基本道路情報採集機器によって採集された少なくとも2フレームの点群データを取得し、少なくとも2フレームの点群データをデータレジストレーションする。
ステップ402は、各フレームの点群データのうち、動的障害物に対応する第1類の点群データを削除し、各フレームの点群データをデータフュージョンしてオリジナルシーンマップを取得する。
ステップ403は、オリジナルシーンマップにおいて、形状属性を設定した点群データを分類対象点群データとして取得する。
ここで、各フレームの点群データで形状属性を設定した点群データを検出する。また、形状属性は、平面属性および/または円柱属性を含んでいてもよい。検出した形状属性を設定した点群データを分類対象点群データとして取得する。
ステップ404は、各分類対象点群データの形状属性および各分類対象点群データのオリジナルシーンマップにおける位置に基づいて、少なくとも1つの規則的物体に対応する第2類の点群データを取得する。
ここで、規則的物体は、たとえば道路、壁、ゴミ箱および電信柱である。たとえば、各分類対象点群データの形状属性は、平面属性である。各分類対象点群データの平面属性およびオリジナルシーンマップにおける各分類対象点群データの位置に基づいて、壁に対応する第2類の点群データを取得する。
また、各分類対象点群データの形状属性および各分類対象点群データのオリジナルシーンマップにおける位置に基づいて、少なくとも1つの規則的物体に対応する第2類の点群データを取得するステップの後に、同一の規則的物体に対応する第2類の形状データおよび規則的物体の属性情報に基づいて、規則的物体に対応する第2類の形状データの補充および/または補正を行うステップをさらに含んでいてもよい。
ここで、同一の規則的物体に対応する第2類の形状データは、各フレームの点群データで一致する。ある規則的物体があるフレームの点群データで検出漏れになれば、同一の規則的物体に対応する第2類の形状データおよび規則的物体の属性情報に基づいて、規則的物体に対応する第2類の形状データを補充する。ある規則的物体があるフレームの点群データで検出エラーになれば、同一の規則的物体に対応する第2類の形状データおよび規則的物体の属性情報に基づいて、規則的物体に対応する第2類の形状データを補正する。
よって、同一の規則的物体に対応する第2類の形状データによって、単一フレームの点群データの規則的物体検出結果を補正する。ある規則的物体は、あるフレームの点群データで検出漏れや検出エラーになっても、同一の規則的物体に対応する第2類の形状データに基づいて修復できる。
ステップ405は、規則的物体に対応する第2類の点群データの形状属性に基づいて、形状属性にマッチングする置換ルールによって、オリジナルシーンマップにおける第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換する。
ここで、規則的物体に対応する第2類の点群データの形状属性に基づいて、3次元モデリング技術によって、規則的物体にマッチングする幾何モデルのモデルデータを生成する。また、幾何モデルのモデルデータは、3次元パッチ(patch)形態のデータであってもよい。パッチモデリング技術によって、規則的物体にマッチングする幾何モデルのモデルデータを生成する。パッチモデリングは、メッシュモデリングと曲面モデリングに介するモデリング方法である。パッチモデリングは、少ない面で真に迫った滑らかな効果を作成できる。ユーザは、少ない制御点でモデル全体を制御できる。
また、規則的物体に対応する第2類の点群データの形状属性に基づいて、形状属性にマッチングする置換ルールによって、第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換するステップは、目標規則的物体に対応する第2類の点群データの形状属性が平面属性であると決定された場合に、ボクセルフュージョン技術によって、目標規則的物体に対応する第2類の点群データを、厚さを設定した薄い平面に対応するモデルデータに置換してもよい。たとえば、目標規則的物体は、道路または壁である。目標規則的物体に対応する第2類の点群データの形状属性は、平面属性である。ボクセルフュージョン技術によって、目標規則的物体に対応する第2類の点群データを、厚さを設定した薄い平面に対応するモデルデータに置換する。目標規則的物体に対応する第2類の点群データの形状属性が円柱属性であると決定された場合は、目標規則的物体に対する円柱パラメータ予測値に基づいて、円柱パラメータ予測値にマッチングする円柱モデルを取得し、目標規則的物体に対応する第2類の点群データを、円柱モデルに対応するモデルデータに置換する。たとえば、目標規則的物体は、電信柱である。目標規則的物体に対応する第2類の点群データの形状属性は、円柱属性である。目標規則的物体に対する円柱パラメータ予測値、たとえば円柱体の底面積および高さに基づいて、円柱パラメータ予測値にマッチングする円柱モデルを取得する。目標規則的物体に対応する第2類の点群データを、円柱モデルに対応するモデルデータに置換する。
本実施例は、3次元シーンマップの生成方法を提供する。3次元シーンマップの生成方法は、形状属性を設定した点群データを分類対象点群データとして取得し、各分類対象点群データの形状属性および各分類対象点群データのオリジナルシーンマップにおける位置に基づいて、少なくとも1つの規則的物体に対応する第2類の点群データを得、規則的物体に対応する第2類の点群データの形状属性に基づいて、形状属性にマッチングする置換ルールによって、オリジナルシーンマップにおける第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換する。よって、オリジナルシーンマップにおける人造物体に対し、3次元モデリング技術によって、人造物体にマッチングする幾何モデルのモデルデータを生成し、人造物体に対応する点群データを、人造物体にマッチングする幾何モデルの滑らかで自然なモデルデータに置換して3次元シーンマップを取得する。人造物体のゆがみ問題を解決するのみならず、点群データの模擬品質に影響を与えることもない。
実施例5
図5は、本発明の実施例5における3次元シーンマップの生成装置の構造図である。図5に示されるように、コンピュータデバイスで構成される3次元シーンマップの生成装置は、基本道路情報採集機器によって採集された少なくとも2フレームの点群データを取得し、少なくとも2フレームの点群データをデータレジストレーションする点群データ取得モジュール501と、各フレームの点群データのうち、動的障害物に対応する第1類の点群データを削除し、各フレームの点群データをデータフュージョンしてオリジナルシーンマップを生成するオリジナルマップ生成モジュール502と、オリジナルシーンマップにおいて、少なくとも1つの規則的物体に対応する第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換して3次元シーンマップを取得する3次元マップ生成モジュール503とを備える。
本実施例は、3次元シーンマップの生成装置を提供する。3次元シーンマップの生成装置は、基本道路情報採集機器によって採集された少なくとも2フレームの点群データのデータレジストレーションを行い、各フレームの点群データのうち、動的障害物に対応する第1類の点群データを削除し、各フレームの点群データをデータフュージョンしてオリジナルシーンマップを取得する。そして、取得したオリジナルシーンマップにおいて、少なくとも1つの規則的物体に対応する第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換して3次元シーンマップを取得する。よって、基本道路情報採集機器によって採集された点群データで3次元背景マップを生成することができ、点群データの模擬要件を満たすよう3次元背景マップの品質を保証すると同時に、コストを削減させ、異なるシーンまで適用されやすい。
上記の各実施例において、点群データ取得モジュール501は、各フレームの点群データに含まれる障害物を識別し、各障害物にそれぞれ対応する語意情報を取得する語意情報識別ユニットと、各障害物にそれぞれ対応する語意情報に基づいて、識別された障害物を静的障害物と動的障害物とに区分する情報区分ユニットと、隣接する2フレームの点群データに含まれる静的障害物をペアリングし、ペアリング結果に基づいて、隣接する2フレームの点群データを初期レジストレーションする初期レジストレーションユニットと、点群グローバルレジストレーション技術によって、初期レジストレーションされた少なくとも2フレームの点群データをプレシジョンレジストレーションするプレシジョンレジストレーションユニットとを備えていてもよい。
上記の各実施例において、オリジナルマップ生成モジュール502は、動的障害物の各フレームの点群データにおける位置に基づいて、動的障害物に対応する理想的な運動軌跡を特定する軌跡特定ユニットと、動的障害物の理想的な運動軌跡に基づいて、各フレームの点群データにおける動的障害物に対応する点群データを補正するデータ補正ユニットと、各フレームの点群データのうち、動的障害物に対応する点群データを削除するデータ削除ユニットとを備えていてもよい。
上記の各実施例において、オリジナルマップ生成モジュール502は、点群グローバルレジストレーション技術によって、各フレームの点群データを再度レジストレーションする再度レジストレーションユニットをさらに備えていてもよい。
上記の各実施例において、3次元マップ生成モジュール503は、オリジナルシーンマップにおいて、形状属性を設定した点群データを分類対象点群データとして取得するデータ取得ユニットと、各分類対象点群データの形状属性および各分類対象点群データのオリジナルシーンマップにおける位置に基づいて、少なくとも1つの規則的物体に対応する第2類の点群データを取得するデータ対応ユニットと、規則的物体に対応する第2類の点群データの形状属性に基づいて、形状属性にマッチングする置換ルールによって、オリジナルシーンマップにおける第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換するデータ置換ユニットとを備えていてもよい。
上記の各実施例において、3次元マップ生成モジュール503は、同一の規則的物体に対応する第2類の形状データおよび規則的物体の属性情報に基づいて、規則的物体に対応する第2類の形状データの補充および/または補正を行うデータ調整ユニットをさらに備えていてもよい。
上記の各実施例において、形状属性は、平面属性および/または円柱属性を含んでいてもよい。
上記の各実施例において、データ置換ユニットは、目標規則的物体に対応する第2類の点群データの形状属性が平面属性であると決定された場合に、ボクセルフュージョン技術によって、目標規則的物体に対応する第2類の点群データを、厚さを設定した薄い平面に対応するモデルデータに置換する第1置換サブユニット、および/または、目標規則的物体に対応する第2類の点群データの形状属性が円柱属性であると決定された場合に、目標規則的物体に対する円柱パラメータ予測値に基づいて、円柱パラメータ予測値にマッチングする円柱モデルを取得し、目標規則的物体に対応する第2類の点群データを、円柱モデルに対応するモデルデータに置換する第2置換サブユニットを備えていてもよい。
上記の各実施例において、幾何モデルのモデルデータは、3次元パッチ形態のデータであってもよい。
本発明の実施例5における3次元シーンマップの生成装置は、本発明の任意の実施例1,2,3,4における3次元シーンマップの生成方法を実行することができ、生成方法の実行に対応する機能モジュールおよび有益な効果を有する。
実施例6
図6は、本発明の実施例6における機器の構造図である。図6には、本発明の実施例の実現に適する機器612の例示的なブロック図が示されている。図6に示されている機器612は、一例に過ぎず、本発明の実施例の機能および使用範囲を制限すべきではない。
図6に示されるように、機器612は、汎用計算機器の形態で表現される。機器612の構成要素として、少なくとも1つのプロセッサまたは処理ユニット616と、システムメモリ628と、異なるシステム構成要素(システムメモリ628および処理ユニット616を有する)を接続するバス618とを備えるが、それらに限られない。
バス618は、複数種類のバス構造における少なくとも1つのものであり、メモリバスまたはメモリコントローラ、周辺バス、図形加速ポート、プロセッサまたは複数のバス構造における任意のバス構造を使用するローカルバスを含む。たとえば、これらの体系のバスは、ISAバス、MACバス、強化型ISAバス、VESAローカルバスおよびPCIバスを含むが、それらに限られない。
機器612は、典型的に複数種類のコンピュータシステム読み取り可能な媒体を含む。これらの媒体は、機器612からアクセス可能な任意の使用可能な媒体であり、揮発性/非揮発性媒体およびリムーバブル/イムーバブル媒体を含む。
システムメモリ628は、揮発性メモリ形式のコンピュータシステム読み取り可能な媒体を含み、たとえばRAM630および/またはキャッシュメモリ632を含む。機器612は、さらにほかのリムーバブル/イムーバブル、揮発性/非揮発性のコンピュータシステム記憶媒体を含んでもよい。たとえば、記憶システム634は、イムーバブルで非揮発性磁気媒体(図6には図示しないが、通常ハードディスクドライブと称される。)のリード/ライトに用いられる。図6には図示されていないが、リムーバブルで非揮発性の磁気ディスク(たとえばフレキシブルディスク)のリード/ライトに用いられる磁気ディスクドライブ、リムーバブルで非揮発性の光ディスク(たとえばCD−ROM、DVD−ROMまたはほかの光媒体)のリード/ライトに用いられる光ディスクドライブを提供可能である。この場合、各ドライブは、1つまたは複数のデータ媒体インタフェースを介してバス618に接続される。メモリ628は、少なくとも1つのプログラムプロダクトを含む。プログラムプロダクトは、1組(たとえば少なくとも1つ)のプログラムモジュールを有する。これらのプログラムモジュールは、本発明の各実施例の機能を実行するように構成される。
1組(少なくとも1つ)のプログラムモジュール642を有するプログラム/実用ツール640は、たとえばメモリ628に記憶される。このようなプログラムモジュール642は、オペレーティングシステム、少なくとも1つのアプリケーションプログラム、他のプログラムモジュールおよびプログラムデータを含むが、それらに限られない。これらの一例または組み合わせは、ネットワーク環境の実現を含みうる。プログラムモジュール642は、通常、本発明に記載した実施例の機能および/方法を実行する。
機器612は、少なくとも1つの外部機器614(たとえばキーボード、ポインタ機器またはディスプレイ624など)と通信し、さらに、ユーザと機器612とのやり取りを可能にする少なくとも1つの機器、および/または機器612と少なくとも1つのほかの計算機器を通信可能にする任意の機器(たとえばネットワークカード、モデムなど)と通信してもよい。このような通信は、I/Oインタフェース622を介して行われる。機器612は、ネットワークカード620を介して1つまたは複数のネットワーク(たとえばLAN、WANおよび/またはインターネットなどの公共ネットワーク)と通信する。図示のように、ネットワークカード620は、バス618を介して機器612のほかのモジュールと通信する。図6には図示されていないが、マイクロコード、機器ドライブ、冗長処理ユニット、外部磁気ディスク駆動アレイ、RAIDシステム、磁気テープドライブおよびデータバッファ記憶システムなどを含み、それらに限られない他のハードウェアおよび/またはソフトウェアモジュールを機器612と併用してもよいことが明らかである。
機器612は、端末機器であってもよい。機器612の処理ユニット616は、システムメモリ628に記憶されているプログラムを実行することによって、各種類の機能的な応用およびデータ処理を実行し、たとえば本発明の実施例1,2,3,4における3次元シーンマップの生成方法を実現する。3次元シーンマップの生成方法は、具体的には、基本道路情報採集機器によって採集された少なくとも2フレームの点群データを取得し、少なくとも2フレームの点群データをデータレジストレーションするステップと、各フレームの点群データのうち、動的障害物に対応する第1類の点群データを削除し、各フレームの点群データをデータフュージョンしてオリジナルシーンマップを取得するステップと、オリジナルシーンマップにおいて、少なくとも1つの規則的物体に対応する第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換して3次元シーンマップを取得するステップとを含む。
実施例7
本発明の実施例7は、コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体を提供する。コンピュータ読み取り可能な記憶媒体は、コンピュータプログラムがプロセッサによって実行される場合に、本発明の実施例1,2,3,4における3次元シーンマップの生成方法が実現される。3次元シーンマップの生成方法は、具体的には、基本道路情報採集機器によって採集された少なくとも2フレームの点群データを取得し、少なくとも2フレームの点群データをデータレジストレーションするステップと、各フレームの点群データのうち、動的障害物に対応する第1類の点群データを削除し、各フレームの点群データをデータフュージョンしてオリジナルシーンマップを取得するステップと、オリジナルシーンマップにおいて、少なくとも1つの規則的物体に対応する第2類の点群データを、規則的物体にマッチングする幾何モデルのモデルデータに置換して3次元シーンマップを取得するステップとを含む。
本実施例のコンピュータ読み取り可能な記憶媒体は、少なくとも1つのコンピュータ読み取り可能な媒体の任意の組み合わせであってもよい。コンピュータ読み取り可能な媒体は、コンピュータ読み取り可能な信号媒体またはコンピュータ読み取り可能な記憶媒体である。コンピュータ読み取り可能な記憶媒体は、たとえば電気、磁気、光、電磁、赤外線または半導体のシステム、装置または素子、またはそれらの任意の組み合わせを含み、それらに限られない。コンピュータ読み取り可能な記憶媒体は、より具体的な一例(完全に網羅されていないリスト)として、少なくとも1つの導線を有する電気接続、携帯式コンピュータ磁気ディスク、ハードディスク、RAM、ROM、EPROMまたはフラッシュメモリ、光ファイバ、CD−ROM、光記憶素子、磁気記憶素子、または上記の任意の適切な組み合わせを含む。本発明において、コンピュータ読み取り可能な記憶媒体は、プログラムを含む、またはプログラムを記憶するあらゆる有形媒体である。プログラムは、指令実行システム、装置または素子によって使用されるか、それらと併用される。
コンピュータ読み取り可能な信号媒体は、ベースバンドでまたは搬送波の一部として伝播されるデータ信号を含み、コンピュータ読み取り可能なプログラムコードがベアラされる。このように伝播されるデータ信号は、多種類の形式を取ることが可能であり、電磁信号、光信号または上記の任意の適切な組み合わせを含み、それらに限られない。コンピュータ読み取り可能な信号媒体は、コンピュータ読み取り可能な記憶媒体以外の任意のコンピュータ読み取り可能な媒体であってもよい。コンピュータ読み取り可能な媒体は、指令実行システム、装置または素子によって使用されまたは併用されるプログラムを送信、伝播または伝送することができる。
コンピュータ読み取り可能な媒体に含まれるプログラムコードは、無線、電線、光ファイバ、RFなど、またはそれらの任意の適切な組み合わせを含み、それらに限られない任意の適切な媒体によって伝送される。
本発明の操作を実行するためのコンピュータプログラムコードは、少なくとも1つのプログラム設計言語またはその組み合わせで書かれる。プログラム設計言語は、Java(登録商標)、Smalltalk、C++、RubyまたはGoなど、対象向けのプログラム設計言語を含み、C言語や類似なプログラム設計言語のような、通常の過程式プログラム設計言語を含む。プログラムコードは、完全にユーザのコンピュータで実行されたり、部分的にユーザのコンピュータで実行されたり、1つの独立なソフトウェアパッケージとして実行されたり、一部がユーザのコンピュータで実行され一部が遠隔コンピュータで実行されたり、完全に遠隔コンピュータやサーバーで実行されたりする。遠隔コンピュータに関わる場合、遠隔コンピュータは、LANやWANを含め任意の種類のネットワークを介してユーザのコンピュータに接続されたり、外部のコンピュータに接続されたりする(たとえばインターネットサービス業者によってインターネットを介して接続される)。
なお、以上の記載は、本発明の好適な実施例およびその技術的な原理に過ぎない。当業者にとって、本発明は、ここに記載した特定の実施例に限られず、本発明の保護範囲から逸脱せずに各種類の明らかな変更、再調整および置換を行うことができる。よって、以上の実施例を通じて本発明を詳細に説明したが、本発明は、以上の実施例に限られず、本発明の思想を逸脱せずに、それ以外の均等の実施例を多く含むことも可能である。本発明の範囲は、添付の特許請求の範囲によって決められる。

Claims (12)

  1. 3次元シーンマップの生成方法において、
    基本道路情報採集機器によって採集された少なくとも2フレームの点群データを取得し、少なくとも2フレームの該点群データをデータレジストレーションするステップと、
    各フレームの前記点群データのうち、動的障害物に対応する第1類の点群データを削除し、各フレームの前記点群データをデータフュージョンしてオリジナルシーンマップを取得するステップと、
    前記オリジナルシーンマップにおいて、少なくとも1つの規則的物体に対応する第2類の点群データを、前記規則的物体にマッチングする幾何モデルのモデルデータに置換して、前記3次元シーンマップを取得するステップとを含む3次元シーンマップの生成方法。
  2. 少なくとも2フレームの前記点群データをデータレジストレーションするステップは、
    各フレームの前記点群データに含まれる障害物を識別し、各該障害物にそれぞれ対応する語意情報を取得するステップと、
    各前記障害物にそれぞれ対応する前記語意情報に基づいて、識別された前記障害物を静的障害物と前記動的障害物とに区分するステップと、
    隣接する2フレームの前記点群データに含まれる前記静的障害物をペアリングし、ペアリング結果に基づいて、隣接する2フレームの前記点群データを初期レジストレーションするステップと、
    点群グローバルレジストレーション技術によって、初期レジストレーションされた少なくとも2フレームの前記点群データをプレシジョンレジストレーションするステップとを含む請求項1に記載の3次元シーンマップの生成方法。
  3. 各フレームの前記点群データのうち、前記動的障害物に対応する前記第1類の点群データを削除するステップは、
    前記動的障害物の各フレームの前記点群データにおける位置に基づいて、前記動的障害物に対応する理想的な運動軌跡を決定するステップと、
    前記動的障害物の前記理想的な運動軌跡に基づいて、各フレームの前記点群データのうち前記動的障害物に対応する前記点群データを補正するステップと、
    各フレームの前記点群データのうち、前記動的障害物に対応する前記点群データを削除するステップとを含む請求項2に記載の3次元シーンマップの生成方法。
  4. 各フレームの前記点群データのうち、前記動的障害物に対応する前記第1類の点群データを削除するステップの後に、
    点群グローバルレジストレーション技術によって、各フレームの前記点群データを再度レジストレーションするステップをさらに含む請求項2または請求項3に記載の3次元シーンマップの生成方法。
  5. 前記オリジナルシーンマップにおいて、少なくとも1つの前記規則的物体に対応する前記第2類の点群データを、前記規則的物体にマッチングする前記幾何モデルのモデルデータに置換して、前記3次元シーンマップを取得するステップは、
    前記オリジナルシーンマップにおいて、形状属性を設定した前記点群データを分類対象点群データとして取得するステップと、
    各前記分類対象点群データの前記形状属性および各前記分類対象点群データの前記オリジナルシーンマップにおける位置に基づいて、少なくとも1つの前記規則的物体に対応する前記第2類の点群データを取得するステップと、
    前記規則的物体に対応する前記第2類の点群データの前記形状属性に基づいて、前記形状属性にマッチングする置換ルールによって、前記オリジナルシーンマップにおける前記第2類の点群データを、前記規則的物体にマッチングする前記幾何モデルのモデルデータに置換するステップとを含む請求項1から請求項3のいずれかに記載の3次元シーンマップの生成方法。
  6. 各前記分類対象点群データの前記形状属性および各前記分類対象点群データの前記オリジナルシーンマップにおける位置に基づいて、少なくとも1つの前記規則的物体に対応する前記第2類の点群データを取得するステップの後に、
    同一の前記規則的物体に対応する第2類の形状データおよび前記規則的物体の属性情報に基づいて、前記規則的物体に対応する前記第2類の形状データの補充および/または補正を行うステップをさらに含む請求項5に記載の3次元シーンマップの生成方法。
  7. 前記形状属性は、平面属性および/または円柱属性を含む請求項5に記載の3次元シーンマップの生成方法。
  8. 前記規則的物体に対応する前記第2類の点群データの前記形状属性に基づいて、前記形状属性にマッチングする置換ルールによって、前記第2類の点群データを、前記規則的物体にマッチングする前記幾何モデルのモデルデータに置換するステップは、
    目標規則的物体に対応する前記第2類の点群データの前記形状属性が平面属性であると決定された場合、ボクセルフュージョン技術によって、前記目標規則的物体に対応する前記第2類の点群データを、厚さを設定した薄い平面に対応するモデルデータに置換するステップ、および/または、
    前記目標規則的物体に対応する前記第2類の点群データの前記形状属性が円柱属性であると決定された場合、前記目標規則的物体に対する円柱パラメータ予測値に基づいて、該円柱パラメータ予測値にマッチングする円柱モデルを取得し、前記目標規則的物体に対応する前記第2類の点群データを、前記円柱モデルに対応するモデルデータに置換するステップを含む請求項7に記載の3次元シーンマップの生成方法。
  9. 前記幾何モデルのモデルデータは、3次元パッチ形態のデータである請求項8に記載の3次元シーンマップの生成方法。
  10. 3次元シーンマップの生成装置において、
    基本道路情報採集機器によって採集された少なくとも2フレームの点群データを取得し、少なくとも2フレームの該点群データをデータレジストレーションする点群データ取得モジュールと、
    各フレームの前記点群データのうち、動的障害物に対応する第1類の点群データを削除し、各フレームの前記点群データをデータフュージョンしてオリジナルシーンマップを生成するオリジナルマップ生成モジュールと、
    前記オリジナルシーンマップにおいて、少なくとも1つの規則的物体に対応する第2類の点群データを、前記規則的物体にマッチングする幾何モデルのモデルデータに置換して、前記3次元シーンマップを取得する3次元マップ生成モジュールとを備える3次元シーンマップの生成装置。
  11. 機器であって、
    少なくとも1つのプロセッサと、
    少なくとも1つのプログラムが記憶されている記憶装置とを備え、
    少なくとも1つの前記プログラムが少なくとも1つの前記プロセッサによって実行される場合に、少なくとも1つの該プロセッサが、請求項1から請求項9のいずれかに記載の3次元シーンマップの生成方法を実現する機器。
  12. コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータプログラムがプロセッサによって実行される場合に、請求項1から請求項9のいずれかに記載の3次元シーンマップの生成方法が実現されるコンピュータ読み取り可能な記憶媒体。
JP2019157031A 2018-08-30 2019-08-29 3次元シーンマップの生成方法、生成装置、機器および記憶媒体 Active JP6866441B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811003349.5A CN109285220B (zh) 2018-08-30 2018-08-30 一种三维场景地图的生成方法、装置、设备及存储介质
CN201811003349.5 2018-08-30

Publications (2)

Publication Number Publication Date
JP2020035448A true JP2020035448A (ja) 2020-03-05
JP6866441B2 JP6866441B2 (ja) 2021-04-28

Family

ID=65183146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019157031A Active JP6866441B2 (ja) 2018-08-30 2019-08-29 3次元シーンマップの生成方法、生成装置、機器および記憶媒体

Country Status (4)

Country Link
US (1) US11069133B2 (ja)
EP (1) EP3617655B1 (ja)
JP (1) JP6866441B2 (ja)
CN (1) CN109285220B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837981A (zh) * 2021-11-23 2021-12-24 中国电子科技集团公司第二十八研究所 一种多端设备获取三维点云的自动化融合方法
WO2022059051A1 (ja) * 2020-09-15 2022-03-24 日本電信電話株式会社 3d点群の座標を変換する装置、方法及びプログラム
JPWO2022244172A1 (ja) * 2021-05-20 2022-11-24

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11520331B2 (en) * 2018-12-28 2022-12-06 Intel Corporation Methods and apparatus to update autonomous vehicle perspectives
CN110009718B (zh) * 2019-03-07 2021-09-24 深兰科技(上海)有限公司 一种三维高精度地图生成方法及装置
CN109993780B (zh) * 2019-03-07 2021-09-24 深兰科技(上海)有限公司 一种三维高精度地图生成方法及装置
CN111666797B (zh) * 2019-03-08 2023-08-08 深圳市速腾聚创科技有限公司 车辆定位方法、装置和计算机设备
CN111694903B (zh) * 2019-03-11 2023-09-12 北京地平线机器人技术研发有限公司 地图构建方法、装置、设备以及可读存储介质
JP7393128B2 (ja) * 2019-03-20 2023-12-06 フォルシアクラリオン・エレクトロニクス株式会社 車載処理装置、移動支援システム
JP7262064B2 (ja) * 2019-03-26 2023-04-21 パナソニックIpマネジメント株式会社 測距撮像システム、測距撮像方法、及びプログラム
CN109919989B (zh) * 2019-03-27 2023-11-14 广东工业大学 一种雷达电力巡检的点云数据配准方法、装置及设备
CN110189366B (zh) * 2019-04-17 2021-07-06 北京迈格威科技有限公司 一种激光粗配准方法、装置、移动终端及存储介质
CN110335300A (zh) * 2019-05-14 2019-10-15 广东康云科技有限公司 基于视频融合的场景动态模拟方法、系统及存储介质
CN110264502B (zh) * 2019-05-17 2021-05-18 华为技术有限公司 点云配准方法和装置
CN112622923B (zh) * 2019-09-24 2022-07-05 北京百度网讯科技有限公司 用于控制车辆的方法和装置
KR102238522B1 (ko) * 2019-09-27 2021-04-09 주식회사 서울로보틱스 3차원 공간에 대응되는 맵을 생성하는 차량 및 방법
US11867789B2 (en) * 2020-01-07 2024-01-09 Metawave Corporation Optimized proximity clustering in a vehicle radar for object identification
CN111402414B (zh) * 2020-03-10 2024-05-24 北京京东叁佰陆拾度电子商务有限公司 一种点云地图构建方法、装置、设备和存储介质
CN113551678B (zh) * 2020-04-09 2024-07-30 浙江菜鸟供应链管理有限公司 构建地图的方法、构建高精度地图的方法及移动设备
CN111539361B (zh) * 2020-04-28 2023-09-05 北京小马慧行科技有限公司 噪点的识别方法、装置、存储介质、处理器和运载工具
CN111553353B (zh) * 2020-05-11 2023-11-07 北京小马慧行科技有限公司 3d点云的处理方法、装置、存储介质与处理器
CN111597287B (zh) * 2020-05-15 2023-09-29 阿波罗智能技术(北京)有限公司 地图生成方法、装置及设备
CN111551947A (zh) * 2020-05-28 2020-08-18 东软睿驰汽车技术(沈阳)有限公司 激光点云定位方法、装置、设备及系统
CN111815687B (zh) * 2020-06-19 2024-09-03 浙江大华技术股份有限公司 点云匹配方法、定位方法、设备及存储介质
CN111915730B (zh) * 2020-07-20 2023-05-19 北京建筑大学 一种顾及语义从点云自动生成室内三维模型的方法及系统
WO2022016311A1 (zh) * 2020-07-20 2022-01-27 深圳元戎启行科技有限公司 基于点云的三维重建方法、装置和计算机设备
CN112102375B (zh) * 2020-07-22 2024-04-12 广州视源电子科技股份有限公司 一种点云配准可靠性检测的方法、装置、移动智慧设备
CN114067555B (zh) * 2020-08-05 2023-02-17 北京万集科技股份有限公司 多基站数据的配准方法、装置、服务器和可读存储介质
CN112330702A (zh) * 2020-11-02 2021-02-05 蘑菇车联信息科技有限公司 点云补全方法、装置、电子设备及存储介质
CN112484738B (zh) * 2020-11-24 2023-04-28 深圳市优必选科技股份有限公司 机器人建图方法、装置、计算机可读存储介质及机器人
CN114598692B (zh) * 2020-12-01 2023-03-17 腾讯科技(深圳)有限公司 点云文件传输方法、应用方法、装置、设备及存储介质
CN112869969B (zh) * 2021-01-14 2023-01-17 安徽金百合医疗器械有限公司 一种用于电动轮椅的全方位通行策略生成系统和方法
CN112964263B (zh) * 2021-02-01 2022-11-01 杭州荷尖科技合伙企业(有限合伙) 自动建图方法、装置、移动机器人及可读存储介质
CN113074748B (zh) * 2021-03-29 2022-08-26 北京三快在线科技有限公司 一种无人驾驶设备的路径规划方法及装置
CN113189610B (zh) * 2021-04-28 2024-06-14 中国科学技术大学 地图增强的自动驾驶多目标追踪方法和相关设备
CN113192197B (zh) * 2021-05-24 2024-04-05 北京京东乾石科技有限公司 一种全局点云地图的构建方法、装置、设备及存储介质
CN113689496B (zh) * 2021-08-06 2023-07-18 西南科技大学 一种基于vr的核辐射环境场景构建与人机交互方法
CN114646936A (zh) * 2022-03-30 2022-06-21 北京洛必德科技有限公司 一种点云地图构建方法、装置以及电子设备
CN114758163B (zh) * 2022-06-15 2022-09-16 福勤智能科技(昆山)有限公司 一种叉车移动控制方法、装置、电子设备及存储介质
CN115423968B (zh) * 2022-07-21 2023-05-09 北京洛斯达科技发展有限公司 基于点云数据和实景三维模型的输电通道优化方法
CN116824068B (zh) * 2023-08-30 2024-01-09 深圳大学 面向复杂动态场景中点云流的实时重建方法、装置及设备
CN117148837B (zh) * 2023-08-31 2024-08-23 上海木蚁机器人科技有限公司 动态障碍物的确定方法、装置、设备和介质
CN117456130B (zh) * 2023-12-22 2024-03-01 山东街景智能制造科技股份有限公司 一种场景模型构建方法
CN117612070B (zh) * 2024-01-19 2024-05-03 福思(杭州)智能科技有限公司 静态真值数据的校正方法和装置、存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007069721A1 (ja) * 2005-12-16 2007-06-21 Ihi Corporation 三次元形状データの記憶・表示方法と装置および三次元形状の計測方法と装置
WO2008099915A1 (ja) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ
US20180003511A1 (en) * 2016-07-01 2018-01-04 Uber Technologies, Inc. Autonomous vehicle localization using submaps
WO2018060313A1 (en) * 2016-09-28 2018-04-05 Tomtom Global Content B.V. Methods and systems for generating and using localisation reference data
WO2018104563A2 (en) * 2016-12-09 2018-06-14 Tomtom Global Content B.V. Method and system for video-based positioning and mapping

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8668136B2 (en) * 2012-03-01 2014-03-11 Trimble Navigation Limited Method and system for RFID-assisted imaging
HUP1300328A3 (en) * 2013-05-23 2017-03-28 Mta Szamitastechnika Es Automatizalasi Ki Method and system for integrated three dimensional modelling
CN104573191A (zh) * 2014-12-18 2015-04-29 西安工业大学 一种战时损伤武器装备零件快速再制造造型方法
CN104658039B (zh) * 2015-02-12 2018-01-30 南京市测绘勘察研究院股份有限公司 一种城市数字地图三维建模制作方法
WO2016138567A1 (en) * 2015-03-05 2016-09-09 Commonwealth Scientific And Industrial Research Organisation Structure modelling
CN105260988B (zh) * 2015-09-09 2019-04-05 百度在线网络技术(北京)有限公司 一种高精地图数据的处理方法和装置
CN105702151B (zh) * 2016-03-31 2019-06-11 百度在线网络技术(北京)有限公司 一种室内地图构建方法及装置
CN106097444B (zh) * 2016-05-30 2017-04-12 百度在线网络技术(北京)有限公司 高精地图生成方法和装置
CN108345822B (zh) * 2017-01-22 2022-02-01 腾讯科技(深圳)有限公司 一种点云数据处理方法及装置
US10527711B2 (en) * 2017-07-10 2020-01-07 Aurora Flight Sciences Corporation Laser speckle system and method for an aircraft
US20190073827A1 (en) * 2017-09-06 2019-03-07 Josen Premium LLC Method and System for Converting 3-D Scan Displays with Optional Telemetrics, Temporal and Component Data into an Augmented or Virtual Reality BIM
CN108152831B (zh) * 2017-12-06 2020-02-07 中国农业大学 一种激光雷达障碍物识别方法及系统
CN108460791A (zh) * 2017-12-29 2018-08-28 百度在线网络技术(北京)有限公司 用于处理点云数据的方法和装置
CN108320329B (zh) * 2018-02-02 2020-10-09 维坤智能科技(上海)有限公司 一种基于3d激光的3d地图创建方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007069721A1 (ja) * 2005-12-16 2007-06-21 Ihi Corporation 三次元形状データの記憶・表示方法と装置および三次元形状の計測方法と装置
WO2008099915A1 (ja) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ
US20180003511A1 (en) * 2016-07-01 2018-01-04 Uber Technologies, Inc. Autonomous vehicle localization using submaps
WO2018060313A1 (en) * 2016-09-28 2018-04-05 Tomtom Global Content B.V. Methods and systems for generating and using localisation reference data
WO2018104563A2 (en) * 2016-12-09 2018-06-14 Tomtom Global Content B.V. Method and system for video-based positioning and mapping

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANDREA ROMANONI ET AL: ""Mesh-based 3D Textured Urban Mapping"", 2017 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS), JPN6020035713, 24 September 2017 (2017-09-24), US, pages 3460 - 3466, XP033266337, ISSN: 0004350243, DOI: 10.1109/IROS.2017.8206186 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022059051A1 (ja) * 2020-09-15 2022-03-24 日本電信電話株式会社 3d点群の座標を変換する装置、方法及びプログラム
JPWO2022244172A1 (ja) * 2021-05-20 2022-11-24
WO2022244172A1 (ja) * 2021-05-20 2022-11-24 三菱電機株式会社 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
JP7330420B2 (ja) 2021-05-20 2023-08-21 三菱電機株式会社 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
CN113837981A (zh) * 2021-11-23 2021-12-24 中国电子科技集团公司第二十八研究所 一种多端设备获取三维点云的自动化融合方法
CN113837981B (zh) * 2021-11-23 2022-03-08 中国电子科技集团公司第二十八研究所 一种多端设备获取三维点云的自动化融合方法

Also Published As

Publication number Publication date
US20200074729A1 (en) 2020-03-05
US11069133B2 (en) 2021-07-20
EP3617655B1 (en) 2022-01-12
EP3617655A2 (en) 2020-03-04
JP6866441B2 (ja) 2021-04-28
EP3617655A3 (en) 2020-07-29
CN109285220B (zh) 2022-11-15
CN109285220A (zh) 2019-01-29

Similar Documents

Publication Publication Date Title
JP2020035448A (ja) 3次元シーンマップの生成方法、生成装置、機器および記憶媒体
JP6918885B2 (ja) 相対的位置姿勢の標定方法、相対的位置姿勢の標定装置、機器及び媒体
CN109521403B (zh) 多线激光雷达的参数标定方法及装置、设备及可读介质
US11763474B2 (en) Method for generating simulated point cloud data, device, and storage medium
JP7112993B2 (ja) レーザレーダの内部パラメータ精度検証方法とその装置、機器及び媒体
US11087474B2 (en) Method, apparatus, device, and storage medium for calibrating posture of moving obstacle
JP2020042028A (ja) コレクターの相対パラメータのキャリブレーション方法、装置、機器及び媒体
CN109961522B (zh) 图像投射方法、装置、设备和存储介质
US20220108522A1 (en) Generating three-dimensional geo-registered maps from image data
JP7440005B2 (ja) 高精細地図の作成方法、装置、デバイス及びコンピュータプログラム
CN110686704A (zh) 激光雷达与组合惯导的位姿标定方法、系统及介质
CN109191554B (zh) 一种超分辨图像重建方法、装置、终端和存储介质
CN104157011A (zh) 一种三维地形建模方法
CN118314300B (zh) 工程测量精准定位与三维建模方法及系统
CN113496503A (zh) 点云数据的生成及实时显示方法、装置、设备及介质
JP2022080303A (ja) オプティカルフローを用いたライダー位置推定
CN113763438B (zh) 一种点云配准方法、装置、设备及存储介质
CN117910258A (zh) 一种基于地质灾害的输电线路数字孪生体建模方法及系统
CN117870716A (zh) 地图兴趣点的显示方法、装置、电子设备及存储介质
CN114820953B (zh) 一种数据处理方法、装置、设备以及存储介质
CN113433568A (zh) 一种激光雷达观测模拟方法及装置
US20210348938A1 (en) Sensor calibration for space translation
CN116642511A (zh) Ar导航图像渲染方法、装置、电子设备及存储介质
CN113776530B (zh) 一种点云地图构建方法、装置、电子设备和存储介质
CN116824068B (zh) 面向复杂动态场景中点云流的实时重建方法、装置及设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210407

R150 Certificate of patent or registration of utility model

Ref document number: 6866441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350