JP7086111B2 - 自動運転車のlidar測位に用いられるディープラーニングに基づく特徴抽出方法 - Google Patents
自動運転車のlidar測位に用いられるディープラーニングに基づく特徴抽出方法 Download PDFInfo
- Publication number
- JP7086111B2 JP7086111B2 JP2019567251A JP2019567251A JP7086111B2 JP 7086111 B2 JP7086111 B2 JP 7086111B2 JP 2019567251 A JP2019567251 A JP 2019567251A JP 2019567251 A JP2019567251 A JP 2019567251A JP 7086111 B2 JP7086111 B2 JP 7086111B2
- Authority
- JP
- Japan
- Prior art keywords
- points
- key
- feature descriptors
- point
- key points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title description 10
- 238000013135 deep learning Methods 0.000 title 1
- 238000013528 artificial neural network Methods 0.000 claims description 69
- 238000000034 method Methods 0.000 claims description 68
- 238000001514 detection method Methods 0.000 claims description 57
- 238000005259 measurement Methods 0.000 claims description 26
- 230000015654 memory Effects 0.000 claims description 26
- 239000013598 vector Substances 0.000 claims description 23
- 239000000284 extract Substances 0.000 claims description 16
- 230000009466 transformation Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 38
- 238000013527 convolutional neural network Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 28
- 238000004891 communication Methods 0.000 description 14
- 238000009499 grossing Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 230000002085 persistent effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000000306 recurrent effect Effects 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- 238000007405 data analysis Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 230000005291 magnetic effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009429 electrical wiring Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000002379 ultrasonic velocimetry Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Electromagnetism (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Automation & Control Theory (AREA)
- Geometry (AREA)
- Biodiversity & Conservation Biology (AREA)
- Computer Graphics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Description
図1は、本発明の一実施態様にかかる自動運転車両のネットワーク構成を示すブロック図である。図1を参照すると、ネットワーク構成100は、ネットワーク102を介して1つまたは複数のサーバ103~104に対して通信可能に接続する自動運転車両101を備える。1つの自動運転車両のみを示すが、複数の自動運転車両は、ネットワーク102を介して相互に接続し、および/またはサーバ103~104に接続可能である。ネットワーク102は、いずれのタイプのネットワークであってもよく、例えば、有線または無線のローカルエリアネットワーク(LAN)、インターネットのような広域ネットワーク(WAN)、セルラ網、衛星ネットワークまたはそれらの組み合せである。サーバ103~104は、いずれの形式のサーバまたはサーバークラスタであってもよく、例えば、Webサーバやクラウドサーバ、アプリケーションサーバ、バックエンドサーバまたはそれらの組み合せである。サーバ103~104は、データ解析サーバやコンテンツサーバ、交通情報サーバ、地図・関心点(MPOI)サーバまたは位置サーバなどであってもよい。
図4は、本発明の実施形態にかかる学習に基づくLIDAR測位システムを示す図である。図4に示すように、測位モジュール301は、ポイントクラウド特徴学習ネットワーク(例えば、PointNet)409を含むことができる。このポイントクラウド特徴学習ネットワーク409は、ADVの事前作成された3Dポイントクラウド地図406と、オンラインLIDARポイントクラウド404と、予測ポーズ407とを入力として採用し、複数の選択されたLIDARポイント(キーポイントとも呼ぶ)に基づいて、複数の特徴記述子をオンラインポイントクラウド404から抽出することができる。対応するキーポイントを見つけ、ポイントクラウド特徴学習ネットワーク409により同様に対応するLIDARポイントの特徴を抽出することができる。
図8は、実施形態にかかる光検出及び測距(LIDAR)測位においてニューラルネットワークを使用したソリューション推断システムを示す。
図11は、実施形態にかかるADVの測位結果において時間平滑化を行うシステムを示す。
Claims (23)
- 自動運転車の測位に用いられるポイントクラウド特徴を抽出するコンピュータ実施の方法であって、
前記自動運転車の光検出および測距装置により生成されたオンラインポイントクラウドから第1組のキーポイントを選択するステップと、
前記自動運転車で実行している特徴学習ニューラルネットワークを用いて前記第1組のキーポイントに対して第1組の特徴記述子を抽出するステップと、
事前作成されたポイントクラウド地図において、各キーポイントがそれぞれ前記第1組のキーポイントにおけるキーポイントに対応する第2組のポイントを特定するステップと、
前記事前作成されたポイントクラウド地図から第2組の特徴記述子を抽出するステップと、
前記第1組の特徴記述子と、前記第2組の特徴記述子と、前記自動運転車の予測ポーズとに基づいて前記自動運転車の位置及び向きを推定するステップと、
前記第1組の特徴記述子と前記第2組の特徴記述子からコストボリュームを作成するステップと、を含み、
前記コストボリュームにおけるそれぞれのサブボリュームは、前記第1組のキーポイントのうちの1つのキーポイントと、前記第2組のキーポイントにおける所定のオフセットを有する対応するキーポイントとのマッチングコストを表す
ことを特徴とするコンピュータ実施の方法。 - 自動運転車の測位に用いられるポイントクラウド特徴を抽出するコンピュータ実施の方法であって、
前記自動運転車の光検出および測距装置により生成されたオンラインポイントクラウドから第1組のキーポイントを選択するステップと、
前記自動運転車で実行している特徴学習ニューラルネットワークを用いて前記第1組のキーポイントに対して第1組の特徴記述子を抽出するステップと、
事前作成されたポイントクラウド地図において、各キーポイントがそれぞれ前記第1組のキーポイントにおけるキーポイントに対応する第2組のポイントを特定するステップと、
前記事前作成されたポイントクラウド地図から第2組の特徴記述子を抽出するステップと、
前記第1組の特徴記述子と、前記第2組の特徴記述子と、前記自動運転車の予測ポーズとに基づいて前記自動運転車の位置及び向きを推定するステップと、
を含むことを特徴とするコンピュータ実施の方法であって、
前記特徴学習ニューラルネットワークは、複数のミニチュアニューラルネットワークを含み、それぞれのミニチュアニューラルネットワークは、前記第1組のキーポイントのうちの1つのキーポイントに対して提供され、
それぞれのミニチュアニューラルネットワークは、
当該キーポイントのz軸に沿って柱体を用いることによって、所定の数の隣接光検出および測距ポイントを収集し、それぞれの隣接光検出および測距ポイントは、反射強度及び当該キーポイントに対する相対座標を有し、
前記関連する隣接光検出および測距ポイントの相対座標及び反射強度に基づき、当該キーポイントの特徴記述子を抽出する、
ことを特徴とするコンピュータ実施の方法。 - 自動運転車の測位に用いられるポイントクラウド特徴を抽出するコンピュータ実施の方法であって、
前記自動運転車の光検出および測距装置により生成されたオンラインポイントクラウドから第1組のキーポイントを選択するステップと、
前記自動運転車で実行している特徴学習ニューラルネットワークを用いて前記第1組のキーポイントに対して第1組の特徴記述子を抽出するステップと、
事前作成されたポイントクラウド地図において、各キーポイントがそれぞれ前記第1組のキーポイントにおけるキーポイントに対応する第2組のポイントを特定するステップと、
前記事前作成されたポイントクラウド地図から第2組の特徴記述子を抽出するステップと、
前記第1組の特徴記述子と、前記第2組の特徴記述子と、前記自動運転車の予測ポーズとに基づいて前記自動運転車の位置及び向きを推定するステップと、
を含むことを特徴とするコンピュータ実施の方法であって、
前記特徴学習ニューラルネットワークは、複数のミニチュアニューラルネットワークを含み、それぞれのミニチュアニューラルネットワークは、前記第2組のキーポイントのうちの1つのキーポイントに対して提供され、
それぞれのミニチュアニューラルネットワークは、
当該キーポイントのz軸に沿って柱体を用いることによって、所定の数の隣接光検出および測距ポイントを収集し、それぞれの隣接光検出および測距ポイントは、反射強度及び当該キーポイントに対する相対座標を有し、
前記関連する隣接光検出および測距ポイントの相対座標及び反射強度に基づき、当該キーポイントの特徴記述子を抽出する、
ことを特徴とするコンピュータ実施の方法。 - 前記第2組のキーポイントにおけるキーポイントに対して前記所定の数の隣接光検出および測距ポイントが見つかっていない場合、完全接続ネットワークを用いて当該キーポイントの特徴記述子を抽出することを特徴とする請求項3に記載の方法。
- 自動運転車の測位に用いられるポイントクラウド特徴を抽出するコンピュータ実施の方法であって、
前記自動運転車の光検出および測距装置により生成されたオンラインポイントクラウドから第1組のキーポイントを選択するステップと、
前記自動運転車で実行している特徴学習ニューラルネットワークを用いて前記第1組のキーポイントに対して第1組の特徴記述子を抽出するステップと、
事前作成されたポイントクラウド地図において、各キーポイントがそれぞれ前記第1組のキーポイントにおけるキーポイントに対応する第2組のポイントを特定するステップと、
前記事前作成されたポイントクラウド地図から第2組の特徴記述子を抽出するステップと、
前記第1組の特徴記述子と、前記第2組の特徴記述子と、前記自動運転車の予測ポーズとに基づいて前記自動運転車の位置及び向きを推定するステップと、
を含むことを特徴とするコンピュータ実施の方法であって、
2×2回転行列及び2D並進ベクトルにより示される変換を用いることによって、前記事前作成されたポイントクラウド地図における前記第2組のキーポイントのそれぞれの座標を算出する
ことを特徴とするコンピュータ実施の方法。 - 前記コストボリュームを最小化する最適なオフセットを取って、前記自動運転車の最適なポーズを決定するように、前記コストボリュームを減少させるとともに、複数の異なるタイプのニューラルネットワークに用いるために前記コストボリュームを正則化することを特徴とする請求項1に記載の方法。
- 前記第1組のキーポイント及び前記第2組のキーポイントのそれぞれは、光検出および測距ポイントであり、前記第1組のキーポイントと前記第2組のキーポイントは、一定の数のキーポイントを有することを特徴とする請求項1~5のいずれか1項に記載の方法。
- 前記第1組のキーポイントを選択するステップは、
前記自動運転車の予測ポーズを囲む所定の領域中の光検出および測距ポイントをトラバースすることによって、複数の候補光検出および測距ポイントを特定するステップであって、それぞれの候補光検出および測距ポイントについて、当該候補光検出および測距ポイントの隣接領域において所定の密度で光検出および測距ポイントを有するステップと、
3D構造テンソルを用いてそれぞれの前記候補光検出および測距ポイントの線形性を評価し、前記評価により、それぞれの候補光検出および測距ポイントの線形性に対して値を割り当てるステップと、
前記複数の候補光検出および測距ポイントの割り当てられた値に基づいて前記複数の候補光検出および測距ポイントをソートするステップと、
ソートされた候補光検出および測距ポイントに基づいて前記一定の数の候補光検出および測距ポイントを選択するステップと、
を更に含むことを特徴とする請求項7に記載の方法。 - 前記一定の数の候補光検出および測距ポイントはそれぞれ、新たに選択される際、選択された1つ又は複数の既存の光検出および測距ポイントと所定の距離を空けることを特徴とする請求項8に記載の方法。
- 指令を記憶している非一時性機器可読メディアであって、
前記指令は、プロセッサによって実行されると、
前記自動運転車の光検出および測距装置により生成されたオンラインポイントクラウドから第1組のキーポイントを選択するステップと、
前記自動運転車で実行している特徴学習ニューラルネットワークを用いて前記第1組のキーポイントに対して第1組の特徴記述子を抽出するステップと、
事前作成されたポイントクラウド地図において、各キーポイントがそれぞれ前記第1組のキーポイントにおけるキーポイントに対応する第2組のポイントを特定するステップと、
前記事前作成されたポイントクラウド地図から第2組の特徴記述子を抽出するステップと、
前記第1組の特徴記述子と、前記第2組の特徴記述子と、前記自動運転車の予測ポーズとに基づいて前記自動運転車の位置及び向きを推定するステップと、
前記第1組の特徴記述子と前記第2組の特徴記述子からコストボリュームを作成するステップと、
を含む操作を前記プロセッサに実行させ、
前記コストボリュームの中のそれぞれのサブボリュームは、前記第1組のキーポイントにおける一つのキーポイントと、前記第2組のキーポイントにおける所定オフセットを有する相応のキーポイントとの間のマッチングコストを表す
ことを特徴とする、非一時性機器可読メディア。 - 指令を記憶している非一時性機器可読メディアであって、
前記指令は、プロセッサによって実行されると、
前記自動運転車の光検出および測距装置により生成されたオンラインポイントクラウドから第1組のキーポイントを選択するステップと、
前記自動運転車で実行している特徴学習ニューラルネットワークを用いて前記第1組のキーポイントに対して第1組の特徴記述子を抽出するステップと、
事前作成されたポイントクラウド地図において、各キーポイントがそれぞれ前記第1組のキーポイントにおけるキーポイントに対応する第2組のポイントを特定するステップと、
前記事前作成されたポイントクラウド地図から第2組の特徴記述子を抽出するステップと、
前記第1組の特徴記述子と、前記第2組の特徴記述子と、前記自動運転車の予測ポーズとに基づいて前記自動運転車の位置及び向きを推定するステップと、
を含む操作を前記プロセッサに実行させ、
前記特徴学習ニューラルネットワークは、複数のミニチュアニューラルネットワークを含み、それぞれのミニチュアニューラルネットワークは、前記第1組のキーポイントのうちの1つのキーポイントに対して提供され、
それぞれのミニチュアニューラルネットワークは、
当該キーポイントのz軸に沿って柱体を用いることによって、所定の数の隣接光検出および測距ポイントを収集し、それぞれの隣接光検出および測距ポイントは、反射強度及び当該キーポイントに対する相対座標を有し、
前記関連する隣接光検出および測距ポイントの相対座標及び反射強度に基づき、当該キーポイントの特徴記述子を抽出する、
ことを特徴とする非一時性機器可読メディア。 - 指令を記憶している非一時性機器可読メディアであって、
前記指令は、プロセッサによって実行されると、
前記自動運転車の光検出および測距装置により生成されたオンラインポイントクラウドから第1組のキーポイントを選択するステップと、
前記自動運転車で実行している特徴学習ニューラルネットワークを用いて前記第1組のキーポイントに対して第1組の特徴記述子を抽出するステップと、
事前作成されたポイントクラウド地図において、各キーポイントがそれぞれ前記第1組のキーポイントにおけるキーポイントに対応する第2組のポイントを特定するステップと、
前記事前作成されたポイントクラウド地図から第2組の特徴記述子を抽出するステップと、
前記第1組の特徴記述子と、前記第2組の特徴記述子と、前記自動運転車の予測ポーズとに基づいて前記自動運転車の位置及び向きを推定するステップと、
を含む操作を前記プロセッサに実行させ、
前記特徴学習ニューラルネットワークは、複数のミニチュアニューラルネットワークを含み、それぞれのミニチュアニューラルネットワークは、前記第2組のキーポイントのうちの1つのキーポイントに対して提供され、
それぞれのミニチュアニューラルネットワークは、
当該キーポイントのz軸に沿って柱体を用いることによって、所定の数の隣接光検出および測距ポイントを収集し、それぞれの隣接光検出および測距ポイントは、反射強度及び当該キーポイントに対する相対座標を有し、
前記関連する隣接光検出および測距ポイントの相対座標及び反射強度に基づき、当該キーポイントの特徴記述子を抽出する、
ことを特徴とする非一時性機器可読メディア。 - 前記第2組のキーポイントにおけるキーポイントに対して前記所定の数の隣接光検出および測距ポイントが見つかっていない場合、完全接続ネットワークを用いて当該キーポイントの特徴記述子を抽出することを特徴とする請求項12に記載の非一時性機器可読メディア。
- 指令を記憶している非一時性機器可読メディアであって、
前記指令は、プロセッサによって実行されると、
前記自動運転車の光検出および測距装置により生成されたオンラインポイントクラウドから第1組のキーポイントを選択するステップと、
前記自動運転車で実行している特徴学習ニューラルネットワークを用いて前記第1組のキーポイントに対して第1組の特徴記述子を抽出するステップと、
事前作成されたポイントクラウド地図において、各キーポイントがそれぞれ前記第1組のキーポイントにおけるキーポイントに対応する第2組のポイントを特定するステップと、
前記事前作成されたポイントクラウド地図から第2組の特徴記述子を抽出するステップと、
前記第1組の特徴記述子と、前記第2組の特徴記述子と、前記自動運転車の予測ポーズとに基づいて前記自動運転車の位置及び向きを推定するステップと、
を含む操作を前記プロセッサに実行させ、
2×2回転行列及び2D並進ベクトルにより示される変換を用いることによって、前記事前作成されたポイントクラウド地図における前記第2組のキーポイントのそれぞれの座標を算出する
ことを特徴とする非一時性機器可読メディア。 - 前記コストボリュームを最小化する最適なオフセットを取って、前記自動運転車の最適なポーズを決定するように、前記コストボリュームを減少させるとともに、複数の異なるタイプのニューラルネットワークに用いるために前記コストボリュームを正則化することを特徴とする請求項10に記載の非一時性機器可読メディア。
- 前前記第1組のキーポイント及び前記第2組のキーポイントのそれぞれは、光検出および測距ポイントであり、前記第1組のキーポイントと前記第2組のキーポイントは、一定の数のキーポイントを有することを特徴とする請求項10~14のいずれか1項に記載の非一時性機器可読メディア。
- 前記第1組のキーポイントを選択するステップは、
前記自動運転車の予測ポーズを囲む所定の領域中の光検出および測距ポイントをトラバースすることによって、複数の候補光検出および測距ポイントを特定するステップであって、それぞれの候補光検出および測距ポイントについて、当該候補光検出および測距ポイントの隣接領域において所定の密度で光検出および測距ポイントを有するステップと、
3D構造テンソルを用いてそれぞれの前記候補光検出および測距ポイントの線形性を評価し、前記評価により、それぞれの候補光検出および測距ポイントの線形性に対して値を割り当てるステップと、
前記複数の候補光検出および測距ポイントの割り当てられた値に基づいて前記複数の候補光検出および測距ポイントをソートするステップと、
ソートされた候補光検出および測距ポイントに基づいて前記一定の数の候補光検出および測距ポイントを選択するステップと、
を更に含むことを特徴とする請求項16に記載の非一時性機器可読メディア。 - 前記一定の数の候補光検出および測距ポイントはそれぞれ、新たに選択される際、選択された1つ又は複数の既存の光検出および測距ポイントと所定の距離を空けることを特徴とする請求項17に記載の非一時性機器可読メディア。
- 自動運転車の測位に用いられるポイントクラウド特徴を抽出するためのシステムであって、
プロセッサと、
前記プロセッサに接続され、命令を記憶するメモリと、を含み、
前記指令は、前記プロセッサによって実行されると、前記自動運転車の光検出および測距装置により生成されたオンラインポイントクラウドから第1組のキーポイントを選択するステップと、
前記自動運転車で実行している特徴学習ニューラルネットワークを用いて前記第1組のキーポイントに対して第1組の特徴記述子を抽出するステップと、
事前作成されたポイントクラウド地図において、各キーポイントがそれぞれ前記第1組のキーポイントにおけるキーポイントに対応する第2組のポイントを特定するステップと、
前記事前作成されたポイントクラウド地図から第2組の特徴記述子を抽出するステップと、
前記第1組の特徴記述子と、前記第2組の特徴記述子と、前記自動運転車の予測ポーズとに基づいて前記自動運転車の位置及び向きを推定するステップと、
前記第1組の特徴記述子と前記第2組の特徴記述子からコストボリュームを作成するステップと、
を含む操作を前記プロセッサに実行させ、
前記コストボリュームの中のそれぞれのサブボリュームは、前記第1組のキーポイントにおける一つのキーポイントと、前記第2組のキーポイントにおける所定オフセットを有する相応のキーポイントとの間のマッチングコストを表す
ことを特徴とする、システム。 - 自動運転車の測位に用いられるポイントクラウド特徴を抽出するためのシステムであって、
プロセッサと、
前記プロセッサに接続され、命令を記憶するメモリと、を含み、
前記指令は、前記プロセッサによって実行されると、前記自動運転車の光検出および測距装置により生成されたオンラインポイントクラウドから第1組のキーポイントを選択するステップと、
前記自動運転車で実行している特徴学習ニューラルネットワークを用いて前記第1組のキーポイントに対して第1組の特徴記述子を抽出するステップと、
事前作成されたポイントクラウド地図において、各キーポイントがそれぞれ前記第1組のキーポイントにおけるキーポイントに対応する第2組のポイントを特定するステップと、
前記事前作成されたポイントクラウド地図から第2組の特徴記述子を抽出するステップと、
前記第1組の特徴記述子と、前記第2組の特徴記述子と、前記自動運転車の予測ポーズとに基づいて前記自動運転車の位置及び向きを推定するステップと、
前記第1組の特徴記述子と前記第2組の特徴記述子からコストボリュームを作成するステップと、
を含む操作を前記プロセッサに実行させ、
前記特徴学習ニューラルネットワークは、複数のミニチュアニューラルネットワークを含み、それぞれのミニチュアニューラルネットワークは、前記第1組のキーポイントのうちの1つのキーポイントに対して提供され、
それぞれのミニチュアニューラルネットワークは、
当該キーポイントのz軸に沿って柱体を用いることによって、所定の数の隣接光検出および測距ポイントを収集し、それぞれの隣接光検出および測距ポイントは、反射強度及び当該キーポイントに対する相対座標を有し、
前記関連する隣接光検出および測距ポイントの相対座標及び反射強度に基づき、当該キーポイントの特徴記述子を抽出する、
ことを特徴とする、システム。 - 自動運転車の測位に用いられるポイントクラウド特徴を抽出するためのシステムであって、
プロセッサと、
前記プロセッサに接続され、命令を記憶するメモリと、を含み、
前記指令は、前記プロセッサによって実行されると、前記自動運転車の光検出および測距装置により生成されたオンラインポイントクラウドから第1組のキーポイントを選択するステップと、
前記自動運転車で実行している特徴学習ニューラルネットワークを用いて前記第1組のキーポイントに対して第1組の特徴記述子を抽出するステップと、
事前作成されたポイントクラウド地図において、各キーポイントがそれぞれ前記第1組のキーポイントにおけるキーポイントに対応する第2組のポイントを特定するステップと、
前記事前作成されたポイントクラウド地図から第2組の特徴記述子を抽出するステップと、
前記第1組の特徴記述子と、前記第2組の特徴記述子と、前記自動運転車の予測ポーズとに基づいて前記自動運転車の位置及び向きを推定するステップと、
前記第1組の特徴記述子と前記第2組の特徴記述子からコストボリュームを作成するステップと、
を含む操作を前記プロセッサに実行させ、
前記特徴学習ニューラルネットワークは、複数のミニチュアニューラルネットワークを含み、それぞれのミニチュアニューラルネットワークは、前記第2組のキーポイントのうちの1つのキーポイントに対して提供され、
それぞれのミニチュアニューラルネットワークは、
当該キーポイントのz軸に沿って柱体を用いることによって、所定の数の隣接光検出および測距ポイントを収集し、それぞれの隣接光検出および測距ポイントは、反射強度及び当該キーポイントに対する相対座標を有し、
前記関連する隣接光検出および測距ポイントの相対座標及び反射強度に基づき、当該キーポイントの特徴記述子を抽出する、
ことを特徴とする、システム。 - 自動運転車の測位に用いられるポイントクラウド特徴を抽出するためのシステムであって、
プロセッサと、
前記プロセッサに接続され、命令を記憶するメモリと、を含み、
前記指令は、前記プロセッサによって実行されると、前記自動運転車の光検出および測距装置により生成されたオンラインポイントクラウドから第1組のキーポイントを選択するステップと、
前記自動運転車で実行している特徴学習ニューラルネットワークを用いて前記第1組のキーポイントに対して第1組の特徴記述子を抽出するステップと、
事前作成されたポイントクラウド地図において、各キーポイントがそれぞれ前記第1組のキーポイントにおけるキーポイントに対応する第2組のポイントを特定するステップと、
前記事前作成されたポイントクラウド地図から第2組の特徴記述子を抽出するステップと、
前記第1組の特徴記述子と、前記第2組の特徴記述子と、前記自動運転車の予測ポーズとに基づいて前記自動運転車の位置及び向きを推定するステップと、
前記第1組の特徴記述子と前記第2組の特徴記述子からコストボリュームを作成するステップと、
を含む操作を前記プロセッサに実行させ、
2×2回転行列及び2D並進ベクトルにより示される変換を用いることによって、前記事前作成されたポイントクラウド地図における前記第2組のキーポイントのそれぞれの座標を算出する、
ことを特徴とする、システム。 - コンピュータプログラムであって、
前記コンピュータプログラムは、プロセッサにより実行されると、請求項1~9のいずれか1項に記載の方法を実行させるコンピュータプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2019/073975 WO2020154970A1 (en) | 2019-01-30 | 2019-01-30 | Deep learning–based feature extraction for lidar localization of autonomous driving vehicles |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021514885A JP2021514885A (ja) | 2021-06-17 |
JP7086111B2 true JP7086111B2 (ja) | 2022-06-17 |
Family
ID=71840755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019567251A Active JP7086111B2 (ja) | 2019-01-30 | 2019-01-30 | 自動運転車のlidar測位に用いられるディープラーニングに基づく特徴抽出方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11594011B2 (ja) |
EP (1) | EP3749976A4 (ja) |
JP (1) | JP7086111B2 (ja) |
KR (1) | KR102335389B1 (ja) |
CN (1) | CN111971574B (ja) |
WO (1) | WO2020154970A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11204605B1 (en) * | 2018-08-03 | 2021-12-21 | GM Global Technology Operations LLC | Autonomous vehicle controlled based upon a LIDAR data segmentation system |
WO2020224761A1 (en) * | 2019-05-06 | 2020-11-12 | Zenuity Ab | Automated map making and positioning |
WO2021035471A1 (en) * | 2019-08-26 | 2021-03-04 | Beijing Voyager Technology Co., Ltd. | Systems and methods for positioning a target subject |
CN112444785B (zh) * | 2019-08-30 | 2024-04-12 | 华为技术有限公司 | 一种目标行为识别的方法、装置和雷达系统 |
US11694452B1 (en) * | 2019-10-07 | 2023-07-04 | Deshazo, LLC | Crane-mounted system for automated object detection and identification |
US11820397B2 (en) * | 2019-11-16 | 2023-11-21 | Uatc, Llc | Localization with diverse dataset for autonomous vehicles |
US11423305B2 (en) * | 2020-02-26 | 2022-08-23 | Deere & Company | Network-based work machine software optimization |
US11680818B2 (en) * | 2020-08-06 | 2023-06-20 | Automotive Research & Testing Center | System and method for updating and sharing crossroad dynamic map data |
CN112200765B (zh) * | 2020-09-04 | 2024-05-14 | 浙江大华技术股份有限公司 | 车辆中被误检的关键点的确定方法及装置 |
CN112288709B (zh) * | 2020-10-28 | 2022-04-29 | 武汉大学 | 一种基于点云的三维目标检测方法 |
WO2022187251A1 (en) * | 2021-03-01 | 2022-09-09 | Waymo Llc | Generating scene flow labels from point clouds using object labels |
US11403817B1 (en) | 2021-04-14 | 2022-08-02 | Lineage Logistics, LLC | Point cloud filtering |
CN113340296B (zh) * | 2021-06-21 | 2024-04-09 | 上海仙工智能科技有限公司 | 一种自动更新移动机器人地图的方法及装置 |
CN113763475A (zh) * | 2021-09-24 | 2021-12-07 | 北京百度网讯科技有限公司 | 定位方法、装置、设备、系统、介质和自动驾驶车辆 |
CN114004934B (zh) * | 2021-11-02 | 2024-07-26 | 国网浙江省电力有限公司湖州供电公司 | 一种基于分组分批归一化的输电线路点云分类方法 |
CN114155415B (zh) * | 2021-12-07 | 2024-05-03 | 华东交通大学 | 一种多数据融合的车辆检测方法、系统、设备及存储介质 |
DE102022203267A1 (de) | 2022-04-01 | 2023-10-05 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zur Lokalisierung eines Fahrzeugs mittels entfernungsbasierter Sensordaten des Fahrzeugs |
CN115526936B (zh) * | 2022-11-29 | 2023-04-28 | 长沙智能驾驶研究院有限公司 | 定位模型的训练方法和点云数据定位方法及装置 |
TWI832686B (zh) * | 2023-01-23 | 2024-02-11 | 國立陽明交通大學 | 路徑規劃系統及其路徑規劃方法 |
CN117437404B (zh) * | 2023-10-26 | 2024-07-19 | 合肥工业大学 | 一种基于虚拟点云的多模态目标检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150254857A1 (en) | 2014-03-10 | 2015-09-10 | Sony Corporation | Image processing system with registration mechanism and method of operation thereof |
US20150331111A1 (en) | 2012-04-02 | 2015-11-19 | The Chancellor Masters And Scholars Of The University Of Oxford | Method For Localizing A Vehicle Equipped With Two Lidar Systems |
WO2018104563A2 (en) | 2016-12-09 | 2018-06-14 | Tomtom Global Content B.V. | Method and system for video-based positioning and mapping |
CN108345831A (zh) | 2017-12-28 | 2018-07-31 | 新智数字科技有限公司 | 基于点云数据的道路图像分割的方法、装置以及电子设备 |
WO2018142395A1 (en) | 2017-01-31 | 2018-08-09 | Arbe Robotics Ltd | A radar-based system and method for real-time simultaneous localization and mapping |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2537681B (en) * | 2015-04-24 | 2018-04-25 | Univ Oxford Innovation Ltd | A method of detecting objects within a 3D environment |
US9710714B2 (en) * | 2015-08-03 | 2017-07-18 | Nokia Technologies Oy | Fusion of RGB images and LiDAR data for lane classification |
CN105678689B (zh) * | 2015-12-31 | 2020-01-31 | 百度在线网络技术(北京)有限公司 | 高精地图数据配准关系确定方法及装置 |
CN106296693B (zh) * | 2016-08-12 | 2019-01-08 | 浙江工业大学 | 基于3d点云fpfh特征实时三维空间定位方法 |
US10343685B2 (en) * | 2016-09-28 | 2019-07-09 | Baidu Usa Llc | Physical model and machine learning combined method to simulate autonomous vehicle movement |
US10442435B2 (en) * | 2016-12-14 | 2019-10-15 | Baidu Usa Llc | Speed control parameter estimation method for autonomous driving vehicles |
US10268200B2 (en) * | 2016-12-21 | 2019-04-23 | Baidu Usa Llc | Method and system to predict one or more trajectories of a vehicle based on context surrounding the vehicle |
US10837773B2 (en) * | 2016-12-30 | 2020-11-17 | DeepMap Inc. | Detection of vertical structures based on LiDAR scanner data for high-definition maps for autonomous vehicles |
US10436595B2 (en) * | 2017-02-02 | 2019-10-08 | Baidu Usa Llc | Method and system for updating localization maps of autonomous driving vehicles |
CN108732584B (zh) * | 2017-04-17 | 2020-06-30 | 百度在线网络技术(北京)有限公司 | 用于更新地图的方法和装置 |
CN108732582B (zh) * | 2017-04-20 | 2020-07-10 | 百度在线网络技术(北京)有限公司 | 车辆定位方法和装置 |
US10347001B2 (en) * | 2017-04-28 | 2019-07-09 | 8th Wall Inc. | Localizing and mapping platform |
KR102399130B1 (ko) * | 2017-06-28 | 2022-05-18 | 현대모비스 주식회사 | 차량의 주행 환경 인식 장치, 방법 및 시스템 |
EP3710981A4 (en) * | 2017-11-14 | 2020-12-23 | Magic Leap, Inc. | DETECTION AND DESCRIPTION OF FULLY CONVOLUTIVE POINT OF INTEREST BY HOMOGRAPHIC ADAPTATION |
CN107909612B (zh) * | 2017-12-01 | 2021-01-29 | 驭势科技(北京)有限公司 | 一种基于3d点云的视觉即时定位与建图的方法与系统 |
US10586350B2 (en) * | 2017-12-03 | 2020-03-10 | Facebook, Inc. | Optimizations for dynamic object instance detection, segmentation, and structure mapping |
CN108226938B (zh) * | 2017-12-08 | 2021-09-21 | 华南理工大学 | 一种agv小车的定位系统和方法 |
US10937189B2 (en) * | 2018-01-18 | 2021-03-02 | Samsung Electronics Co., Ltd. | Pose estimation method, method of displaying virtual object using estimated pose, and apparatuses performing the same |
CN108320329B (zh) * | 2018-02-02 | 2020-10-09 | 维坤智能科技(上海)有限公司 | 一种基于3d激光的3d地图创建方法 |
CN108415032B (zh) * | 2018-03-05 | 2021-06-25 | 中山大学 | 一种基于深度学习与激光雷达的点云语义地图构建方法 |
CN108868268B (zh) * | 2018-06-05 | 2020-08-18 | 西安交通大学 | 基于点到面距离和互相关熵配准的无人车位姿估计方法 |
CN109099901B (zh) * | 2018-06-26 | 2021-09-24 | 中科微易(苏州)智能科技有限公司 | 基于多源数据融合的全自动压路机定位方法 |
CN109166140B (zh) * | 2018-07-27 | 2021-10-01 | 长安大学 | 一种基于多线激光雷达的车辆运动轨迹估计方法及系统 |
US11022693B1 (en) * | 2018-08-03 | 2021-06-01 | GM Global Technology Operations LLC | Autonomous vehicle controlled based upon a lidar data segmentation system |
US11079492B1 (en) * | 2018-09-28 | 2021-08-03 | Zoox, Inc. | Condition dependent parameters for large-scale localization and/or mapping |
US10915793B2 (en) * | 2018-11-08 | 2021-02-09 | Huawei Technologies Co., Ltd. | Method and system for converting point cloud data for use with 2D convolutional neural networks |
US11494937B2 (en) * | 2018-11-16 | 2022-11-08 | Uatc, Llc | Multi-task multi-sensor fusion for three-dimensional object detection |
CN111238494B (zh) * | 2018-11-29 | 2022-07-19 | 财团法人工业技术研究院 | 载具、载具定位系统及载具定位方法 |
US11677930B2 (en) * | 2018-12-20 | 2023-06-13 | Here Global B.V. | Method, apparatus, and system for aligning a vehicle-mounted device |
-
2019
- 2019-01-30 KR KR1020197036974A patent/KR102335389B1/ko active IP Right Grant
- 2019-01-30 WO PCT/CN2019/073975 patent/WO2020154970A1/en unknown
- 2019-01-30 JP JP2019567251A patent/JP7086111B2/ja active Active
- 2019-01-30 EP EP19794863.1A patent/EP3749976A4/en not_active Withdrawn
- 2019-01-30 CN CN201980002109.XA patent/CN111971574B/zh active Active
- 2019-01-30 US US16/337,387 patent/US11594011B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150331111A1 (en) | 2012-04-02 | 2015-11-19 | The Chancellor Masters And Scholars Of The University Of Oxford | Method For Localizing A Vehicle Equipped With Two Lidar Systems |
US20150254857A1 (en) | 2014-03-10 | 2015-09-10 | Sony Corporation | Image processing system with registration mechanism and method of operation thereof |
WO2018104563A2 (en) | 2016-12-09 | 2018-06-14 | Tomtom Global Content B.V. | Method and system for video-based positioning and mapping |
WO2018142395A1 (en) | 2017-01-31 | 2018-08-09 | Arbe Robotics Ltd | A radar-based system and method for real-time simultaneous localization and mapping |
CN108345831A (zh) | 2017-12-28 | 2018-07-31 | 新智数字科技有限公司 | 基于点云数据的道路图像分割的方法、装置以及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
KR20200096410A (ko) | 2020-08-12 |
WO2020154970A1 (en) | 2020-08-06 |
KR102335389B1 (ko) | 2021-12-03 |
EP3749976A4 (en) | 2021-08-18 |
JP2021514885A (ja) | 2021-06-17 |
CN111971574A (zh) | 2020-11-20 |
CN111971574B (zh) | 2022-07-22 |
EP3749976A1 (en) | 2020-12-16 |
US11594011B2 (en) | 2023-02-28 |
US20210365712A1 (en) | 2021-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7086111B2 (ja) | 自動運転車のlidar測位に用いられるディープラーニングに基づく特徴抽出方法 | |
JP7060625B2 (ja) | 自動運転車において3dcnnネットワークを用いてソリューション推断を行うlidar測位 | |
JP7256758B2 (ja) | 自動運転車両においてrnnとlstmを用いて時間平滑化を行うlidar測位 | |
JP6738932B2 (ja) | シミュレーションプラットフォームに配置された、機械学習モデルを訓練するためのシステム及び方法 | |
JP7086911B2 (ja) | 自動運転車両のためのリアルタイム意思決定 | |
JP6754856B2 (ja) | 自動運転車両のためのセンサー集約フレームワーク | |
JP6967051B2 (ja) | 自動運転車両のための人間の運転行動を模倣する2段階基準線平滑化方法 | |
JP6644742B2 (ja) | 頑健で効率的な車両測位用のアルゴリズム及びインフラ | |
EP3959576A1 (en) | Methods and systems for trajectory forecasting with recurrent neural networks using inertial behavioral rollout | |
CN110345955A (zh) | 用于自动驾驶的感知与规划协作框架 | |
JP2021515282A (ja) | 自動運転車のためのリアルタイム地図生成システム | |
JP2021514886A (ja) | 自動運転車のためのポイントクラウド登録システム | |
JP2021515254A (ja) | 自動運転車のためのリアルタイム地図生成システム | |
JP2021516355A (ja) | 自動運転車のための地図区画システム | |
JP2021516183A (ja) | 自動運転車のためのポイントクラウドゴースト効果検出システム | |
CN110239562A (zh) | 自动驾驶车辆的基于周围车辆行为的实时感知调整与驾驶调适 | |
JP2020001678A (ja) | 重み付け幾何学的コストを有する区分的螺旋曲線を使用した基準線平滑化方法 | |
JP2020083308A (ja) | オブジェクト挙動のリアルタイム予測 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200604 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200604 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210727 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220607 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7086111 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |