JP2021101365A - 測位方法、測位装置及び電子機器 - Google Patents
測位方法、測位装置及び電子機器 Download PDFInfo
- Publication number
- JP2021101365A JP2021101365A JP2021048139A JP2021048139A JP2021101365A JP 2021101365 A JP2021101365 A JP 2021101365A JP 2021048139 A JP2021048139 A JP 2021048139A JP 2021048139 A JP2021048139 A JP 2021048139A JP 2021101365 A JP2021101365 A JP 2021101365A
- Authority
- JP
- Japan
- Prior art keywords
- point
- feature vector
- target
- point cloud
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/46—Indirect determination of position data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
Description
第1時刻でターゲット対象物が存在する領域の画像と、複数の時刻で前記ターゲット対象物が存在する領域のマルチフレームの点群データとを取得することと、
ここで、前記マルチフレームの点群データは、前記第1時刻で前記ターゲット対象物が存在する領域の第1点群データを含み、
前記マルチフレームの点群データに基づいて、点群地図を決定することと、
前記第1点群データ、前記点群地図及び前記画像に基づいて、ターゲット特徴ベクトルを取得することと、
前記ターゲット特徴ベクトルに基づいて、前記ターゲット対象物の測位結果を決定することと、
を含む。
第1時刻でターゲット対象物が存在する領域の画像と、複数の時刻で前記ターゲット対象物が存在する領域のマルチフレームの点群データとを取得するための第1の取得モジュールと、
ここで、前記マルチフレームの点群データは、前記第1時刻で前記ターゲット対象物が存在する領域の第1点群データを含み、
前記マルチフレームの点群データに基づいて、点群地図を決定するための決定モジュールと、
前記第1点群データ、前記点群地図及び前記画像に基づいて、ターゲット特徴ベクトルを取得するための第2の取得モジュールと、
前記ターゲット特徴ベクトルに基づいて、前記ターゲット対象物の測位結果を決定するための測位モジュールと、
を含む。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサに実行可能な命令が記憶され、
前記命令が前記少なくとも1つのプロセッサによって実行されると、第1の態様に記載の方法を前記少なくとも1つのプロセッサに実行させる。
コンピュータに第1の態様に記載の方法を実行させるコンピュータ命令が記憶されている。
コンピュータプログラムを含み、
前記コンピュータプログラムがプロセッサによって実行されると、第1の態様に記載の方法が実現される。
ここで、上記マルチフレームの点群データは、上記第1時刻で上記ターゲット対象物が存在する領域の第1点群データを含む。
上記第1点群データに基づいて、主要点(キーポイント)を決定することと、
上記ターゲット対象物の姿勢を予測して、少なくとも1つの姿勢を取得することと、
上記少なくとも1つの姿勢のそれぞれに対して、上記点群地図における、上記主要点のうちの各ターゲット点にマッチングするマッチング点を決定して、複数のマッチング点を取得することと、
上記主要点、上記複数のマッチング点及び上記画像に基づいて、上記ターゲット特徴ベクトルを取得することと、
を含む。
上記主要点のうちの各ターゲット点に対して、上記ターゲット点に対応する第1点集合を決定することと、
ここで、前記第1点集合は、上記ターゲット点と、上記第1点群データにおける、上記ターゲット点を中心とする第1所定距離内のN(Nは正の整数である)個の第1点とを含み、
上記複数のマッチング点のそれぞれに対して、上記マッチング点に対応する第2点集合を決定することと、
ここで、前記第2点集合は、上記マッチング点と、上記点群地図における、上記マッチング点を中心とする第2所定距離内のN個の第2点とを含み、
上記画像に基づいて、上記第1点集合における第1点の第1特徴ベクトルを取得することと、
上記マルチフレームの点群データに対応するマルチフレームの画像を取得することと、
上記マルチフレームの画像に基づいて、上記第2点集合における第2点の第2特徴ベクトルを取得することと、
を含み、
上記ターゲット特徴ベクトルは、上記第1特徴ベクトル及び上記第2特徴ベクトルを含む。
上記画像に基づいて、上記画像における画素点に対応する特徴ベクトルを含む、上記画像の特徴マップを取得することと、
上記第1点集合における各第1点に対して、上記画像における、上記第1点に対応する第1画素点を決定することと、
上記第1画素点に基づいて、上記特徴マップにおける、上記第1画素点に対応する特徴ベクトルを決定することと、
上記第1画素点に対応する特徴ベクトルを上記第1点の情報と継ぎ合わせて、上記第1点に対応する第1特徴ベクトルを取得することと、
を含む。
上記第2点集合における各第2点に対して、上記第2点に対応するターゲットフレームの点群データを取得することと、
ここで、前記ターゲットフレームの点群データは、上記点群地図における上記第2点に対応する第3点を含み、
上記ターゲットフレームの点群データに対応する画像に基づいて、第1特徴マップを取得することと、
上記第1特徴マップにおける、上記第3点に対応する特徴ベクトルを決定することと、
上記第3点に対応する特徴ベクトルを上記第3点の情報と継ぎ合わせて、上記第2点に対応する第2特徴ベクトルを取得することと、
を含む。
第1時刻でターゲット対象物が存在する領域の画像と、複数の時刻で上記ターゲット対象物が存在する領域のマルチフレームの点群データとを取得するための第1の取得モジュールと、
ここで、上記マルチフレームの点群データは、上記第1時刻で上記ターゲット対象物が存在する領域の第1点群データを含み、
上記マルチフレームの点群データに基づいて、点群地図を決定するための決定モジュールと、
上記第1点群データ、上記点群地図及び上記画像に基づいて、ターゲット特徴ベクトルを取得するための第2の取得モジュールと、
上記ターゲット特徴ベクトルに基づいて、上記ターゲット対象物の測位結果を決定するための測位モジュールと、
を含む。
上記第1点群データに基づいて、主要点を決定するための第1の決定サブモジュールと、
上記ターゲット対象物の姿勢を予測して、少なくとも1つの姿勢を取得するための第1の取得サブモジュールと、
上記少なくとも1つの姿勢のそれぞれに対して、上記点群地図における、上記主要点のうちの各ターゲット点にマッチングするマッチング点を決定して、複数のマッチング点を取得するための第2の決定サブモジュールと、
上記主要点、上記複数のマッチング点及び上記画像に基づいて、上記ターゲット特徴ベクトルを取得するための第2の取得サブモジュールと、
を含む。
上記主要点のうちの各ターゲット点に対して、上記ターゲット点に対応する第1点集合を決定するための第1の決定部と、
ここで、前記第1点集合は、上記ターゲット点と、上記第1点群データにおける、上記ターゲット点を中心とする第1所定距離内のN(Nは正の整数である)個の第1点とを含み、
上記複数のマッチング点のそれぞれに対して、上記マッチング点に対応する第2点集合を決定するための第2の決定部と、
ここで、前記第2点集合は、上記マッチング点と、上記点群地図における、上記マッチング点を中心とする第2所定距離内のN個の第2点とを含み、
上記画像に基づいて、上記第1点集合における第1点の第1特徴ベクトルを取得するための第1の取得部と、
上記マルチフレームの点群データに対応するマルチフレームの画像を取得するための第2の取得部と、
上記マルチフレームの画像に基づいて、上記第2点集合における第2点の第2特徴ベクトルを取得するための第3の取得部と、
を含み、
上記ターゲット特徴ベクトルは、上記第1特徴ベクトル及び上記第2特徴ベクトルを含む。
上記画像に基づいて、上記画像における画素点に対応する特徴ベクトルを含む、上記画像の特徴マップを取得し、
上記第1点集合における各第1点に対して、上記画像における、上記第1点に対応する第1画素点を決定し、
上記第1画素点に基づいて、上記特徴マップにおける、上記第1画素点に対応する特徴ベクトルを決定し、
上記第1画素点に対応する特徴ベクトルを上記第1点の情報と継ぎ合わせて、上記第1点に対応する第1特徴ベクトルを取得する。
上記第2点集合における各第2点に対して、上記第2点に対応するターゲットフレームの点群データを取得し、
ここで、前記ターゲットフレームの点群データは、上記点群地図における上記第2点に対応する第3点を含み、
上記ターゲットフレームの点群データに対応する画像に基づいて、第1特徴マップを取得し、
上記第1特徴マップにおける、上記第3点に対応する特徴ベクトルを決定し、
上記第3点に対応する特徴ベクトルを上記第3点の情報と継ぎ合わせて、上記第2点に対応する第2特徴ベクトルを取得する。
Claims (13)
- 第1時刻でターゲット対象物が存在する領域の画像と、複数の時刻で前記ターゲット対象物が存在する領域のマルチフレームの点群データとを取得することと、
ここで、前記マルチフレームの点群データは、前記第1時刻で前記ターゲット対象物が存在する領域の第1点群データを含み、
前記マルチフレームの点群データに基づいて、点群地図を決定することと、
前記第1点群データ、前記点群地図及び前記画像に基づいて、ターゲット特徴ベクトルを取得することと、
前記ターゲット特徴ベクトルに基づいて、前記ターゲット対象物の測位結果を決定することと、
を含むことを特徴とする、測位方法。 - 前記の第1点群データ、前記点群地図及び前記画像に基づいて、ターゲット特徴ベクトルを取得することは、
前記第1点群データに基づいて、主要点を決定することと、
前記ターゲット対象物の姿勢を予測して、少なくとも1つの姿勢を取得することと、
前記少なくとも1つの姿勢のそれぞれに対して、前記点群地図における、前記主要点のうちの各ターゲット点にマッチングするマッチング点を決定して、複数のマッチング点を取得することと、
前記主要点、前記複数のマッチング点及び前記画像に基づいて、前記ターゲット特徴ベクトルを取得することと、
を含むことを特徴とする、請求項1に記載の測位方法。 - 前記の主要点、前記複数のマッチング点及び前記画像に基づいて、前記ターゲット特徴ベクトルを取得することは、
前記主要点のうちの各ターゲット点に対して、前記ターゲット点に対応する第1点集合を決定することと、
ここで、前記第1点集合は、前記ターゲット点と、前記第1点群データにおける、前記ターゲット点を中心とする第1所定距離内のN(Nは正の整数である)個の第1点とを含み、
前記複数のマッチング点のそれぞれに対して、前記マッチング点に対応する第2点集合を決定することと、
ここで、前記第2点集合は、前記マッチング点と、前記点群地図における、前記マッチング点を中心とする第2所定距離内のN個の第2点とを含み、
前記画像に基づいて、前記第1点集合における第1点の第1特徴ベクトルを取得することと、
前記マルチフレームの点群データに対応するマルチフレームの画像を取得することと、
前記マルチフレームの画像に基づいて、前記第2点集合における第2点の第2特徴ベクトルを取得することと、
を含み、
前記ターゲット特徴ベクトルは、前記第1特徴ベクトル及び前記第2特徴ベクトルを含むことを特徴とする、請求項2に記載の測位方法。 - 前記の画像に基づいて、前記第1点集合における第1点の第1特徴ベクトルを取得することは、
前記画像に基づいて、前記画像における画素点に対応する特徴ベクトルを含む、前記画像の特徴マップを取得することと、
前記第1点集合における各第1点に対して、前記画像における、前記第1点に対応する第1画素点を決定することと、
前記第1画素点に基づいて、前記特徴マップにおける、前記第1画素点に対応する特徴ベクトルを決定することと、
前記第1画素点に対応する特徴ベクトルを前記第1点の情報と継ぎ合わせて、前記第1点に対応する第1特徴ベクトルを取得することと、
を含むことを特徴とする、請求項3に記載の測位方法。 - 前記のマルチフレームの点群データに対応するマルチフレームの画像に基づいて、前記第2点集合における第2点の第2特徴ベクトルを取得することは、
前記第2点集合における各第2点に対して、前記第2点に対応するターゲットフレームの点群データを取得することと、
ここで、前記ターゲットフレームの点群データは、前記点群地図における前記第2点に対応する第3点を含み、
前記ターゲットフレームの点群データに対応する画像に基づいて、第1特徴マップを取得することと、
前記第1特徴マップにおける、前記第3点に対応する特徴ベクトルを決定することと、
前記第3点に対応する特徴ベクトルを前記第3点の情報と継ぎ合わせて、前記第2点に対応する第2特徴ベクトルを取得することと、
を含むことを特徴とする、請求項3に記載の測位方法。 - 第1時刻でターゲット対象物が存在する領域の画像と、複数の時刻で前記ターゲット対象物が存在する領域のマルチフレームの点群データとを取得するための第1の取得モジュールと、
ここで、前記マルチフレームの点群データは、前記第1時刻で前記ターゲット対象物が存在する領域の第1点群データを含み、
前記マルチフレームの点群データに基づいて、点群地図を決定するための決定モジュールと、
前記第1点群データ、前記点群地図及び前記画像に基づいて、ターゲット特徴ベクトルを取得するための第2の取得モジュールと、
前記ターゲット特徴ベクトルに基づいて、前記ターゲット対象物の測位結果を決定するための測位モジュールと、
を含むことを特徴とする、測位装置。 - 前記第2の取得モジュールは、
前記第1点群データに基づいて、主要点を決定するための第1の決定サブモジュールと、
前記ターゲット対象物の姿勢を予測して、少なくとも1つの姿勢を取得するための第1の取得サブモジュールと、
前記少なくとも1つの姿勢のそれぞれに対して、前記点群地図における、前記主要点のうちの各ターゲット点にマッチングするマッチング点を決定して、複数のマッチング点を取得するための第2の決定サブモジュールと、
前記主要点、前記複数のマッチング点及び前記画像に基づいて、前記ターゲット特徴ベクトルを取得するための第2の取得サブモジュールと、
を含むことを特徴とする、請求項6に記載の測位装置。 - 前記第2の取得サブモジュールは、
前記主要点のうちの各ターゲット点に対して、前記ターゲット点に対応する第1点集合を決定するための第1の決定部と、
ここで、前記第1点集合は、前記ターゲット点と、前記第1点群データにおける、前記ターゲット点を中心とする第1所定距離内のN(Nは正の整数である)個の第1点とを含み、
前記複数のマッチング点のそれぞれに対して、前記マッチング点に対応する第2点集合を決定するための第2の決定部と、
ここで、前記第2点集合は、前記マッチング点と、前記点群地図における、前記マッチング点を中心とする第2所定距離内のN個の第2点とを含み、
前記画像に基づいて、前記第1点集合における第1点の第1特徴ベクトルを取得するための第1の取得部と、
前記マルチフレームの点群データに対応するマルチフレームの画像を取得するための第2の取得部と、
前記マルチフレームの画像に基づいて、前記第2点集合における第2点の第2特徴ベクトルを取得するための第3の取得部と、
を含み、
前記ターゲット特徴ベクトルは、前記第1特徴ベクトル及び前記第2特徴ベクトルを含むことを特徴とする、請求項7に記載の測位装置。 - 前記第1の取得部は、
前記画像に基づいて、前記画像における画素点に対応する特徴ベクトルを含む、前記画像の特徴マップを取得し、
前記第1点集合における各第1点に対して、前記画像における、前記第1点に対応する第1画素点を決定し、
前記第1画素点に基づいて、前記特徴マップにおける、前記第1画素点に対応する特徴ベクトルを決定し、
前記第1画素点に対応する特徴ベクトルを前記第1点の情報と継ぎ合わせて、前記第1点に対応する第1特徴ベクトルを取得することを特徴とする、請求項8に記載の測位装置。 - 前記第3の取得部は、
前記第2点集合における各第2点に対して、前記第2点に対応するターゲットフレームの点群データを取得し、
ここで、前記ターゲットフレームの点群データは、前記点群地図における前記第2点に対応する第3点を含み、
前記ターゲットフレームの点群データに対応する画像に基づいて、第1特徴マップを取得し、
前記第1特徴マップにおける、前記第3点に対応する特徴ベクトルを決定し、
前記第3点に対応する特徴ベクトルを前記第3点の情報と継ぎ合わせて、前記第2点に対応する第2特徴ベクトルを取得することを特徴とする、請求項8に記載の測位装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサに実行可能な命令が記憶され、
前記命令が前記少なくとも1つのプロセッサによって実行されると、請求項1〜5のいずれか1項に記載の方法を前記少なくとも1つのプロセッサに実行させることを特徴とする、電子機器。 - コンピュータに請求項1〜5のいずれか1項に記載の方法を実行させるためのコンピュータ命令が記憶されていることを特徴とする、非一時的なコンピュータ可読記憶媒体。
- コンピュータプログラムを含み、
前記コンピュータプログラムがプロセッサによって実行されると、請求項1〜5のいずれか1項に記載の方法が実現される、コンピュータプログラム製品。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010572148.8 | 2020-06-22 | ||
CN202010572148.8A CN111722245B (zh) | 2020-06-22 | 2020-06-22 | 定位方法、定位装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021101365A true JP2021101365A (ja) | 2021-07-08 |
JP7258066B2 JP7258066B2 (ja) | 2023-04-14 |
Family
ID=72569800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021048139A Active JP7258066B2 (ja) | 2020-06-22 | 2021-03-23 | 測位方法、測位装置及び電子機器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11713970B2 (ja) |
EP (1) | EP3842749A3 (ja) |
JP (1) | JP7258066B2 (ja) |
KR (1) | KR102463891B1 (ja) |
CN (1) | CN111722245B (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102624644B1 (ko) * | 2020-12-14 | 2024-01-18 | 주식회사 카카오모빌리티 | 벡터 맵을 이용한 이동체의 맵 매칭 위치 추정 방법 |
CN113052131A (zh) * | 2021-04-20 | 2021-06-29 | 深圳市商汤科技有限公司 | 点云数据处理、自动驾驶车辆控制方法及装置 |
CN113359149B (zh) * | 2021-05-12 | 2023-11-28 | 武汉中仪物联技术股份有限公司 | 管道支管和破洞的定位方法、装置、设备和存储介质 |
CN113514053B (zh) * | 2021-07-13 | 2024-03-26 | 阿波罗智能技术(北京)有限公司 | 生成样本图像对的方法、装置和更新高精地图的方法 |
CN113792797B (zh) * | 2021-09-16 | 2024-04-26 | 智道网联科技(北京)有限公司 | 点云数据筛选方法及存储介质 |
CN114926656B (zh) * | 2022-06-07 | 2023-12-19 | 北京百度网讯科技有限公司 | 对象识别方法、装置、设备及介质 |
CN115587943B (zh) * | 2022-10-09 | 2023-06-27 | 中国科学院半导体研究所 | 点云数据的去噪方法、装置、电子设备及存储介质 |
CN116485634B (zh) * | 2023-04-10 | 2024-04-02 | 北京城市网邻信息技术有限公司 | 点云展示图生成方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017117386A (ja) * | 2015-12-25 | 2017-06-29 | 学校法人千葉工業大学 | 自己運動推定システム、自己運動推定システムの制御方法及びプログラム |
JP2019149149A (ja) * | 2017-12-29 | 2019-09-05 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | 点群データを復旧するための方法及び装置 |
JP2020042816A (ja) * | 2018-09-07 | 2020-03-19 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 物体検出方法、装置、機器、記憶媒体及び車両 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103389103B (zh) * | 2013-07-03 | 2015-11-18 | 北京理工大学 | 一种基于数据挖掘的地理环境特征地图构建与导航方法 |
CN104317959B (zh) | 2014-11-10 | 2018-07-17 | 北京字节跳动网络技术有限公司 | 基于社交平台的数据挖掘方法及装置 |
CN106407315B (zh) * | 2016-08-30 | 2019-08-16 | 长安大学 | 一种基于街景图像数据库的车辆自主定位方法 |
US10438371B2 (en) * | 2017-09-22 | 2019-10-08 | Zoox, Inc. | Three-dimensional bounding box from two-dimensional image and point cloud data |
CN108776991B (zh) * | 2018-04-17 | 2023-02-28 | 深圳一清创新科技有限公司 | 三维建模方法、装置、存储介质和计算机设备 |
US11294060B2 (en) | 2018-04-18 | 2022-04-05 | Faraday & Future Inc. | System and method for lidar-based vehicular localization relating to autonomous navigation |
WO2019237307A1 (en) | 2018-06-14 | 2019-12-19 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for updating a high-resolution map based on binocular images |
US11726208B2 (en) | 2018-06-15 | 2023-08-15 | Uatc, Llc | Autonomous vehicle localization using a Lidar intensity map |
US11204605B1 (en) * | 2018-08-03 | 2021-12-21 | GM Global Technology Operations LLC | Autonomous vehicle controlled based upon a LIDAR data segmentation system |
KR20200071293A (ko) | 2018-12-11 | 2020-06-19 | 삼성전자주식회사 | 3차원 컬러 맵 기반의 측위 방법 및 장치 |
EP3667557B1 (en) * | 2018-12-13 | 2021-06-16 | Axis AB | Method and device for tracking an object |
CN110163903B (zh) * | 2019-05-27 | 2022-02-25 | 百度在线网络技术(北京)有限公司 | 三维图像的获取及图像定位方法、装置、设备和存储介质 |
CN110175576B (zh) * | 2019-05-29 | 2022-09-16 | 电子科技大学 | 一种结合激光点云数据的行驶车辆视觉检测方法 |
CN110415297B (zh) | 2019-07-12 | 2021-11-05 | 北京三快在线科技有限公司 | 定位方法、装置及无人驾驶设备 |
CN110660103B (zh) * | 2019-09-17 | 2020-12-25 | 北京三快在线科技有限公司 | 一种无人车定位方法及装置 |
CN111291714A (zh) * | 2020-02-27 | 2020-06-16 | 同济大学 | 一种基于单目视觉和激光雷达融合的车辆检测方法 |
CN112101092A (zh) * | 2020-07-31 | 2020-12-18 | 北京智行者科技有限公司 | 自动驾驶环境感知方法及系统 |
CN114596555B (zh) * | 2022-05-09 | 2022-08-30 | 新石器慧通(北京)科技有限公司 | 障碍物点云数据筛选方法、装置、电子设备及存储介质 |
-
2020
- 2020-06-22 CN CN202010572148.8A patent/CN111722245B/zh active Active
-
2021
- 2021-03-22 US US17/209,159 patent/US11713970B2/en active Active
- 2021-03-23 EP EP21164221.0A patent/EP3842749A3/en not_active Ceased
- 2021-03-23 JP JP2021048139A patent/JP7258066B2/ja active Active
- 2021-03-23 KR KR1020210037456A patent/KR102463891B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017117386A (ja) * | 2015-12-25 | 2017-06-29 | 学校法人千葉工業大学 | 自己運動推定システム、自己運動推定システムの制御方法及びプログラム |
JP2019149149A (ja) * | 2017-12-29 | 2019-09-05 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | 点群データを復旧するための方法及び装置 |
JP2020042816A (ja) * | 2018-09-07 | 2020-03-19 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 物体検出方法、装置、機器、記憶媒体及び車両 |
Also Published As
Publication number | Publication date |
---|---|
JP7258066B2 (ja) | 2023-04-14 |
KR20210040005A (ko) | 2021-04-12 |
KR102463891B1 (ko) | 2022-11-04 |
US20210209792A1 (en) | 2021-07-08 |
CN111722245A (zh) | 2020-09-29 |
EP3842749A2 (en) | 2021-06-30 |
EP3842749A3 (en) | 2021-09-29 |
CN111722245B (zh) | 2023-03-10 |
US11713970B2 (en) | 2023-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021101365A (ja) | 測位方法、測位装置及び電子機器 | |
US11615605B2 (en) | Vehicle information detection method, electronic device and storage medium | |
US20220270289A1 (en) | Method and apparatus for detecting vehicle pose | |
CN111739005B (zh) | 图像检测方法、装置、电子设备及存储介质 | |
KR102498439B1 (ko) | 차량용 카메라의 외부 파라미터 캘리브레이션 방법, 장치, 시스템 및 저장매체 | |
JP7189270B2 (ja) | 三次元物体検出方法、三次元物体検出装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN111767853B (zh) | 车道线检测方法和装置 | |
JP7228623B2 (ja) | 障害物検出方法、装置、設備、記憶媒体、及びプログラム | |
US20220036731A1 (en) | Method for detecting vehicle lane change, roadside device, and cloud control platform | |
JP2021192294A (ja) | 人体3dキー点検出方法、モデル訓練方法及び関連装置 | |
CN110675635B (zh) | 相机外参的获取方法、装置、电子设备及存储介质 | |
EP3904829B1 (en) | Method and apparatus for generating information, device, medium and computer program product | |
CN112102417B (zh) | 确定世界坐标的方法和装置 | |
CN111949816B (zh) | 定位处理方法、装置、电子设备和存储介质 | |
JP2021174531A (ja) | 目標追跡方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム | |
CN111753739A (zh) | 物体检测方法、装置、设备以及存储介质 | |
JP2021136028A (ja) | エッジベースの拡張現実3次元追跡登録方法、装置及び電子機器 | |
CN111191619A (zh) | 车道线虚线段的检测方法、装置、设备和可读存储介质 | |
CN115578432A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN111814634B (zh) | 一种实时距离确定方法、装置、设备及介质 | |
CN113129457A (zh) | 纹理生成方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220810 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230202 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230202 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230214 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7258066 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |