JP2020122784A - 経路プランニングのための自律走行車両の位置を決定する方法及び装置 - Google Patents
経路プランニングのための自律走行車両の位置を決定する方法及び装置 Download PDFInfo
- Publication number
- JP2020122784A JP2020122784A JP2020008771A JP2020008771A JP2020122784A JP 2020122784 A JP2020122784 A JP 2020122784A JP 2020008771 A JP2020008771 A JP 2020008771A JP 2020008771 A JP2020008771 A JP 2020008771A JP 2020122784 A JP2020122784 A JP 2020122784A
- Authority
- JP
- Japan
- Prior art keywords
- feature map
- coordinates
- live
- specific
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 107
- 230000004807 localization Effects 0.000 title 1
- 239000011159 matrix material Substances 0.000 claims description 73
- 230000008569 process Effects 0.000 claims description 66
- 238000005457 optimization Methods 0.000 claims description 30
- 230000014509 gene expression Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 2
- 239000006227 byproduct Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
Description
チャンネル単位でコンカチネートされることによって生成された特定の統合特徴マップが取得されると、第1CNNをもって、前記特定の統合特徴マップに少なくとも一つの第1CNN演算を適用させることによって、前記ライブ特徴マップの部分ライブ特徴マップの中から特定の部分ライブ特徴マップを見出し、前記特定の部分ライブ特徴マップは、前記特定のリファレンス特徴マップと関連して類似性点数が閾値より大きいことを特徴とし、前記ライブ特徴マップにある前記特定の部分ライブ特徴マップの相対的な位置に関する情報を参照して、前記特徴マップ座標の中から特定の特徴マップ座標を検出させることを特徴とする方法が提供される。
であり得る。特定の部分ライブ特徴マップは、特定のリファレンス物体と対応する特徴マップであり、ライブ特徴マップ上で特定の部分ライブ特徴マップの相対的な位置を使用することによってライブイメージ上における特定のリファレンス物体の位置を予測することができる。すなわち、特定の部分ライブ特徴マップの相対的な位置を使用することによって、特徴マップ座標の中から特定の特徴マップ座標を検出することができる。ここで、ライブイメージからリファレンス物体の位置を正確に検出するために追って説明する細密な調整過程を経るようになる。
Claims (20)
- ランドマーク検出を使用して自律走行が可能な対象車両の位置を検出する方法において、
(a)コンピューティング装置が、コンピューティング装置と連動する対象車両の状況に対応する少なくとも一つのライブイメージを処理することによって生成された一つ以上のライブ特徴マップを取得した場合、(i)それぞれのリファレンス物体に対応する一つ以上のそれぞれのリファレンス特徴マップと(ii)前記ライブ特徴マップとを参照して、前記ライブ特徴マップが取得された前記対象車両の少なくとも一つの位置及び少なくとも一つの姿勢に対応する対象データ領域に含まれている一つ以上のリファレンス物体ごとに前記ライブ特徴マップのそれぞれの特徴マップ座標を検出する段階;
(b)前記コンピューティング装置が、前記特徴マップ座標それぞれを参照して、前記ライブイメージ上の前記それぞれのリファレンス物体のイメージ座標それぞれを検出する段階;及び
(c)前記コンピューティング装置が、リアル世界における前記リファレンス物体の一つ以上の3次元座標と、前記イメージ座標と、前記ライブイメージを取得したカメラのパラメータに関する情報と、前記対象車両の前記姿勢に関する情報とを参照して、前記対象車両の少なくとも一つの最適化対象座標を検出する段階;
を含むことを特徴とする方法。 - 前記(c)段階は、
前記コンピューティング装置が、前記イメージ座標と、前記3次元座標と、前記パラメータに関する情報と、前記姿勢に関する情報とともに下記数式を使用して、前記最適化対象座標を検出し、
- 前記(c)段階は、
前記コンピューティング装置が、前記数式に対応する最適化問題を解決することによって前記最適化対象座標を検出し、
前記コンピューティング装置が、(i)(i−1)前記対象車両の少なくとも一つのジャイロセンサを介して取得された前記姿勢に関する情報を参照して、前記回転マトリクスを初期化するプロセスを遂行して、初期化された回転マトリクスを生成し、(i−2)前記対象車両のGPSを介して取得された初期対象座標を参照して、前記最適化対象座標を取得するのに使用される対象座標マトリクスを初期化することによって、初期化された対象座標マトリクスを生成するプロセスを遂行した後、(ii)前記初期化された回転マトリクス及び前記初期化された対象座標マトリクスが提供された状態で、前記数式を最小化する初期化された対角マトリクスを見出して前記対角マトリクスを初期化するプロセスを遂行し、以後、(iii)前記初期化された回転マトリクス、前記初期化された対象座標マトリクス、及び前記初期化された対角マトリクスの各値を調整することによって、前記数式を最小化する、最適化回転マトリクスと、最適化対象座標マトリクスと、最適化対角マトリクスとを見出すプロセスを遂行することによって、前記最適化問題を解いた後、前記最適化された対象座標マトリクスを参照して前記最適化された対象座標を検出することを特徴とする請求項2に記載の方法。 - 前記(a)段階は、
前記コンピューティング装置が、(i)特定のリファレンス物体に対応する
のサイズを有する複数個の特定のリファレンス特徴マップ及び(ii)
のサイズを有する前記ライブ特徴マップが並列してチャンネル単位でコンカチネートされることによって生成された特定の統合特徴マップが取得されると、第1CNNをもって、前記特定の統合特徴マップに少なくとも一つの第1CNN演算を適用させることによって、前記ライブ特徴マップの部分ライブ特徴マップの中から特定の部分ライブ特徴マップを見出し、前記特定の部分ライブ特徴マップは、前記特定のリファレンス特徴マップと関連して類似性点数が閾値より大きいことを特徴とし、前記ライブ特徴マップにある前記特定の部分ライブ特徴マップの相対的な位置に関する情報を参照して、前記特徴マップ座標の中から特定の特徴マップ座標を検出させることを特徴とする請求項1に記載の方法。 - 前記第1CNNは、前記特定の統合特徴マップに前記第1CNN演算を適用する以前に学習が完了し、
前記第1CNNは、(i)学習用統合特徴マップに前記第1CNN演算を適用して、学習用前記ライブ特徴マップの一つ以上のそれぞれの学習用部分ライブ特徴マップと学習用リファレンス特徴マップとの間の一つ以上の予測類似度点数それぞれを生成するプロセスを遂行した後、(ii)前記予測類似度点数及びこれに対応する原本正解類似度点数を参照して第1ロスを生成し、前記第1ロスを使用してバックプロパゲーションを遂行するプロセスを遂行することで学習が完了した状態であることを特徴とする請求項4に記載の方法。 - 前記(b)段階は、
前記コンピューティング装置が、(i)(i−1)前記特定の特徴マップ座標に対応する特定の部分ライブ特徴マップと(i−2)これに対応する特定のリファレンス特徴マップとを統合することによって生成された、特定の部分統合特徴マップを参照して、前記ライブイメージにおいて特定の特徴マップ座標に対応する、特定のサブ領域上における特定のリファレンス物体の特定のサブ領域座標を検出し、(ii)前記特定のサブ領域座標及び前記特定の特徴マップ座標を参照して、前記イメージ座標の中から特定のイメージ座標を検出することを特徴とする請求項1に記載の方法。 - 前記(b)段階は、
前記コンピューティング装置が、第2CNNをもって、前記特定の部分統合特徴マップに、タンジェントハイパボリック(tangent hyperbolic)演算をアクティベーション関数(activation function)として使用する少なくとも一つの第2CNN演算を適用して、前記特定のサブ領域座標を検出させることを特徴とする請求項6に記載の方法。 - 前記第2CNNは、前記特定の部分統合特徴マップに前記第2CNN演算を適用する以前に学習が完了し、
前記第2CNNは、(i)学習用部分統合特徴マップに前記第2CNN演算を適用して、前記学習用部分統合特徴マップに対応する学習用リファレンス物体の学習用予測サブ領域座標を生成するプロセスを遂行した後、(ii)前記予測サブ領域座標及びこれに対応する原本正解サブ領域座標を参照して、第2ロスを生成し、前記第2ロスを使用してバックプロパゲーションを遂行するプロセスを遂行して学習が完了することを特徴とする請求項7に記載の方法。 - 前記(a)段階は、
前記ライブイメージが前記対象車両に搭載された前記カメラを介して取得された後、自律走行モジュールが前記対象車両の自律走行を遂行する間、前記ライブイメージは、前記自律走行モジュールに伝達されて前記ライブ特徴マップが生成され、以後、前記ライブ特徴マップが前記コンピューティング装置に伝達されることを特徴とする請求項1に記載の方法。 - 前記(a)段階は、
前記コンピューティング装置が、前記対象車両に搭載されたGPSを介して取得された初期対象座標及び前記対象車両の前記姿勢に関する情報を利用して、クエリをHD(High−Density)マップに伝送することによって、前記リファレンス特徴マップを含む前記対象データ領域に関する情報を取得することを特徴とする請求項1に記載の方法。 - ランドマーク検出を使用して自律走行が可能な対象車両の位置を検出するコンピューティング装置において、
少なくとも一つのインストラクションを格納する少なくとも一つのメモリと、
前記各インストラクションを遂行するように設定された少なくとも一つのプロセッサとを含み、前記プロセッサは、(I)コンピューティング装置と連動する対象車両の状況に対応する少なくとも一つのライブイメージを処理することによって生成された一つ以上のライブ特徴マップを取得した場合、(i)それぞれのリファレンス物体に対応する一つ以上のそれぞれのリファレンス特徴マップと(ii)前記ライブ特徴マップとを参照して、前記ライブ特徴マップが取得された前記対象車両の少なくとも一つの位置及び少なくとも一つの姿勢に対応する対象データ領域に含まれている一つ以上のリファレンス物体ごとに前記ライブ特徴マップのそれぞれの特徴マップ座標を検出するプロセス;(II)前記特徴マップ座標それぞれを参照して、前記ライブイメージ上の前記それぞれのリファレンス物体のイメージ座標それぞれを検出するプロセス;及び(III)リアル世界における前記リファレンス物体の一つ以上の3次元座標と、前記イメージ座標と、前記ライブイメージを取得したカメラのパラメータに関する情報と、前記対象車両の前記姿勢に関する情報とを参照して、前記対象車両の少なくとも一つの最適化対象座標を検出するプロセス;を遂行することを特徴とする装置。 - 前記(III)プロセスは、
前記プロセッサが、前記イメージ座標と、前記3次元座標と、前記パラメータに関する情報と、前記姿勢に関する情報とともに下記数式を使用して、前記最適化対象座標を検出し、
- 前記(III)プロセスは、
前記プロセッサが、前記数式に対応する最適化問題を解決することによって前記最適化対象座標を検出し、
前記プロセッサが、(i)(i−1)前記対象車両の少なくとも一つのジャイロセンサを介して取得された前記姿勢に関する情報を参照して、前記回転マトリクスを初期化するプロセスを遂行して、初期化された回転マトリクスを生成し、(i−2)前記対象車両のGPSを介して取得された初期対象座標を参照して、前記最適化対象座標を取得するのに使用される対象座標マトリクスを初期化することによって、初期化された対象座標マトリクスを生成するプロセスを遂行した後、(ii)前記初期化された回転マトリクス及び前記初期化された対象座標マトリクスが提供された状態で、前記数式を最小化する初期化された対角マトリクスを見出して前記対角マトリクスを初期化するプロセスを遂行し、以後、(iii)前記初期化された回転マトリクス、前記初期化された対象座標マトリクス、及び前記初期化された対角マトリクスの各値を調整することによって、前記数式を最小化する、最適化回転マトリクスと、最適化対象座標マトリクスと、最適化対角マトリクスとを見出すプロセスを遂行することによって、前記最適化問題を解いた後、前記最適化された対象座標マトリクスを参照して前記最適化された対象座標を検出することを特徴とする請求項12に記載の装置。 - 前記(I)プロセスは、
前記プロセッサが、(i)特定のリファレンス物体に対応する
のサイズを有する複数個の特定のリファレンス特徴マップ及び(ii)
のサイズを有する前記ライブ特徴マップが並列してチャンネル単位でコンカチネートされることによって生成された特定の統合特徴マップが取得されると、第1CNNをもって、前記特定の統合特徴マップに少なくとも一つの第1CNN演算を適用させることによって、前記ライブ特徴マップの部分ライブ特徴マップの中から特定の部分ライブ特徴マップを見出し、前記特定の部分ライブ特徴マップは、前記特定のリファレンス特徴マップと関連して類似性点数が閾値より大きいことを特徴とし、前記ライブ特徴マップにある前記特定の部分ライブ特徴マップの相対的な位置に関する情報を参照して、前記特徴マップ座標の中から特定の特徴マップ座標を検出させることを特徴とする請求項11に記載の装置。 - 前記第1CNNは、前記特定の統合特徴マップに前記第1CNN演算を適用する以前に学習が完了し、
前記第1CNNは、(i)学習用統合特徴マップに前記第1CNN演算を適用して、学習用前記ライブ特徴マップの一つ以上のそれぞれの学習用部分ライブ特徴マップと学習用リファレンス特徴マップとの間の一つ以上の予測類似度点数それぞれを生成するプロセスを遂行した後、(ii)前記予測類似度点数及びこれに対応する原本正解類似度点数を参照して第1ロスを生成し、前記第1ロスを使用してバックプロパゲーションを遂行するプロセスを遂行することで学習が完了した状態であることを特徴とする請求項14に記載の装置。 - 前記(II)プロセスは、
前記プロセッサが、(i)(i−1)前記特定の特徴マップ座標に対応する特定の部分ライブ特徴マップと(i−2)これに対応する特定のリファレンス特徴マップとを統合することによって生成された、特定の部分統合特徴マップを参照して、前記ライブイメージにおいて特定の特徴マップ座標に対応する、特定のサブ領域上における特定のリファレンス物体の特定のサブ領域座標を検出し、(ii)前記特定のサブ領域座標及び前記特定の特徴マップ座標を参照して、前記イメージ座標の中から特定のイメージ座標を検出することを特徴とする請求項11に記載の装置。 - 前記(II)プロセスは、
前記プロセッサが、第2CNNをもって、前記特定の部分統合特徴マップに、タンジェントハイパボリック(tangent hyperbolic)演算をアクティベーション関数(activation function)として使用する少なくとも一つの第2CNN演算を適用して、前記特定のサブ領域座標を検出させることを特徴とする請求項16に記載の装置。 - 前記第2CNNは、前記特定の部分統合特徴マップに前記第2CNN演算を適用する以前に学習が完了し、
前記第2CNNは、(i)学習用部分統合特徴マップに前記第2CNN演算を適用して、前記学習用部分統合特徴マップに対応する学習用リファレンス物体の学習用予測サブ領域座標を生成するプロセスを遂行した後、(ii)前記予測サブ領域座標及びこれに対応する原本正解サブ領域座標を参照して、第2ロスを生成し、前記第2ロスを使用してバックプロパゲーションを遂行するプロセスを遂行して学習が完了することを特徴とする請求項17に記載の装置。 - 前記(I)プロセスは、
前記ライブイメージが前記対象車両に搭載された前記カメラを介して取得された後、自律走行モジュールが前記対象車両の自律走行を遂行する間、前記ライブイメージは、前記自律走行モジュールに伝達されて前記ライブ特徴マップが生成され、以後、前記ライブ特徴マップが前記コンピューティング装置に伝達されることを特徴とする請求項11に記載の装置。 - 前記(I)プロセスは、
前記プロセッサが、前記対象車両に搭載されたGPSを介して取得された初期対象座標及び前記対象車両の前記姿勢に関する情報を利用して、クエリをHD(High−Density)マップに伝送することによって、前記リファレンス特徴マップを含む前記対象データ領域に関する情報を取得することを特徴とする請求項11に記載の装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962798574P | 2019-01-30 | 2019-01-30 | |
US62/798,574 | 2019-01-30 | ||
US16/731,093 US10650548B1 (en) | 2019-01-30 | 2019-12-31 | Method and device for localization of autonomous vehicle for route planning by using attention-driven landmark detection |
US16/731,093 | 2019-12-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020122784A true JP2020122784A (ja) | 2020-08-13 |
JP6986769B2 JP6986769B2 (ja) | 2021-12-22 |
Family
ID=70612951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020008771A Active JP6986769B2 (ja) | 2019-01-30 | 2020-01-22 | 経路プランニングのための自律走行車両の位置を決定する方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10650548B1 (ja) |
EP (1) | EP3690397A1 (ja) |
JP (1) | JP6986769B2 (ja) |
KR (1) | KR102296493B1 (ja) |
CN (1) | CN111736586B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022049767A (ja) * | 2020-09-17 | 2022-03-30 | 株式会社スペースリー | 情報処理装置、情報処理方法、情報処理システム、情報処理プログラム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111693049B (zh) * | 2020-05-20 | 2022-02-11 | 五邑大学 | 一种无人船覆盖投食的动态路径规划方法及设备 |
DE102020120934A1 (de) | 2020-08-07 | 2022-02-10 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Bereitstellen eines komprimierten neuronalen Netzes zur Multi-Label Multi-Klassen Kategorisierung, Fahrzeugassistenzeinrichtung zur Umgebungskategorisierung und Kraftfahrzeug |
CN112002112B (zh) * | 2020-08-25 | 2021-11-02 | 中国铁道科学研究院集团有限公司电子计算技术研究所 | 一种高速铁路周界入侵报警系统安防效能评估方法及系统 |
KR102289752B1 (ko) * | 2020-10-13 | 2021-08-13 | 주식회사 스페이스소프트인더스트리 | Gps 음영 지역에서 경로 비행을 수행하는 드론 및 그 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017054494A (ja) * | 2015-08-11 | 2017-03-16 | 本田技研工業株式会社 | 標示ベースの位置測定 |
WO2017168472A1 (ja) * | 2016-03-30 | 2017-10-05 | パナソニックIpマネジメント株式会社 | 位置推定装置、位置推定方法及び制御プログラム |
US20180045519A1 (en) * | 2016-08-09 | 2018-02-15 | Nauto, Inc. | System and method for precision localization and mapping |
WO2018138782A1 (ja) * | 2017-01-24 | 2018-08-02 | 富士通株式会社 | 情報処理装置、特徴点抽出プログラムおよび特徴点抽出方法 |
JP2019500602A (ja) * | 2015-12-15 | 2019-01-10 | 本田技研工業株式会社 | 画像ベースの車両位置特定のためのシステム及び方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9290146B2 (en) * | 1992-05-05 | 2016-03-22 | Intelligent Technologies International, Inc. | Optical monitoring of vehicle interiors |
JP5225542B2 (ja) * | 2004-09-22 | 2013-07-03 | 三菱電機株式会社 | 地図情報生成方法、地図情報生成プログラム及び地図情報収集装置 |
JP4497133B2 (ja) * | 2006-07-12 | 2010-07-07 | アイシン・エィ・ダブリュ株式会社 | 運転支援方法及び運転支援装置 |
JP2009180631A (ja) * | 2008-01-31 | 2009-08-13 | Denso It Laboratory Inc | ナビゲーション装置、ナビゲーション方法およびプログラム |
JP5472538B2 (ja) * | 2011-06-14 | 2014-04-16 | 日産自動車株式会社 | 距離計測装置及び環境地図生成装置 |
KR101552773B1 (ko) * | 2013-12-10 | 2015-09-11 | 고려대학교 산학협력단 | 인공 표식을 이용한 이동 로봇의 위치 추정 방법 |
US9446730B1 (en) * | 2015-11-08 | 2016-09-20 | Thunder Power Hong Kong Ltd. | Automatic passenger airbag switch |
KR101878685B1 (ko) * | 2016-02-12 | 2018-07-16 | 서울과학기술대학교 산학협력단 | 지도 정보를 이용한 차량 측위 시스템 및 방법 |
KR101804471B1 (ko) * | 2016-06-30 | 2017-12-04 | 주식회사 이누씨 | 영상 분석 방법 및 장치 |
US20180074494A1 (en) * | 2016-09-13 | 2018-03-15 | Ford Global Technologies, Llc | Passenger tracking systems and methods |
KR20180050823A (ko) * | 2016-11-07 | 2018-05-16 | 삼성전자주식회사 | 3차원의 도로 모델을 생성하는 방법 및 장치 |
KR101955506B1 (ko) * | 2016-12-12 | 2019-03-11 | 주식회사 피엘케이 테크놀로지 | 대향 카메라를 이용한 대형 차량의 측면 안전 보조 장치 및 방법 |
JP6760114B2 (ja) * | 2017-01-31 | 2020-09-23 | 富士通株式会社 | 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム |
JP6589926B2 (ja) * | 2017-04-07 | 2019-10-16 | トヨタ自動車株式会社 | 物体検出装置 |
US10509947B1 (en) * | 2017-04-11 | 2019-12-17 | Zoox, Inc. | Converting multi-dimensional data for image analysis |
-
2019
- 2019-12-31 US US16/731,093 patent/US10650548B1/en active Active
-
2020
- 2020-01-13 KR KR1020200004516A patent/KR102296493B1/ko active IP Right Grant
- 2020-01-20 EP EP20152584.7A patent/EP3690397A1/en active Pending
- 2020-01-22 JP JP2020008771A patent/JP6986769B2/ja active Active
- 2020-01-23 CN CN202010077028.0A patent/CN111736586B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017054494A (ja) * | 2015-08-11 | 2017-03-16 | 本田技研工業株式会社 | 標示ベースの位置測定 |
JP2019500602A (ja) * | 2015-12-15 | 2019-01-10 | 本田技研工業株式会社 | 画像ベースの車両位置特定のためのシステム及び方法 |
WO2017168472A1 (ja) * | 2016-03-30 | 2017-10-05 | パナソニックIpマネジメント株式会社 | 位置推定装置、位置推定方法及び制御プログラム |
US20180045519A1 (en) * | 2016-08-09 | 2018-02-15 | Nauto, Inc. | System and method for precision localization and mapping |
WO2018138782A1 (ja) * | 2017-01-24 | 2018-08-02 | 富士通株式会社 | 情報処理装置、特徴点抽出プログラムおよび特徴点抽出方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022049767A (ja) * | 2020-09-17 | 2022-03-30 | 株式会社スペースリー | 情報処理装置、情報処理方法、情報処理システム、情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6986769B2 (ja) | 2021-12-22 |
EP3690397A1 (en) | 2020-08-05 |
CN111736586A (zh) | 2020-10-02 |
KR102296493B1 (ko) | 2021-09-02 |
CN111736586B (zh) | 2023-10-03 |
US10650548B1 (en) | 2020-05-12 |
KR20200094654A (ko) | 2020-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020122784A (ja) | 経路プランニングのための自律走行車両の位置を決定する方法及び装置 | |
US11530924B2 (en) | Apparatus and method for updating high definition map for autonomous driving | |
JP7404010B2 (ja) | 位置推定装置及び方法 | |
JP6856855B2 (ja) | それ自体によって生成された情報及び他の個体によって生成された情報を選択的に利用してカメラの誤整列を補正する方法及びこれを利用した装置 | |
KR20200029785A (ko) | 증강 현실에서 가상 객체를 표시하기 위한 측위 방법 및 장치 | |
CN111263960B (zh) | 用于更新高清晰度地图的设备和方法 | |
KR102241584B1 (ko) | 응급 차량을 실시간으로 검출하고, 응급 차량으로 인해 발생될 것으로 예상되는 상황에 대처하기 위한 주행 경로를 플래닝하는 방법 및 장치 | |
US10565863B1 (en) | Method and device for providing advanced pedestrian assistance system to protect pedestrian preoccupied with smartphone | |
EP3690400A1 (en) | Method and device for ego-vehicle localization to update hd map by using v2x information fusion | |
KR20200046437A (ko) | 영상 및 맵 데이터 기반 측위 방법 및 장치 | |
CN114636414A (zh) | 高清晰度城市地图绘制 | |
US11652972B2 (en) | Systems and methods for self-supervised depth estimation according to an arbitrary camera | |
CN117152249A (zh) | 基于语义一致性的多无人机协同建图与感知方法及系统 | |
CN113570662A (zh) | 3d定位来自真实世界图像中地标的系统和方法 | |
KR20240006475A (ko) | 복수의 무인비행체를 이용한 구조물 관리 방법 및 시스템 | |
Jäger et al. | Efficient navigation based on the Landmark-Tree map and the Z∞ algorithm using an omnidirectional camera | |
JP7234840B2 (ja) | 位置推定装置 | |
CN114830185A (zh) | 借助于神经网络的位置确定 | |
Abdulov et al. | Visual odometry approaches to autonomous navigation for multicopter model in virtual indoor environment | |
US20230177720A1 (en) | Method, system and computer program product for determining the pose of a mobile unit | |
Hernández et al. | Visual SLAM with oriented landmarks and partial odometry | |
Bera et al. | Vision based autonomous quadcopter navigation through narrow gaps using visual servoing and monocular SLAM | |
Bresson et al. | A new strategy for feature initialization in visual slam | |
Ta et al. | Monocular parallel tracking and mapping with odometry fusion for mav navigation in feature-lacking environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210115 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210415 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6986769 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |