JP6856852B2 - 横フィルタマスクを利用して自律走行車の走行経路を計画するために車線要素を検出する方法及び装置 - Google Patents
横フィルタマスクを利用して自律走行車の走行経路を計画するために車線要素を検出する方法及び装置 Download PDFInfo
- Publication number
- JP6856852B2 JP6856852B2 JP2020004555A JP2020004555A JP6856852B2 JP 6856852 B2 JP6856852 B2 JP 6856852B2 JP 2020004555 A JP2020004555 A JP 2020004555A JP 2020004555 A JP2020004555 A JP 2020004555A JP 6856852 B2 JP6856852 B2 JP 6856852B2
- Authority
- JP
- Japan
- Prior art keywords
- coordinates
- lane
- element candidate
- lane element
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 68
- 230000011218 segmentation Effects 0.000 claims description 100
- 238000012805 post-processing Methods 0.000 claims description 81
- 238000004364 calculation method Methods 0.000 claims description 41
- 238000013527 convolutional neural network Methods 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
本発明技術分野の通常の技術者に理解され、前記で説明されたイメージ、例えば原本イメージ及び原本レーブル及び追加レーブルといったイメージデータの送受信が学習装置及びテスト装置の各通信部によって行われ得、特徴マップと演算を遂行するためのデータが学習装置及びテスト装置のプロセッサ(及び/またはメモリ)によって保有/維持され得、コンボリューション演算、デコンボリューション演算、ロス値の演算過程が主に学習装置及びテスト装置のプロセッサにより遂行され得るが、本発明はこれに限定されるものではない。
Claims (20)
- 少なくとも一つの横フィルタマスクを利用して、少なくとも一つの入力イメージ内に位置した一つ以上の車線のピクセルを含む一つ以上の単位領域である一つ以上の車線要素を検出する方法において、
(a)CNN(Convolutional neural network)が前記入力イメージを利用して少なくとも一つのセグメンテーションスコアマップを生成すると、コンピューティング装置がこれを取得する段階;
(b)前記コンピューティング装置が、前記CNNの出力端においてデータプロセッシングを遂行する少なくとも一つのポストプロセッシング(post−processing)モジュールをもって、(i)前記セグメンテーションスコアマップ及び(ii)多数のフィルタリングパラメータを含む前記横フィルタマスクを利用して、少なくとも一つのマグニチュードマップ(Magnitude map)を生成させる段階;
(c)前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、前記マグニチュードマップの値を参照して前記セグメンテーションスコアマップの各行ごとの一つ以上の車線要素候補群それぞれを決定させる段階;及び
(d)前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、各前記行ごとの前記車線要素候補群それぞれに一つ以上の予測演算を適用するようにすることにより、それぞれの前記車線要素を検出させる段階;
を含むことを特徴とする方法。 - 前記(b)段階で、
前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、前記セグメンテーションスコアマップの値を、前記横フィルタマスクを利用して変換することにより前記マグニチュードマップを生成させることを特徴とする請求項1に記載の方法。 - m×nのサイズを有する前記セグメンテーションスコアマップ上の第k行(kは、1以上n以下の整数(Integer)である)内に含まれた値の座標を(x,k)(xは、1以上m以下の整数である)とした場合、前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、前記マグニチュードマップ上の(x,k)の値を算出して前記セグメンテーションスコアマップと同じ大きさを有する前記マグニチュードマップを生成するようにし、
(i)xが2以上m−1以下の場合、前記横フィルタマスクに含まれた[−1,0,1]値を前記セグメンテーションスコアマップ上の(x−1,k),(x,k)及び(x+1,k)の値にそれぞれ乗じて生成されたそれぞれの要素ごとの乗算結果の要素の合計それぞれを前記マグニチュードマップ上の(x,k)のそれぞれの値とし、
(ii)xが1である場合、前記横フィルタマスクに含まれた[0,1]値をそれぞれ前記セグメンテーションスコアマップ上の(x,k)及び(x+1,k)の値にそれぞれ乗じて生成されたそれぞれの要素ごとの乗算結果の要素の合計を前記マグニチュードマップ上の(x,k)の値とし、
(iii)xがmである場合、前記横フィルタマスクに含まれた[−1,0]値を前記セグメンテーションスコアマップ上の(x−1,k)及び(x,k)の値にそれぞれ乗じて生成されたそれぞれの要素ごとの乗算結果の要素の合計を前記マグニチュードマップ上の(x,k)の値とすることを特徴とする請求項2に記載の方法。 - 前記(c)段階で、
前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、前記セグメンテーションスコアマップの前記行それぞれに対応する前記マグニチュードマップに含まれている値それぞれの絶対値及び符号を参照して、各前記行ごとの前記車線要素候補群それぞれの初期左側境界座標及び初期右側境界座標を検出させることにより、各前記行ごとの前記車線要素候補群を決定することを特徴とする請求項1に記載の方法。 - 前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、それぞれの調整された左側境界座標及びそれぞれの調整された右側境界座標を参照して、各前記行ごとの拡張車線要素候補群それぞれを決定するようにし、前記それぞれの調整された左側境界座標が各前記行ごとの前記車線要素候補群それぞれの中心から離れた距離が、各前記行ごとの前記車線要素候補群それぞれの前記中心からそれぞれの前記初期左側境界座標までの距離の所定の倍数に該当するものと決定し、前記それぞれの調整された右側境界座標が各前記行ごとの前記車線要素候補群それぞれの前記中心から離れた距離が、各前記行ごとの前記車線要素候補群それぞれの前記中心からそれぞれの前記初期右側境界座標までの距離の前記所定の倍数に該当すると決定することを特徴とする請求項4に記載の方法。
- 前記(c)段階で、
前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、前記車線要素候補群それぞれの初期左側境界座標それぞれ及び初期右側境界座標それぞれを検出することにより、各前記行ごとのそれぞれの前記車線要素候補群を決定するようにし、
前記(d)段階において、
前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、各前記行ごとの前記車線要素候補群それぞれに予測演算を適用するようにし、(i)各前記行ごとに第1閾値より大きいそれぞれの前記車線要素候補群の前記セグメンテーションスコアマップ上の値の中の最も大きい値それぞれの座標が、各前記行ごとの前記車線要素候補群それぞれの基準座標に決定されるようにし、(ii)それぞれの前記基準座標の左側に、第2閾値に所定範囲内で近接する値それぞれの座標がそれぞれの最終左側境界座標に決定され、それぞれの前記基準座標の右側に、第3閾値に所定範囲内で近接する値それぞれの座標がそれぞれの最終右側境界座標に決定されるようにする、前記予測演算が遂行されることを特徴とする請求項1に記載の方法。 - 前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、(i)前記セグメンテーションスコアマップの各前記行ごとの前記車線要素候補群それぞれの値の中の前記第1閾値よりも大きい値の座標をそれぞれの基準座標候補群に決定するようにし、(ii)それぞれの各前記基準座標候補群の値の中の各値の左側又は右側に位置している値より小さい一部の値を除去するプロセスを繰り返すことにより、それぞれの前記基準座標候補群の値の中の最も大きい値をそれぞれ検出して、前記最も大きい値それぞれに対応するそれぞれの座標を各前記行ごとの前記車線候補群それぞれの前記基準座標として決定させることを特徴とする請求項6に記載の方法。
- 前記(c)段階で、
前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、前記車線要素候補群それぞれの初期左側境界座標それぞれ及び初期右側境界座標それぞれを検出することにより、各前記行ごとのそれぞれの前記車線要素候補群を決定するようにし、
前記(d)段階において、
前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、各前記行ごとの前記車線要素候補群それぞれに予測演算を適用するようにし、(i)予め設定された車線幅に対する情報を参照して、前記セグメンテーションスコアマップの各前記行ごとのそれぞれのサンプル幅が決定され、(ii)各前記行ごとの前記車線要素候補群それぞれの、前記セグメンテーションスコアマップ上の値を利用して、それぞれの前記サンプル幅に対応する幅を有するそれぞれのサブグループが生成され、(iii)それぞれの前記サブグループ内に含まれていない、前記セグメンテーションスコアマップ上の値の平均と、それぞれの前記サブグループ内に含まれている、前記セグメンテーションスコアマップ上の値の平均との間のそれぞれの差異が算出され、各前記行ごとのそれぞれの代表サブグループが決定され、(iv)前記代表サブグループそれぞれの左側部分内で、閾値に所定範囲内で近接する値それぞれの座標が最終左側境界座標それぞれとして決定され、前記代表サブグループそれぞれの右側部分内で、前記閾値に所定範囲内で近接する値それぞれの座標が最終右側境界座標それぞれとして決定されるようにする、前記予測演算が遂行されることを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、ぞれぞれの前記車線要素候補群の初期左側境界座標それぞれ及び初期右側境界座標それぞれを検出することにより、各前記行ごとの前記車線要素候補群それぞれを決定するようにし、
前記(d)段階において、
前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、各前記行ごとの前記車線要素候補群それぞれに前記予測演算を適用するようにし、各前記行ごとのそれぞれの前記車線要素候補群の偏差値の合計それぞれが最も大きいそれぞれの最大合計サブアレイ(subarray)が決定され、それぞれの前記最大合計サブアレイ内のそれぞれの最も左側の座標及びそれぞれの最も右側の座標がそれぞれの最終左側境界座標及びそれぞれの最終右側境界座標として決定されるようにする、前記予測演算が遂行されることを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、ぞれぞれの前記車線要素候補群の初期左側境界座標それぞれ及び初期右側境界座標それぞれを検出することにより、各前記行ごとの前記車線要素候補群それぞれを決定するようにし、
前記(d)段階において、
前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、前記セグメンテーションスコアマップに前記予測演算を適用して各前記行ごとの前記車線要素候補群それぞれの最終左側境界座標それぞれ及び最終右側境界座標それぞれを検出するようにし、各前記行ごとの前記車線要素候補群それぞれの前記最終左側境界座標それぞれ及び前記最終右側境界座標それぞれを参照して、それぞれの前記車線要素を生成することを特徴とする請求項1に記載の方法。 - 少なくとも一つの横フィルタマスクを利用して、少なくとも一つの入力イメージ内に位置した一つ以上の車線のピクセルを含む一つ以上の単位領域である一つ以上の車線要素を検出するコンピューティング装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
(I)CNN(Convolutional neural network)が前記入力イメージを利用して少なくとも一つのセグメンテーションスコアマップを生成すると、前記CNNの出力端でデータプロセッシングを遂行する少なくとも一つのポストプロセッシングモジュールをもって、(i)前記セグメンテーションスコアマップ及び(ii)多数のフィルタリングパラメータを含む前記横フィルタマスクを利用して、少なくとも一つのマグニチュードマップ(Magnitude map)を生成させるプロセス、(II)前記ポストプロセッシングモジュールをもって、前記マグニチュードマップの値を参照して、前記セグメンテーションスコアマップの各行ごとの一つ以上の車線要素候補群それぞれを決定させるプロセス、及び(III)前記ポストプロセッシングモジュールをもって、各前記行ごとの前記車線要素候補群それぞれに一つ以上の予測演算を適用するようにすることにより、それぞれの前記車線要素を検出させるプロセスを遂行するための前記インストラクションを遂行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とするコンピューティング装置。 - 前記(I)プロセスで、
前記プロセッサが、前記ポストプロセッシングモジュールをもって、前記セグメンテーションスコアマップの値を、前記横フィルタマスクを利用して変換することにより前記マグニチュードマップを生成させることを特徴とする請求項11に記載のコンピューティング装置。 - m×nのサイズを有する前記セグメンテーションスコアマップ上の第k行(kは、1以上n以下の整数(Integer)である)内に含まれた値の座標を(x,k)(xは、1以上m以下の整数である)とした場合、前記コンピューティング装置が、前記ポストプロセッシングモジュールをもって、前記マグニチュードマップ上の(x,k)の値を算出して前記セグメンテーションスコアマップと同じ大きさを有する前記マグニチュードマップを生成するようにし、
(i)xが2以上m−1以下の場合、前記横フィルタマスクに含まれた[−1,0,1]値を前記セグメンテーションスコアマップ上の(x−1,k),(x,k)及び(x+1,k)の値にそれぞれ乗じて生成されたそれぞれの要素ごとの乗算結果の要素の合計それぞれを前記マグニチュードマップ上の(x,k)のそれぞれの値とし、
(ii)xが1である場合、前記横フィルタマスクに含まれた[0,1]値をそれぞれ前記セグメンテーションスコアマップ上の(x,k)及び(x+1,k)の値にそれぞれ乗じて生成されたそれぞれの要素ごとの乗算結果の要素の合計を前記マグニチュードマップ上の(x,k)の値とし、
(iii)xがmである場合、前記横フィルタマスクに含まれた[−1,0]値を前記セグメンテーションスコアマップ上の(x−1,k)及び(x,k)の値にそれぞれ乗じて生成されたそれぞれの要素ごとの乗算結果の要素の合計を前記マグニチュードマップ上の(x,k)の値とすることを特徴とする請求項12に記載のコンピューティング装置。 - 前記(II)プロセスで、
前記プロセッサが、前記ポストプロセッシングモジュールをもって、前記セグメンテーションスコアマップの前記行それぞれに対応する前記マグニチュードマップに含まれている値それぞれの絶対値及び符号を参照して、各前記行ごとの前記車線要素候補群それぞれの初期左側境界座標及び初期右側境界座標を検出させることにより各前記行ごとの前記車線要素候補群を決定することを特徴とする請求項11に記載のコンピューティング装置。 - 前記プロセッサが、前記ポストプロセッシングモジュールをもって、それぞれの調整された左側境界座標及びそれぞれの調整された右側境界座標を参照して、各前記行ごとの拡張車線要素候補群それぞれを決定するようにし、前記それぞれの調整された左側境界座標が各前記行ごとの前記車線要素候補群それぞれの中心から離れた距離が、各前記行ごとの前記車線要素候補群それぞれの前記中心からそれぞれの前記初期左側境界座標までの距離の所定の倍数に該当するものと決定し、前記それぞれの調整された右側境界座標が各前記行ごとの前記車線要素候補群それぞれの前記中心から離れた距離が、各前記行ごとの前記車線要素候補群それぞれの前記中心からそれぞれの前記初期右側境界座標までの距離の前記所定の倍数に該当すると決定することを特徴とする請求項14に記載のコンピューティング装置。
- 前記(II)プロセスで、
前記プロセッサが、前記ポストプロセッシングモジュールをもって、前記車線要素候補群それぞれの初期左側境界座標それぞれ及び初期右側境界座標それぞれを検出することにより、各前記行ごとのそれぞれの前記車線要素候補群を決定するようにし、
前記(III)プロセスで、
前記プロセッサが、前記ポストプロセッシングモジュールをもって、各前記行ごとの前記車線要素候補群それぞれに予測演算を適用するようにし、(i)前記各前記行ごとに第1閾値より大きいそれぞれの前記車線要素候補群の前記セグメンテーションスコアマップ上の値の中の最も大きい値それぞれの座標が、各前記行ごとの前記車線要素候補群それぞれの基準座標に決定されるようにし、(ii)それぞれの前記基準座標の左側に、第2閾値に所定範囲内で近接する値それぞれの座標がそれぞれの最終左側境界座標に決定され、それぞれの前記基準座標の右側に、第3閾値に所定範囲内で近接する値それぞれの座標がそれぞれの最終右側境界座標に決定されるようにする、前記予測演算が遂行されることを特徴とする請求項11に記載のコンピューティング装置。 - 前記プロセッサが、前記ポストプロセッシングモジュールをもって、(i)前記セグメンテーションスコアマップの各前記行ごとの前記車線要素候補群それぞれの値の中の前記第1閾値よりも大きい値の座標をそれぞれの基準座標候補群に決定するようにし、(ii)各前記基準座標候補群の値の中の各値の左側又は右側に位置している値より小さい一部の値を除去するプロセスを繰り返すことにより、それぞれの前記基準座標候補群の値の中の最も大きい値をそれぞれ検出して、前記最も大きい値それぞれに対応するそれぞれの座標を各前記行ごとの前記車線候補群それぞれの前記基準座標として決定させることを特徴とする請求項16に記載のコンピューティング装置。
- 前記(II)プロセスで、
前記プロセッサが、前記ポストプロセッシングモジュールをもって、前記車線要素候補群それぞれの初期左側境界座標それぞれ及び初期右側境界座標それぞれを検出することにより、各前記行ごとのそれぞれの前記車線要素候補群を決定するようにし、
前記(III)プロセスで、
前記プロセッサが、前記ポストプロセッシングモジュールをもって、各前記行ごとの前記車線要素候補群それぞれに予測演算を適用するようにし、(i)予め設定された車線幅に対する情報を参照して、前記セグメンテーションスコアマップの各前記行ごとのそれぞれのサンプル幅が決定され、(ii)各前記行ごとの前記車線要素候補群それぞれの、前記セグメンテーションスコアマップ上の値を利用して、それぞれの前記サンプル幅に対応する幅を有するそれぞれのサブグループが生成され、(iii)それぞれの前記サブグループ内に含まれていない、前記セグメンテーションスコアマップ上の値の平均と、それぞれの前記サブグループ内に含まれる、前記セグメンテーションスコアマップ上の値の平均との間のそれぞれの差異が算出され、各前記行ごとのそれぞれの代表サブグループが決定され、(iv)前記代表サブグループそれぞれの左側部分内で、閾値に所定範囲内で近接する値それぞれの座標が最終左側境界座標それぞれとして決定され、前記代表サブグループそれぞれの右側部分内で、前記閾値に所定範囲内で近接する値それぞれの座標が最終右側境界座標それぞれとして決定されるようにする、前記予測演算が遂行されることを特徴とする請求項11に記載のコンピューティング装置。 - 前記(II)プロセスで、
前記プロセッサが、前記ポストプロセッシングモジュールをもって、ぞれぞれの前記車線要素候補群の初期左側境界座標それぞれ及び初期右側境界座標それぞれを検出することにより、各前記行ごとの前記車線要素候補群それぞれを決定するようにし、
前記(III)プロセスで、
前記プロセッサが、前記ポストプロセッシングモジュールをもって、各前記行ごとの前記車線要素候補群それぞれに前記予測演算を適用するようにし、各前記行ごとのそれぞれの前記車線要素候補群の偏差値の合計それぞれが最も大きいそれぞれの最大合計サブアレイ(subarray)が決定され、それぞれの前記最大合計サブアレイ内のそれぞれの最も左側の座標及びそれぞれの最も右側の座標がそれぞれの最終左側境界座標及びそれぞれの最終右側境界座標として決定されるようにする、前記予測演算が遂行されることを特徴とする請求項11に記載のコンピューティング装置。 - 前記(II)プロセスで、
前記プロセッサが、前記ポストプロセッシングモジュールをもって、ぞれぞれの前記車線要素候補群の初期左側境界座標それぞれ及び初期右側境界座標それぞれを検出することにより、各前記行ごとの前記車線要素候補群それぞれを決定するようにし、
前記(III)プロセスで、
前記プロセッサが、前記ポストプロセッシングモジュールをもって、前記セグメンテーションスコアマップに前記予測演算を適用して各前記行ごとの前記車線要素候補群それぞれの最終左側境界座標それぞれ及び最終右側境界座標それぞれを検出するようにし、各前記行ごとの前記車線要素候補群それぞれの前記最終左側境界座標それぞれ及び前記最終右側境界座標それぞれを参照して、それぞれの前記車線要素を生成することを特徴とする請求項11に記載のコンピューティング装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/263,123 US10373004B1 (en) | 2019-01-31 | 2019-01-31 | Method and device for detecting lane elements to plan the drive path of autonomous vehicle by using a horizontal filter mask, wherein the lane elements are unit regions including pixels of lanes in an input image |
US16/263,123 | 2019-01-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020126609A JP2020126609A (ja) | 2020-08-20 |
JP6856852B2 true JP6856852B2 (ja) | 2021-04-14 |
Family
ID=67477497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020004555A Active JP6856852B2 (ja) | 2019-01-31 | 2020-01-15 | 横フィルタマスクを利用して自律走行車の走行経路を計画するために車線要素を検出する方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10373004B1 (ja) |
EP (1) | EP3690706A1 (ja) |
JP (1) | JP6856852B2 (ja) |
KR (1) | KR102224778B1 (ja) |
CN (1) | CN111507154B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110648527B (zh) * | 2019-08-20 | 2021-05-11 | 浙江工业大学 | 一种基于深度学习模型的交通速度预测方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8194927B2 (en) * | 2008-07-18 | 2012-06-05 | GM Global Technology Operations LLC | Road-lane marker detection using light-based sensing technology |
KR101225626B1 (ko) * | 2010-07-19 | 2013-01-24 | 포항공과대학교 산학협력단 | 차선 인식 시스템 및 방법 |
TWI438729B (zh) * | 2011-11-16 | 2014-05-21 | Ind Tech Res Inst | 車道偏移警示方法及系統 |
DE102012111010A1 (de) * | 2012-11-15 | 2014-06-12 | Eads Deutschland Gmbh | Verfahren und Vorrichtung zur bildgestützten Landebahnlokalisierung |
US10410096B2 (en) * | 2015-07-09 | 2019-09-10 | Qualcomm Incorporated | Context-based priors for object detection in images |
CN105260699B (zh) * | 2015-09-10 | 2018-06-26 | 百度在线网络技术(北京)有限公司 | 一种车道线数据的处理方法及装置 |
US9965719B2 (en) * | 2015-11-04 | 2018-05-08 | Nec Corporation | Subcategory-aware convolutional neural networks for object detection |
CN108268866B (zh) * | 2016-12-30 | 2020-07-10 | 纵目科技(上海)股份有限公司 | 一种车辆检测方法和系统 |
US10670416B2 (en) * | 2016-12-30 | 2020-06-02 | DeepMap Inc. | Traffic sign feature creation for high definition maps used for navigating autonomous vehicles |
US10373002B2 (en) * | 2017-03-31 | 2019-08-06 | Here Global B.V. | Method, apparatus, and system for a parametric representation of lane lines |
US10209089B2 (en) * | 2017-04-03 | 2019-02-19 | Robert Bosch Gmbh | Automated image labeling for vehicles based on maps |
US10474908B2 (en) * | 2017-07-06 | 2019-11-12 | GM Global Technology Operations LLC | Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation |
US9947103B1 (en) * | 2017-10-03 | 2018-04-17 | StradVision, Inc. | Learning method and learning device for improving image segmentation and testing method and testing device using the same |
US10223614B1 (en) * | 2018-09-04 | 2019-03-05 | StradVision, Inc. | Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same |
US10229346B1 (en) * | 2018-09-04 | 2019-03-12 | StradVision, Inc. | Learning method, learning device for detecting object using edge image and testing method, testing device using the same |
-
2019
- 2019-01-31 US US16/263,123 patent/US10373004B1/en active Active
- 2019-11-15 KR KR1020190147090A patent/KR102224778B1/ko active IP Right Grant
-
2020
- 2020-01-10 EP EP20151267.0A patent/EP3690706A1/en active Pending
- 2020-01-14 CN CN202010036227.7A patent/CN111507154B/zh active Active
- 2020-01-15 JP JP2020004555A patent/JP6856852B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US10373004B1 (en) | 2019-08-06 |
EP3690706A1 (en) | 2020-08-05 |
KR20200095329A (ko) | 2020-08-10 |
JP2020126609A (ja) | 2020-08-20 |
CN111507154A (zh) | 2020-08-07 |
KR102224778B1 (ko) | 2021-03-08 |
CN111507154B (zh) | 2023-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6853560B2 (ja) | 高精度イメージを分析するディープラーニングネットワークの学習に利用するためのトレーニングイメージをオートラベリングするための方法、及びこれを利用したオートラベリング装置{method for auto−labeling training images for use in deep learning network to analyze images with high precision, and auto−labeling device using the same} | |
KR102337376B1 (ko) | 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP6923960B2 (ja) | 自動駐車システムを提供するために決定地点間の関係及び決定地点に対するリグレッション結果を利用して駐車スペースを検出する学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
JP6935946B2 (ja) | セグメンテーションスコアマップ及びクラスタリングマップを利用して自律走行車の走行経路を計画するための車線を検出するポストプロセッシング方法及び装置 | |
JP6865363B2 (ja) | ラプラシアンピラミッドネットワークを利用して自律走行自動車レベル4及びレベル5を満足させるために要求される道路障害物検出におけるセグメンテーション性能向上のための学習方法及び学習装置、並びにこれを利用したテスト方法及びテスト装置 | |
KR102279376B1 (ko) | CNN(Convolutional Neural Network)을 사용하여 차선을 검출하기 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP7092383B2 (ja) | 各領域において最適化された自律走行を遂行できるように位置基盤アルゴリズムの選択によってシームレスパラメータ変更を遂行する方法及び装置 | |
JP6810415B2 (ja) | 自律走行自動車のレベル4を満たすために領域のクラスに応じてモードを切り換えてグリッドセルごとに重み付けコンボリューションフィルタを利用した監視用イメージセグメンテーション方法及び装置、並びにそれを利用したテスト方法及びテスト装置 | |
JP6869559B2 (ja) | 障害物を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting obstacles and testing method, testing device using the same} | |
JP6869565B2 (ja) | 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} | |
KR102309708B1 (ko) | 인스턴스 세그멘테이션을 이용한 객체의 자세에 따라 모드를 전환할 수 있는 cnn 기반의 수도-3d 바운딩 박스를 검출하는 방법 및 이를 이용한 장치 | |
JP6957050B2 (ja) | モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same} | |
JP2022003508A (ja) | 軌道計画モデルの訓練方法と装置、電子機器、コンピュータ記憶媒体及びコンピュータプログラム | |
KR20200047307A (ko) | 유용한 학습 데이터를 취사 선별하기 위한 cnn 기반 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP6850037B2 (ja) | 自律走行状況で、障害物検出のためのcnn学習用イメージデータセットの生成方法及びコンピューティング装置 | |
JP6910081B2 (ja) | 協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置 | |
KR20200091318A (ko) | 자율주행 자동차의 레벨 4를 충족시키기 위해 요구되는 hd 맵 업데이트에 이용될 적어도 하나의 어댑티브 로스 가중치 맵을 이용한 어텐션 드리븐 이미지 세그먼테이션 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
JP6857369B2 (ja) | Cnnを学習する方法及び学習装置、それを利用したテスト方法及びテスト装置 | |
EP3690756B1 (en) | Learning method and learning device for updating hd map by reconstructing 3d space by using depth estimation information and class information on each object, which have been acquired through v2x information integration technique, and testing method and testing device using the same | |
JP6810432B2 (ja) | 物体の条件に応じてモードを切り換えることができるcnn基盤で軍事目的、スマートフォン又は仮想走行に使用される疑似3dバウンディングボックスを検出する方法及びこれを利用した装置 | |
CN114815810A (zh) | 无人机协同的水上清洁机器人路径规划方法及设备 | |
JP6856852B2 (ja) | 横フィルタマスクを利用して自律走行車の走行経路を計画するために車線要素を検出する方法及び装置 | |
JP6856906B2 (ja) | 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置 | |
Dharmawan et al. | End-to-End Xception model implementation on Carla Self Driving Car in moderate dense environment | |
JP6864891B2 (ja) | 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6856852 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |