JP6865342B2 - Cnn基盤車線検出のための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 - Google Patents
Cnn基盤車線検出のための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 Download PDFInfo
- Publication number
- JP6865342B2 JP6865342B2 JP2019163899A JP2019163899A JP6865342B2 JP 6865342 B2 JP6865342 B2 JP 6865342B2 JP 2019163899 A JP2019163899 A JP 2019163899A JP 2019163899 A JP2019163899 A JP 2019163899A JP 6865342 B2 JP6865342 B2 JP 6865342B2
- Authority
- JP
- Japan
- Prior art keywords
- lane
- pixel
- pixel data
- learning
- test
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012360 testing method Methods 0.000 title claims description 172
- 238000000034 method Methods 0.000 title claims description 100
- 238000010998 test method Methods 0.000 title claims description 5
- 238000001514 detection method Methods 0.000 title description 23
- 230000008569 process Effects 0.000 claims description 71
- 238000012549 training Methods 0.000 claims description 69
- 230000011218 segmentation Effects 0.000 claims description 63
- 238000013527 convolutional neural network Methods 0.000 claims description 39
- 238000004364 calculation method Methods 0.000 claims description 19
- 230000000295 complement effect Effects 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 5
- 238000013135 deep learning Methods 0.000 description 5
- 241000282472 Canis lupus familiaris Species 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241001494479 Pecora Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Description
Claims (28)
- 少なくとも一つの車線を検出するためのCNNの学習方法において、
(a)少なくとも一つのトレーニングイメージが取得されると、学習装置が、前記トレーニングイメージにコンボリューション演算を少なくとも一度適用して、少なくとも一つの特徴マップを生成するようにし、前記特徴マップを用いて生成されたセグメンテーションスコアを参照して推定される車線候補に対する情報を示す車線候補情報を生成する段階;
(b)前記学習装置が、前記トレーニングイメージ内のそれぞれのピクセルに対する前記車線候補の距離に対応する第1データを含む第1ピクセルデータマップを生成し、前記第1データから選択された少なくとも一つのメインサブセットは、前記学習装置がダイレクトリグレッションを用いて、前記第1データにおいて前記トレーニングイメージの行方向と平行な左側の第1方向に沿って前記ピクセルそれぞれの位置それぞれから、これに対応する最も近接した第1車線候補までの距離をそれぞれ計算して生成したそれぞれの値を含み、前記ピクセルそれぞれに対する前記車線候補の距離に対応する第2データを含む第2ピクセルデータマップを生成し、前記第2データから選択された少なくとも一つのメインサブセットは、前記学習装置が前記ダイレクトリグレッションを用いて、前記第2データにおいて前記トレーニングイメージの前記行方向と平行な右側の第2方向に沿って前記ピクセルそれぞれの位置それぞれから、これに対応する最も近接した第2車線候補までの距離をそれぞれ計算して生成したそれぞれの値を含む段階;
(c)前記学習装置が、前記第1ピクセルデータマップ及び前記第2ピクセルデータマップを推論して、前記車線を検出する段階;
を含むことを特徴とする方法。 - 前記第1ピクセルデータマップ及び前記第2ピクセルデータマップにおいて、所定の閾値未満の値を有する前記ピクセルの第1部分に対する情報を参照して前記車線を検出することを特徴とする請求項1に記載の方法。
- 前記(a)段階で、
前記セグメンテーションスコアを参照して、車線候補のない特定の行が少なくとも一つ存在すると判断される場合、前記学習装置が、前記特定の行または前記特定の行より上部に存在する少なくとも一つのピクセルには第1値を割り当て、前記特定の行の下部に存在する少なくとも一つのピクセルには第2値を割り当てて、第3ピクセルデータマップを生成するようにし、
前記(c)段階では、
前記第1ピクセルデータマップ、前記第2ピクセルデータマップ及び前記第3ピクセルデータマップを推論して、前記車線を検出することを特徴とする請求項1に記載の方法。 - (i)前記第1ピクセルデータマップ及び前記第2ピクセルデータマップにおいて、所定の閾値未満の値を有する前記ピクセルの第1部分と(ii)前記第3ピクセルデータマップにおいて、前記特定の行の下部に存在する前記ピクセルの第2部分との積集合に対する情報を参照して前記車線を検出することを特徴とする請求項3に記載の方法。
- 前記第1値は、背景を意味する0に設定されることを特徴とする請求項3に記載の方法。
- 前記学習方法は、
(d)前記学習装置が、前記第1ピクセルデータマップに対応する少なくとも一つの第1GT(Ground Truth)を参考として少なくとも一つの第1ロスを算出するプロセス、前記第2ピクセルデータマップに対応する少なくとも一つの第2GT(Ground Truth)を参考にして少なくとも一つの第2ロスを算出するプロセス、前記第3ピクセルデータマップに対応する少なくとも一つの第3GT(Ground Truth)を参考にして少なくとも一つの第3ロスを算出するプロセス、及び前記第1ロス、前記第2ロス及び前記第3ロスをバックプロパゲーションするプロセスを遂行し、前記CNNのパラメータを学習する段階;
をさらに含むことを特徴とする請求項3に記載の方法。 - 前記ダイレクトリグレッションによって前記それぞれの距離を計算して生成された前記それぞれの値は、前記ピクセルそれぞれの前記位置それぞれから、これに対応する最も近接した第1車線候補までの前記第1方向へのピクセル距離それぞれ及び前記ピクセルそれぞれの前記位置それぞれから、これに対応する最も近接した第2車線候補までの前記第2方向へのピクセル距離それぞれの中の一つを示すことを特徴とする請求項1に記載の方法。
- 距離に対する計算を必要としない、前記第1データの前記メインサブセット以外の前記第1データの補完的なサブセットには無限大の値が割り当てられることを特徴とする請求項1に記載の方法。
- 少なくとも一つの車線を検出するためのCNNのテスト方法において、
(a)学習装置が(i)少なくとも一つのトレーニングイメージにコンボリューション演算を少なくとも一度適用して少なくとも一つの学習用特徴マップを生成するようにし、前記学習用特徴マップを用いて生成された学習用セグメンテーションスコアを参照して推定される車線候補に対する情報を示す学習用車線候補情報を生成するプロセス、(ii)前記トレーニングイメージ内のそれぞれのピクセルに対する前記車線候補の距離に対応する学習用第1データを含む学習用第1ピクセルデータマップを生成し、前記学習用第1データから選択された少なくとも一つのメインサブセットは、前記学習装置がダイレクトリグレッションを用いて、前記学習用第1データにおいて前記トレーニングイメージの行方向と平行な左側の第1方向に沿って前記ピクセルそれぞれの位置それぞれから、これに対応する最も近接した学習用第1車線候補までの距離をそれぞれ計算して生成したそれぞれの値を含み、前記ピクセルそれぞれに対する前記車線候補の距離に対応する学習用第2データを含む学習用第2ピクセルデータマップを生成し、前記学習用第2データから選択された少なくとも一つのメインサブセットは、前記学習装置が前記ダイレクトリグレッションを用いて、前記学習用第2データにおいて前記トレーニングイメージの前記行方向と平行な右側の第2方向に沿って前記ピクセルそれぞれの位置それぞれから、これに対応する最も近接した学習用第2車線候補までの距離をそれぞれ計算して生成したそれぞれの値を含むプロセス、(iii)前記学習用第1ピクセルデータマップ及び前記学習用第2ピクセルデータマップを推論して前記車線を検出するプロセス、及び(iv)前記学習用第1ピクセルデータマップに対応する少なくとも一つの第1GT(Ground Truth)を参考にして少なくとも一つの第1ロスを算出し、前記学習用第2ピクセルデータマップに対応する少なくとも一つの第2GT(Ground Truth)を参考にして少なくとも一つの第2ロスを算出し、前記第1ロス及び前記第2ロスをバックプロパゲーションして前記CNNの少なくとも一つのパラメータを学習するプロセスを遂行した状態で、テスト装置が少なくとも一つのテストイメージを取得する段階;
(b)前記テスト装置が、前記テストイメージにコンボリューション演算を少なくとも一度適用して、少なくとも一つのテスト用特徴マップを生成するようにし、前記テスト用特徴マップを用いて生成されたテスト用セグメンテーションスコアを参照して推定される車線候補に対する情報を示すテスト用車線候補情報を生成する段階;
(c)前記テスト装置が、前記テストイメージ内のそれぞれのピクセルに対する前記車線候補の距離に対応するテスト用第1データを含むテスト用第1ピクセルデータマップを生成し、前記テスト用第1データから選択された少なくとも一つのメインサブセットは、前記テスト装置がダイレクトリグレッションを用いて、前記テスト用第1データにおいて前記第1方向に沿って前記ピクセルそれぞれの位置それぞれから、これに対応する最も近接したテスト用第1車線候補までの距離をそれぞれ計算して生成したそれぞれの値を含み、前記ピクセルそれぞれに対する前記車線候補の距離に対応するテスト用第2データを含むテスト用第2ピクセルデータマップを生成し、前記テスト用第2データから選択された少なくとも一つのメインサブセットは、前記テスト装置が前記ダイレクトリグレッションを用いて、前記テスト用第2データにおいて前記第2方向に沿って前記ピクセルそれぞれの位置それぞれから、これに対応する最も近接したテスト用第2車線候補までの距離をそれぞれ計算して生成したそれぞれの値を含む段階;及び、
(d)前記テスト装置が、前記テスト用第1ピクセルデータマップ及び前記テスト用第2ピクセルデータマップを推論して、前記車線を検出する段階;
を含むことを特徴とする方法。 - 前記テスト用第1ピクセルデータマップ及び前記テスト用第2ピクセルデータマップにおいて、所定の閾値未満の値を有する前記ピクセルの第1部分に対する情報を参照して前記車線を検出することを特徴とする請求項9に記載の方法。
- 前記(b)段階で、
前記テスト用セグメンテーションスコアを参照して、車線候補のない特定の行が少なくとも一つ存在すると判断される場合、前記テスト装置が、前記特定の行または前記特定の行より上部に存在する少なくとも一つのピクセルには第1値を割り当て、前記特定の行の下部に存在する少なくとも一つのピクセルには第2値を割り当ててテスト用第3ピクセルデータマップを生成するようにし、
前記(d)段階では、
前記テスト用第1ピクセルデータマップ、前記テスト用第2ピクセルデータマップ及び前記テスト用第3ピクセルデータマップを推論して、前記車線を検出することを特徴とする請求項9に記載の方法。 - (i)前記テスト用第1ピクセルデータマップ及び前記テスト用第2ピクセルデータマップにおいて、所定の閾値未満の値を有する前記ピクセルの第1部分と(ii)前記テスト用第3ピクセルデータマップにおいて、前記特定の行の下部に存在する前記ピクセルの第2部分との積集合に対する情報を参照して前記車線を検出することを特徴とする請求項11に記載の方法。
- 前記ダイレクトリグレッションによって前記それぞれの距離を計算して生成された前記それぞれの値は、前記ピクセルそれぞれの前記位置それぞれから、これに対応する最も近接したテスト用第1車線候補までの前記第1方向へのピクセル距離それぞれ及び前記ピクセルそれぞれの前記位置それぞれから、これに対応する最も近接したテスト用第2車線候補までの前記第2方向へのピクセル距離それぞれの中の一つを示すことを特徴とする請求項9に記載の方法。
- 距離に対する計算を必要としない、前記テスト用第1データの前記メインサブセット以外の前記テスト用第1データの補完的なサブセットには無限大の値が割り当てられることを特徴とする請求項9に記載の方法。
- 少なくとも一つの車線を検出するためのCNNの学習装置において、
少なくとも一つのトレーニングイメージを取得するための通信部;及び
(I)前記トレーニングイメージにコンボリューション演算を少なくとも一度適用して、少なくとも一つの特徴マップを生成するようにし、前記特徴マップを用いて生成されたセグメンテーションスコアを参照して推定される車線候補に対する情報を示す車線候補情報を生成するプロセス、(II)前記トレーニングイメージ内のそれぞれのピクセルに対する前記車線候補の距離対応する第1データを含む第1ピクセルデータマップを生成し、前記第1データから選択された少なくとも一つのメインサブセットは、前記学習装置がダイレクトリグレッションを用いて、前記第1データにおいて前記トレーニングイメージの行方向と平行な左側の第1方向に沿って前記ピクセルそれぞれの位置それぞれから、これに対応する最も近接した第1車線候補までの距離をそれぞれ計算して生成したそれぞれの値を含み、前記ピクセルそれぞれに対する前記車線候補の距離に対応する第2データを含む第2ピクセルデータマップを生成し、前記第2データから選択された少なくとも一つのメインサブセットは、前記学習装置が前記ダイレクトリグレッションを用いて、前記第2データにおいて前記トレーニングイメージの前記行方向と平行な右側の第2方向に沿って前記ピクセルそれぞれの位置それぞれから、これに対応する最も近接した第2車線候補までの距離をそれぞれ計算して生成したそれぞれの値を含むプロセス、及び(III)前記第1ピクセルデータマップ及び前記第2ピクセルデータマップを推論して、前記車線を検出するプロセスを遂行するプロセッサ;
を含むことを特徴とする装置。 - 前記第1ピクセルデータマップ及び前記第2ピクセルデータマップにおいて、所定の閾値未満の値を有する前記ピクセルの第1部分に対する情報を参照して前記車線を検出することを特徴とする請求項15に記載の装置。
- 前記(I)プロセスで、
前記セグメンテーションスコアを参照して、車線候補のない特定の行が少なくとも一つ存在すると判断される場合、前記プロセッサが、前記特定の行または前記特定の行より上部に存在する少なくとも一つのピクセルには第1値を割り当て、前記特定の行の下部に存在する少なくとも一つのピクセルには第2値を割り当てて第3ピクセルデータマップを生成するようにし、
前記(III)プロセスでは、
前記第1ピクセルデータマップ、前記第2ピクセルデータマップ及び前記第3ピクセルデータマップを推論して、前記車線を検出することを特徴とする請求項15に記載の装置。 - (i)前記第1ピクセルデータマップ及び前記第2ピクセルデータマップにおいて、所定の閾値未満の値を有する前記ピクセルの第1部分と(ii)前記第3ピクセルデータマップにおいて、前記特定の行の下部に存在する前記ピクセルの第2部分との積集合に対する情報を参照して前記車線を検出することを特徴とする請求項17に記載の装置。
- 前記第1値は、背景を意味する0に設定されることを特徴とする請求項17に記載の装置。
- 前記プロセッサは、
(IV)前記第1ピクセルデータマップに対応する少なくとも一つの第1GT(Ground Truth)を参考にして少なくとも一つの第1ロスを算出するプロセス、前記第2ピクセルデータマップに対応する少なくとも一つの第2GT(Ground Truth)を参考にして少なくとも一つの第2ロスを算出するプロセス、前記第3ピクセルデータマップに対応する少なくとも一つの第3GT(Ground Truth)を参考にして少なくとも一つの第3ロスを算出するプロセス、及び前記第1ロス、前記第2ロス及び前記第3ロスをバックプロパゲーションするプロセスを遂行し、前記CNNのパラメータを学習するプロセス
をさらに遂行することを特徴とする請求項17に記載の装置。 - 前記ダイレクトリグレッションによって前記それぞれの距離を計算して生成された前記それぞれの値は、前記ピクセルそれぞれの前記位置それぞれから、これに対応する最も近接した第1車線候補までの前記第1方向へのピクセル距離それぞれ及び前記ピクセルそれぞれの前記位置それぞれから、これに対応する最も近接した第2車線候補までの前記第2方向へのピクセル距離それぞれの中の一つを示すことを特徴とする請求項15に記載の装置。
- 距離に対する計算を必要としない、前記第1データの前記メインサブセット以外の前記第1データの補完的なサブセットには無限大の値が割り当てられることを特徴とする請求項15に記載の装置。
- 少なくとも一つの車線を検出するためのCNNのテスト装置において、
学習装置が(i)少なくとも一つのトレーニングイメージにコンボリューション演算を少なくとも一度適用して少なくとも一つの学習用特徴マップを生成するようにし、前記学習用特徴マップを用いて生成された学習用セグメンテーションスコアを参照して推定される車線候補に対する情報を示す学習用車線候補情報を生成するプロセス、(ii)前記トレーニングイメージ内のそれぞれのピクセルに対する前記車線候補の距離に対応する学習用第1データを含む学習用第1ピクセルデータマップを生成し、前記学習用第1データから選択された少なくとも一つのメインサブセットは、前記学習装置がダイレクトリグレッションを用いて、前記学習用第1データにおいて前記トレーニングイメージの行方向と平行な左側の第1方向に沿って前記ピクセルそれぞれの位置それぞれから、これに対応する最も近接した学習用第1車線候補までの距離をそれぞれ計算して生成したそれぞれの値を含み、前記ピクセルそれぞれに対する前記車線候補の距離に対応する学習用第2データを含む学習用第2ピクセルデータマップを生成し、前記学習用第2データから選択された少なくとも一つのメインサブセットは、前記学習装置が前記ダイレクトリグレッションを用いて、前記学習用第2データにおいて前記トレーニングイメージの前記行方向と平行な右側の第2方向に沿って前記ピクセルそれぞれの位置それぞれから、これに対応する最も近接した学習用第2車線候補までの距離をそれぞれ計算して生成したそれぞれの値を含むプロセス、(iii)前記学習用第1ピクセルデータマップ及び前記学習用第2ピクセルデータマップを推論して前記車線を検出するプロセス、及び(iv)前記1ピクセルデータマップに対応する少なくとも一つの第1GT(Ground Truth)を参考にして少なくとも一つの第1ロスを算出し、前記第2ピクセルデータマップに対応する少なくとも一つの第2GT(Ground Truth)を参考にして少なくとも一つの第2ロスを算出し、前記第1ロス及び前記第2ロスをバックプロパゲーションして前記CNNの少なくとも一つのパラメータを学習するプロセスを遂行した状態で、少なくとも一つのテストイメージを取得するための通信部;及び
(I)前記テストイメージにコンボリューション演算を少なくとも一度適用して、少なくとも一つのテスト用特徴マップを生成するようにし、前記テスト用特徴マップを用いて生成されたテスト用セグメンテーションスコアを参照して推定される車線候補に対する情報を示すテスト用車線候補情報を生成するプロセス;(II)前記テストイメージ内のそれぞれのピクセルに対する前記車線候補の距離に対応するテスト用第1データを含むテスト用第1ピクセルデータマップを生成し、前記テスト用第1データから選択された少なくとも一つのメインサブセットは、前記学習装置がダイレクトリグレッションを用いて、前記テスト用第1データにおいて前記トレーニングイメージの行方向と平行な前記第1方向に沿って前記ピクセルそれぞれの位置それぞれから、これに対応する最も近接したテスト用第1車線候補までの距離をそれぞれ計算して生成したそれぞれの値を含み、前記ピクセルそれぞれに対する前記車線候補の距離に対応するテスト用第2データを含むテスト用第2ピクセルデータマップを生成し、前記テスト用第2データから選択された少なくとも一つのメインサブセットは、前記学習装置が前記ダイレクトリグレッションを用いて、前記テスト用第2データにおいて前記テストイメージの前記行方向と平行な前記第2方向に沿って前記ピクセルそれぞれの位置それぞれから、これに対応する最も近接したテスト用第2車線候補までの距離をそれぞれ計算して生成したそれぞれの値を含むプロセス;及び(III)前記テスト用第1ピクセルデータマップ及び前記テスト用第2ピクセルデータマップを推論して、前記車線を検出するプロセス;を遂行するプロセッサ;
を含むことを特徴とする装置。 - 前記テスト用第1ピクセルデータマップ及び前記テスト用第2ピクセルデータマップにおいて、所定の閾値未満の値を有する前記ピクセルの第1部分に対する情報を参照して前記車線を検出することを特徴とする請求項23に記載の装置。
- 前記(II)プロセスで、
前記テスト用セグメンテーションスコアを参照して、車線候補のない特定の行が少なくとも一つ存在すると判断される場合、前記プロセッサが、前記特定の行または前記特定の行より上部に存在する少なくとも一つのピクセルには第1値を割り当て、前記特定の行の下部に存在する少なくとも一つのピクセルには第2値を割り当てるテスト用第3ピクセルデータマップを生成するようにし、
前記(III)プロセスでは、
前記テスト用第1ピクセルデータマップ、前記テスト用第2ピクセルデータマップ及び前記テスト用第3ピクセルデータマップを推論して、前記車線を検出することを特徴とする請求項23に記載の装置。 - (i)前記テスト用第1ピクセルデータマップ及び前記テスト用第2ピクセルデータマップにおいて、所定の閾値未満の値を有する前記ピクセルの第1部分と(ii)前記テスト用第3ピクセルデータマップにおいて、前記特定の行の下部に存在する前記ピクセルの第2部分との積集合に対する情報を参照して前記車線を検出することを特徴とする請求項25に記載の装置。
- 前記ダイレクトリグレッションによって前記それぞれの距離を計算して生成された前記それぞれの値は、前記ピクセルそれぞれの前記位置それぞれから、これに対応する最も近接したテスト用第1車線候補までの前記第1方向へのピクセル距離それぞれ及び前記ピクセルそれぞれの前記位置それぞれから、これに対応する最も近接したテスト用第2車線候補までの前記第2方向へのピクセル距離それぞれの中の一つを示すことを特徴とする請求項23に記載の装置。
- 距離に対する計算を必要としない、前記テスト用第1データの前記メインサブセット以外の前記テスト用第1データの補完的なサブセットには無限大の値が割り当てられることを特徴とする請求項23に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/132,368 | 2018-09-15 | ||
US16/132,368 US10311338B1 (en) | 2018-09-15 | 2018-09-15 | Learning method, learning device for detecting lanes on the basis of CNN and testing method, testing device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020047272A JP2020047272A (ja) | 2020-03-26 |
JP6865342B2 true JP6865342B2 (ja) | 2021-04-28 |
Family
ID=66439914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019163899A Active JP6865342B2 (ja) | 2018-09-15 | 2019-09-09 | Cnn基盤車線検出のための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10311338B1 (ja) |
EP (1) | EP3623991B1 (ja) |
JP (1) | JP6865342B2 (ja) |
KR (1) | KR102309705B1 (ja) |
CN (1) | CN110909588B (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210061839A (ko) * | 2019-11-20 | 2021-05-28 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN112654997B (zh) * | 2020-10-22 | 2022-04-29 | 华为技术有限公司 | 一种车道线检测方法和装置 |
US11250298B1 (en) * | 2021-03-26 | 2022-02-15 | Stradavision, Inc. | Methods for training and testing perception network by using images obtained from multiple imaging devices having diverse specifications and learning device and testing device using the same |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101225626B1 (ko) * | 2010-07-19 | 2013-01-24 | 포항공과대학교 산학협력단 | 차선 인식 시스템 및 방법 |
US9081385B1 (en) * | 2012-12-21 | 2015-07-14 | Google Inc. | Lane boundary detection using images |
JP6483446B2 (ja) * | 2015-01-15 | 2019-03-13 | トヨタ自動車株式会社 | 複合線判定装置及び複合線判定方法 |
JP6426512B2 (ja) * | 2015-03-17 | 2018-11-21 | 株式会社Soken | 走行区画線認識装置 |
CN105046235B (zh) * | 2015-08-03 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 车道线的识别建模方法和装置、识别方法和装置 |
CN105260699B (zh) * | 2015-09-10 | 2018-06-26 | 百度在线网络技术(北京)有限公司 | 一种车道线数据的处理方法及装置 |
WO2017043067A1 (ja) * | 2015-09-11 | 2017-03-16 | 富士フイルム株式会社 | 走行支援装置及び走行支援装置による走行支援方法 |
US10102434B2 (en) * | 2015-12-22 | 2018-10-16 | Omnivision Technologies, Inc. | Lane detection system and method |
KR102628654B1 (ko) * | 2016-11-07 | 2024-01-24 | 삼성전자주식회사 | 차선을 표시하는 방법 및 장치 |
JP6678605B2 (ja) * | 2017-01-11 | 2020-04-08 | 株式会社東芝 | 情報処理装置、情報処理方法、および情報処理プログラム |
CN107730881A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的交通拥堵视觉检测系统 |
KR102499398B1 (ko) * | 2017-08-09 | 2023-02-13 | 삼성전자 주식회사 | 차선 검출 방법 및 장치 |
US9934440B1 (en) * | 2017-10-04 | 2018-04-03 | StradVision, Inc. | Method for monitoring blind spot of monitoring vehicle and blind spot monitor using the same |
US9947228B1 (en) * | 2017-10-05 | 2018-04-17 | StradVision, Inc. | Method for monitoring blind spot of vehicle and blind spot monitor using the same |
CN109858309B (zh) * | 2017-11-30 | 2021-04-20 | 东软睿驰汽车技术(上海)有限公司 | 一种识别道路线的方法和装置 |
US10023204B1 (en) * | 2017-12-01 | 2018-07-17 | StradVision, Inc. | Driving assisting method and driving assisting device using the same |
US10528824B2 (en) * | 2017-12-11 | 2020-01-07 | GM Global Technology Operations LLC | Artificial neural network for lane feature classification and localization |
CN109117825B (zh) * | 2018-09-04 | 2020-01-17 | 百度在线网络技术(北京)有限公司 | 车道线处理方法和装置 |
-
2018
- 2018-09-15 US US16/132,368 patent/US10311338B1/en active Active
-
2019
- 2019-05-06 EP EP19172864.1A patent/EP3623991B1/en active Active
- 2019-08-27 KR KR1020190105480A patent/KR102309705B1/ko active IP Right Grant
- 2019-08-29 CN CN201910807547.5A patent/CN110909588B/zh active Active
- 2019-09-09 JP JP2019163899A patent/JP6865342B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
EP3623991A1 (en) | 2020-03-18 |
EP3623991B1 (en) | 2022-06-29 |
KR102309705B1 (ko) | 2021-10-08 |
US10311338B1 (en) | 2019-06-04 |
CN110909588A (zh) | 2020-03-24 |
JP2020047272A (ja) | 2020-03-26 |
KR20200031994A (ko) | 2020-03-25 |
CN110909588B (zh) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6847464B2 (ja) | 車線候補ピクセルを分類して車線を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane through classifying lane candidate pixels and test method, test device using the same} | |
JP6908939B2 (ja) | 障害物の下段ラインを基準にroiを検出する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting roi on the basis of bottom lines of obstacles and testing method,testing device using the same} | |
JP6886202B2 (ja) | 仮想走行の環境で使用されるドメイン適応に適用され得るganを利用して、リアル特徴マップと同一または類似する特性を有するバーチャル特徴マップを生成する学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 | |
JP6847463B2 (ja) | CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME} | |
JP6869562B2 (ja) | トラッキングネットワークを含むcnnを使用して物体をトラッキングする方法、及びそれを利用した装置{method for tracking object by using convolutional neural network including tracking network and computing device using the same} | |
JP6895693B2 (ja) | レーンマスク(Lane Mask)を使用して後処理なしに入力イメージに含まれた一つ以上の車線を検出する方法及び装置、並びにそれを利用したテスト方法及びテスト装置{METHOD AND DEVICE FOR LANE DETECTION WITHOUT POST−PROCESSING BY USING LANE MASK, AND TESTING METHOD, AND TESTING DEVICE USING THE SAME} | |
EP3405845B1 (en) | Object-focused active three-dimensional reconstruction | |
JP6980289B2 (ja) | 車線モデルを利用して車線を検出し得る学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane using lane model and test method, test device using the same} | |
JP6869565B2 (ja) | 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} | |
JP6875021B2 (ja) | 有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6865342B2 (ja) | Cnn基盤車線検出のための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6846062B2 (ja) | 近接障害物の下段ライン及び上段ラインを検出し、物体存在性を検出する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting objectness by detecting bottom line and top line of nearest obstacles and testing method, testing device using the same} | |
JP6869559B2 (ja) | 障害物を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting obstacles and testing method, testing device using the same} | |
JP6856952B2 (ja) | 複数のビデオフレームを利用してcnnのパラメータを最適化するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6867054B2 (ja) | マルチカメラシステム内のダブルエンベディング構成を利用して、道路利用者イベントを検出するために用いられるセグメンテーション性能向上のための学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置。{learning method and learning device for improving segmentation performance to be used for detecting road user events using double embedding configuration in multi−camera system and testing method and testing device using the same} | |
JP6910081B2 (ja) | 協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置 | |
JP6903352B2 (ja) | 非最大値抑制を学習する併合ネットワークを利用した異種センサ融合のための学習方法及び学習装置{learning method and learning device for heterogeneous sensor fusion by using merging network which learns non−maximum suppression} | |
JP6979707B2 (ja) | リグレッションロス(Regression loss)を利用した学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE USING REGRESSION LOSS AND TESTING METHOD, TESTING DEVICE USING THE SAME} | |
JP6853543B2 (ja) | 自律走行に対する論理的根拠を提示するために、管理者が物体検出器の検出プロセスを評価できるように支援する方法及び装置 | |
KR20200091791A (ko) | 하드웨어 최적화에 쓰이는 1x1 컨벌루션을 이용한 CNN 기반의 객체 검출기를 학습하는 방법 및 학습 장치, 이를 이용한 테스트 장치 및 테스트 장치 | |
Sevastopoulos et al. | Depth-guided Free-space Segmentation for a Mobile Robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210225 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6865342 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |