JP6847464B2 - 車線候補ピクセルを分類して車線を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane through classifying lane candidate pixels and test method, test device using the same} - Google Patents
車線候補ピクセルを分類して車線を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane through classifying lane candidate pixels and test method, test device using the same} Download PDFInfo
- Publication number
- JP6847464B2 JP6847464B2 JP2019160095A JP2019160095A JP6847464B2 JP 6847464 B2 JP6847464 B2 JP 6847464B2 JP 2019160095 A JP2019160095 A JP 2019160095A JP 2019160095 A JP2019160095 A JP 2019160095A JP 6847464 B2 JP6847464 B2 JP 6847464B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- learning
- lane
- line
- strong line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012360 testing method Methods 0.000 title claims description 155
- 238000000034 method Methods 0.000 title claims description 135
- 238000010998 test method Methods 0.000 title claims description 8
- 230000011218 segmentation Effects 0.000 claims description 66
- 238000001514 detection method Methods 0.000 claims description 29
- 238000012549 training Methods 0.000 claims description 23
- 238000013527 convolutional neural network Methods 0.000 claims description 15
- 238000004891 communication Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 241000282472 Canis lupus familiaris Species 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241001494479 Pecora Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Description
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]
CNN(Convolutional Neural Network)基盤の、少なくとも一つの車線検出のための学習方法において、
(a)入力イメージが取得されると、学習装置がエンコーディングレイヤをもって前記入力イメージに少なくとも一度コンボリューション演算を適用するようにして少なくとも一つのエンコード済み特徴マップを取得し、デコーディングレイヤをもって前記エンコーディングレイヤから出力された特定エンコード済み特徴マップに少なくとも一度デコンボリューション演算を適用するようにして、前記入力イメージ内の少なくとも一つの車線候補ピクセルに対する情報を含むセグメンテーションの結果を取得する段階;
(b)前記学習装置が、前記車線候補ピクセルそれぞれに該当する確率スコアそれぞれを、予め設定してある第1閾値及び前記第1閾値より小さい予め設定してある第2閾値と比較して、前記車線候補ピクセルの少なくとも一つの第1部分の少なくとも一つの確率スコアが前記第1閾値以上なら、前記車線候補ピクセルの前記第1部分を少なくとも一つの第1ストロングライン(Strong Line)に該当するピクセルとして分類し、前記車線候補ピクセルの少なくとも一つの第2部分の少なくとも一つの確率スコアが前記第1閾値未満で前記第2閾値以上なら、前記第2部分を少なくとも一つのウィークライン(Weak Line)に該当するピクセルとして分類する段階;及び
(c)前記学習装置が、(i)前記ウィークラインに該当する前記ピクセルの中の少なくとも一つの特定ピクセルと(ii)前記第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離の少なくとも一つの値が予め設定してある第1距離未満である場合、前記特定ピクセルを追加ストロングラインに該当するピクセルとして分類し、前記第1ストロングラインに該当する前記ピクセルと前記追加ストロングラインに該当する前記ピクセルとが前記車線に該当するピクセルに対応するものと判断する段階;
を含むことを特徴とする学習方法。
[2]
前記(c)段階の後に、
前記学習装置は、(i)前記ウィークラインに該当する前記ピクセルの中の少なくとも一つの所定ピクセルと(ii)前記追加ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離の少なくとも一つの値が予め設定してある第2距離未満である場合、前記所定ピクセルを前記追加ストロングラインに該当するピクセルとして分類するプロセスを遂行し、前記追加ストロングラインに該当するピクセルとして分類され得る所定ピクセルがなくなるまで前記プロセスを繰り返した後、前記第1ストロングラインに該当する前記ピクセル及び前記追加ストロングラインに該当する前記ピクセルが前記車線に該当する前記ピクセルに対応すると判断することを特徴とする[1]に記載の学習方法。
[3]
前記(c)段階において、
(c1)(i)前記ウィークラインに該当する前記ピクセルの中の前記特定ピクセルと(ii)前記第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離が前記予め設定してある第1距離未満である場合、前記学習装置が前記特定ピクセルを前記追加ストロングラインに該当する前記ピクセルとして分類する段階;
(c2)(i)前記ウィークラインに該当する前記ピクセルの中の前記所定ピクセルと(ii)前記追加ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離が前記予め設定してある第2距離未満である場合、前記学習装置が前記所定ピクセルを前記追加ストロングラインに該当する前記ピクセルとして分類する段階;及び
(c3)前記学習装置が、前記追加ストロングラインに該当するピクセルとして分類され得る所定ピクセルがなくなるまで前記(c2)段階を繰り返した後、前記第1ストロングラインに該当する前記ピクセル及び前記追加ストロングラインに該当するピクセルを前記車線に該当する前記ピクセルとして判断する段階;
を含むことを特徴とする[2]に記載の学習方法。
[4]
前記(c)段階において、
前記学習装置が、前記第1ストロングラインに該当する前記ピクセルに対応する車線の方向に関する情報を参照して、前記ウィークラインに該当する前記ピクセルそれぞれが前記追加ストロングラインに該当する前記ピクセルに分類されているか否かを判断し、
前記第1ストロングラインに該当する前記ピクセルが前記入力イメージ内で特定の角度の方向に群がっていると判断されれば、(I)前記ウィークラインに該当する前記ピクセルの第1部分が前記方向から予め設定してある角度以内にあれば、前記学習装置が前記第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルから第1ピクセル距離内に前記ウィークラインに該当する前記ピクセルの前記第1部分が存在するか否かを判断し、(II)前記ウィークラインに該当する前記ピクセルの第2部分が前記方向から前記予め設定してある角度以内に存在しなければ、前記学習装置が前記第1ストロングラインに該当する前記ピクセルの少なくとも一部から第2ピクセル距離内に前記ウィークラインに該当する前記ピクセルの前記第2部分が存在するか否かを判断することを特徴としており、
前記第2ピクセルの距離は、前記第1ピクセル距離より小さいことを特徴とする[2]に記載の学習方法。
[5]
前記(c)段階において、
前記学習装置が、多項式フィッティング(Polynomial Fitting)アルゴリズム又はスプラインフィッティング(Spline Fitting)アルゴリズムを利用して、前記第1ストロングライン及び前記追加ストロングラインに該当する前記ピクセルに対応する前記車線を検出することを特徴とする[1]に記載の学習方法。
[6]
前記予め設定してある第1距離は、2つの最も近いピクセル間の距離であることを特徴とする[1]に記載の学習方法。
[7]
前記予め設定してある第1距離は、所定ピクセルと前記所定ピクセルから第nピクセル距離分だけ離れているピクセルとの間の距離であることを特徴とする[1]に記載の学習方法。
[8]
(d)前記学習装置が、検出された前記車線とGT(Ground Truth)車線とを参照にしてセグメンテーションロス(Segmentation Loss)を算出する段階;及び
(e)前記学習装置が、前記セグメンテーションロスを用いてバックプロパゲーション(Backpropagation)を遂行することで、前記CNNの少なくとも一つのパラメータを最適化する段階;
をさらに含むことを特徴とする[1]に記載の学習方法。
[9]
CNN(Convolutional Neural Network)基盤の、少なくとも一つの車線検出のためのテスト方法において、
(a)(I)学習装置がエンコーディングレイヤをもってトレーニングイメージに少なくとも一度コンボリューション演算を適用するようにして少なくとも一つの学習用エンコード済み特徴マップを取得し、デコーディングレイヤをもって前記エンコーディングレイヤから出力された特定学習用エンコード済み特徴マップに少なくとも一度デコンボリューション演算を適用するようにして、前記トレーニングイメージ内の少なくとも一つの学習用車線候補ピクセルに対する情報を含む学習用セグメンテーションの結果を取得するプロセス、(II)前記学習装置が、前記学習用車線候補ピクセルそれぞれに該当する確率スコアそれぞれを、予め設定してある第1閾値及び前記第1閾値より小さい予め設定してある第2閾値と比較して、前記学習用車線候補ピクセルの少なくとも一つの第1部分の少なくとも一つの確率スコアが前記第1閾値以上なら、前記学習用車線候補ピクセルの前記第1部分を少なくとも一つの学習用第1ストロングライン(Strong Line)に該当するピクセルとして分類し、前記学習用車線候補ピクセルの少なくとも一つの第2部分の少なくとも一つの確率スコアが前記第1閾値未満で前記第2閾値以上なら、前記第2部分を少なくとも一つの学習用ウィークライン(Weak Line)に該当するピクセルとして分類するプロセス、(III)前記学習装置が、(i)前記学習用ウィークラインに該当する前記ピクセルの中の少なくとも一つの特定ピクセルと(ii)前記学習用第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離の少なくとも一つの値が予め設定してある第1距離未満である場合、前記特定ピクセルを少なくとも一つの学習用追加ストロングラインに該当するピクセルとして分類し、前記学習用第1ストロングラインに該当する前記ピクセルと前記学習用追加ストロングラインに該当する前記ピクセルとが前記車線に該当するピクセルに対応するものと判断するプロセス;(IV)前記学習装置が、検出された前記車線とGT(Ground Truth)車線とを参照にしてセグメンテーションロス(Segmentation Loss)を算出するプロセス;及び(V)前記学習装置が、前記セグメンテーションロスを用いてバックプロパゲーション(Backpropagation)を遂行することで、前記学習装置の少なくとも一つのパラメータを最適化するプロセスを遂行した状態で、テスト装置がテストイメージを取得する段階;
(b)前記テスト装置が、前記エンコーディングレイヤをもって前記テストイメージに少なくとも一度コンボリューション演算を適用するようにして少なくとも一つのテスト用エンコード済み特徴マップを取得し、前記デコーディングレイヤをもって前記エンコーディングレイヤから出力された特定テスト用エンコード済み特徴マップに少なくとも一度デコンボリューション演算を適用するようにして、前記テストイメージ内の少なくとも一つのテスト用車線候補ピクセルに対する情報を含むテスト用セグメンテーションの結果を取得する段階;
(c)前記テスト装置が、前記テスト用車線候補ピクセルそれぞれに該当する確率スコアそれぞれを、予め設定してある第1閾値及び前記第1閾値より小さい予め設定してある第2閾値と比較して、前記テスト用車線候補ピクセルの少なくとも一つの第1部分の少なくとも一つの確率スコアが前記第1閾値以上なら、前記テスト用車線候補ピクセルの前記第1部分を少なくとも一つのテスト用第1ストロングライン(Strong Line)に該当するピクセルとして分類し、前記テスト用車線候補ピクセルの少なくとも一つの第2部分の少なくとも一つの確率スコアが前記第1閾値未満で前記第2閾値以上なら、前記第2部分を少なくとも一つのテスト用ウィークライン(Weak Line)に該当するピクセルとして分類する段階;及び
(d)前記テスト装置が、(i)前記テスト用ウィークラインに該当する前記ピクセルの中の少なくとも一つの特定ピクセルと(ii)前記テスト用第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離が予め設定してある第1距離未満である場合、前記特定ピクセルをテスト用追加ストロングラインに該当するピクセルとして分類し、前記テスト用第1ストロングラインに該当する前記ピクセルと前記テスト用追加ストロングラインに該当する前記ピクセルとが前記車線に該当するピクセルに対応すると判断する段階;
を含むことを特徴とするテスト方法。
[10]
CNN(Convolutional Neural Network)基盤の、少なくとも一つの車線検出のための学習装置において、
入力イメージを取得するための通信部;及び
(I)入力イメージが取得されると、エンコーディングレイヤをもって前記入力イメージに少なくとも一度コンボリューション演算を適用するようにして少なくとも一つのエンコード済み特徴マップを取得し、デコーディングレイヤをもって前記エンコーディングレイヤから出力された特定エンコード済み特徴マップに少なくとも一度デコンボリューション演算を適用するようにして、前記入力イメージ内の少なくとも一つの車線候補ピクセルに対する情報を含むセグメンテーションの結果を取得するプロセス;(II)前記車線候補ピクセルそれぞれに該当する確率スコアそれぞれを、予め設定してある第1閾値及び前記第1閾値より小さい予め設定してある第2閾値と比較して、前記車線候補ピクセルの少なくとも一つの第1部分の少なくとも一つの確率スコアが前記第1閾値以上なら、前記車線候補ピクセルの前記第1部分を少なくとも一つの第1ストロングライン(Strong Line)に該当するピクセルとして分類し、前記車線候補ピクセルの少なくとも一つの第2部分の少なくとも一つの確率スコアが前記第1閾値未満で前記第2閾値以上なら、前記第2部分を少なくとも一つのウィークライン(Weak Line)に該当するピクセルとして分類するプロセス;及び(III)(i)前記ウィークラインに該当する前記ピクセルの中の少なくとも一つの特定ピクセルと(ii)前記第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離の少なくとも一つの値が予め設定してある第1距離未満である場合、前記特定ピクセルを追加ストロングラインに該当するピクセルとして分類し、前記第1ストロングラインに該当する前記ピクセルと前記追加ストロングラインに該当する前記ピクセルとが前記車線に該当するピクセルに対応すると判断するプロセス;を遂行するプロセッサを含むことを特徴とする学習装置。
[11]
前記(III)プロセスの後に、
(i)前記ウィークラインに該当する前記ピクセルの中の少なくとも一つの所定ピクセルと(ii)前記追加ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離の少なくとも一つの値が予め設定してある第2距離未満である場合、前記プロセッサは、前記所定ピクセルを前記追加ストロングラインに該当するピクセルとして分類し、前記追加ストロングラインに該当するピクセルとして分類され得る所定ピクセルがなくなるまで前記プロセスを繰り返した後、前記第1ストロングラインに該当する前記ピクセル及び前記追加ストロングラインに該当する前記ピクセルが前記車線に該当する前記ピクセルに対応すると判断することを特徴とする[10]に記載の学習装置。
[12]
前記(III)プロセスにおいて、
(III_1)(i)前記ウィークラインに該当する前記ピクセルの中の前記特定ピクセルと(ii)前記第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離が前記予め設定してある第1距離未満である場合、前記プロセッサが前記特定ピクセルを前記追加ストロングラインに該当する前記ピクセルとして分類するプロセス;
(III_2)(i)前記ウィークラインに該当する前記ピクセルの中の前記所定ピクセルと(ii)前記追加ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離が前記予め設定してある第2距離未満である場合、前記プロセッサが前記所定ピクセルを前記追加ストロングラインに該当する前記ピクセルとして分類するプロセス;及び
(III_3)前記プロセッサが、前記追加ストロングラインに該当するピクセルとして分類され得る所定ピクセルがなくなるまで前記(III_2)プロセスを繰り返した後、前記第1ストロングラインに該当する前記ピクセル及び前記追加ストロングラインに該当するピクセルを前記車線に該当する前記ピクセルとして判断するプロセス;
を含むことを特徴とする[10]に記載の学習装置。
[13]
前記(III)プロセスにおいて、
前記プロセッサが、前記第1ストロングラインに該当する前記ピクセルに対応する車線の方向に関する情報を参照にして、前記ウィークラインに該当する前記ピクセルそれぞれが前記追加ストロングラインに該当する前記ピクセルに分類されているか否かを判断し、
前記第1ストロングラインに該当する前記ピクセルが前記入力イメージ内で特定の角度の方向に群がっていると判断されれば、(1)前記ウィークラインに該当する前記ピクセルの第1部分が前記方向から予め設定してある角度以内にあれば、前記プロセッサが前記第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルから第1ピクセル距離内に前記ウィークラインに該当する前記ピクセルの前記第1部分が存在するか否かを判断し、(2)前記ウィークラインに該当する前記ピクセルの第2部分が前記方向から前記予め設定してある角度以内に存在しなければ、前記プロセッサが前記第1ストロングラインに該当する前記ピクセルの少なくとも一部から第2ピクセル距離内に前記ウィークラインに該当する前記ピクセルの前記第2部分が存在するか否かを判断することを特徴としており、
前記第2ピクセルの距離は、前記第1ピクセル距離より小さいことを特徴とする[11]に記載の学習装置。
[14]
前記(III)プロセスにおいて、
前記プロセッサが、多項式フィッティング(Polynomial Fitting)アルゴリズム又はスプラインフィッティング(Spline Fitting)アルゴリズムを利用して、前記第1ストロングライン及び前記追加ストロングラインに該当する前記ピクセルに対応する前記車線を検出することを特徴とする[10]に記載の学習装置。
[15]
前記予め設定してある第1距離は、2つの最も近いピクセル間の距離であることを特徴とする[10]に記載の学習装置。
[16]
前記予め設定してある第1距離は、所定ピクセルと前記所定ピクセルから第nピクセル距離分だけ離れているピクセルとの間の距離であることを特徴とする[10]に記載の学習装置。
[17]
前記プロセッサが、
(IV)前記学習装置が、検出された前記車線とGT(Ground Truth)車線とを参照にしてセグメンテーションロス(Segmentation Loss)を算出するプロセス;及び
(V)前記学習装置が、前記セグメンテーションロスを用いてバックプロパゲーション(Backpropagation)を遂行することで、前記CNNの少なくとも一つのパラメータを最適化するプロセス;
をさらに遂行すること特徴とする[10]に記載の学習装置。
[18]
CNN(Convolutional Neural Network)基盤イメージに含まれた少なくとも一つの車線検出のためのテスト装置において、
(I)学習装置がエンコーディングレイヤをもってトレーニングイメージに少なくとも一度コンボリューション演算を適用するようにして少なくとも一つの学習用エンコード済み特徴マップを取得し、デコーディングレイヤをもって前記エンコーディングレイヤから出力された特定学習用エンコード済み特徴マップに少なくとも一度デコンボリューション演算を適用するようにして、前記トレーニングイメージ内の少なくとも一つの学習用車線候補ピクセルに対する情報を含む学習用セグメンテーションの結果を取得するプロセス;(II)前記学習装置が、前記学習用車線候補ピクセルそれぞれに該当する確率スコアそれぞれを、予め設定してある第1閾値及び前記第1閾値より小さい予め設定してある第2閾値と比較して、前記学習用車線候補ピクセルの少なくとも一つの第1部分の少なくとも一つの確率スコアが前記第1閾値以上なら、前記学習用車線候補ピクセルの前記第1部分を少なくとも一つの学習用第1ストロングライン(Strong Line)に該当するピクセルとして分類し、前記学習用車線候補ピクセルの少なくとも一つの第2部分の少なくとも一つの確率スコアが前記第1閾値未満で前記第2閾値以上なら、前記第2部分を少なくとも一つの学習用ウィークライン(Weak Line)に該当するピクセルとして分類するプロセス;(III)前記学習装置が、(i)前記学習用ウィークラインに該当する前記ピクセルの中の少なくとも一つの特定ピクセルと(ii)前記学習用第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離の少なくとも一つの値が予め設定してある第1距離未満である場合、前記特定ピクセルを学習用追加ストロングラインに該当するピクセルとして分類し、前記学習用第1ストロングラインに該当する前記ピクセルと前記学習用追加ストロングラインに該当する前記ピクセルとが前記車線に該当するピクセルに対応するものと判断するプロセス;(IV)前記学習装置が、検出された前記車線とGT(Ground Truth)車線とを参照にしてセグメンテーションロス(Segmentation Loss)を算出するプロセス;及び(V)前記学習装置が、前記セグメンテーションロスを用いてバックプロパゲーション(Backpropagation)を遂行することで、前記CNNの少なくとも一つのパラメータを最適化するプロセス;を遂行した状態で、テストイメージを取得する通信部;
(1)エンコーディングレイヤをもってテストイメージに少なくとも一度コンボリューション演算を適用するようにして少なくとも一つのテスト用エンコード済み特徴マップを取得し、デコーディングレイヤをもって前記エンコーディングレイヤから出力された特定テスト用エンコード済み特徴マップに少なくとも一度デコンボリューション演算を適用するようにして、前記テストイメージ内の少なくとも一つのテスト用車線候補ピクセルに対する情報を含むテスト用セグメンテーションの結果を取得するプロセス;(2)前記テスト用車線候補ピクセルそれぞれに該当する確率スコアそれぞれを、予め設定してある第1閾値及び前記第1閾値より小さい予め設定してある第2閾値と比較して、前記テスト用車線候補ピクセルの少なくとも一つの第1部分の少なくとも一つの確率スコアが前記第1閾値以上なら、前記テスト用車線候補ピクセルの前記第1部分を少なくとも一つのテスト用第1ストロングライン(Strong Line)に該当するピクセルとして分類し、前記テスト用車線候補ピクセルの少なくとも一つの第2部分の少なくとも一つの確率スコアが前記第1閾値未満で前記第2閾値以上なら、前記第2部分を少なくとも一つのテスト用ウィークライン(Weak Line)に該当するピクセルとして分類するプロセス;(3)(i)前記テスト用ウィークラインに該当する前記ピクセルの中の少なくとも一つの特定ピクセルと(ii)前記テスト用第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離が予め設定してある第1距離未満である場合、前記特定ピクセルをテスト用追加ストロングラインに該当する少なくとも一つのピクセルとして分類し、前記テスト用第1ストロングラインに該当する前記ピクセルと前記テスト用追加ストロングラインに該当する前記ピクセルが前記車線に該当するピクセルに対応するものと判断するプロセス;を遂行するプロセッサ;
を含むことを特徴とするテスト装置。
Claims (16)
- CNN(Convolutional Neural Network)基盤の、少なくとも一つの車線検出のための学習方法において、
(a)入力イメージが取得されると、学習装置がエンコーディングレイヤをもって前記入力イメージに少なくとも一度コンボリューション演算を適用するようにして少なくとも一つのエンコード済み特徴マップを取得し、デコーディングレイヤをもって前記エンコーディングレイヤから出力された特定エンコード済み特徴マップに少なくとも一度デコンボリューション演算を適用するようにして、前記入力イメージ内の少なくとも一つの車線候補ピクセルに対する情報を含むセグメンテーションの結果を取得する段階;
(b)前記学習装置が、前記車線候補ピクセルそれぞれに該当する確率スコアそれぞれを、予め設定してある第1閾値及び前記第1閾値より小さい予め設定してある第2閾値と比較して、前記車線候補ピクセルの少なくとも一つの第1部分の少なくとも一つの確率スコアが前記第1閾値以上なら、前記車線候補ピクセルの前記第1部分を少なくとも一つの第1ストロングライン(Strong Line)に該当するピクセルとして分類し、前記車線候補ピクセルの少なくとも一つの第2部分の少なくとも一つの確率スコアが前記第1閾値未満で前記第2閾値以上なら、前記第2部分を少なくとも一つのウィークライン(Weak Line)に該当するピクセルとして分類する段階;
(c)前記学習装置が、(i)前記ウィークラインに該当する前記ピクセルの中の少なくとも一つの特定ピクセルと(ii)前記第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離の少なくとも一つの値が予め設定してある第1距離未満である場合、前記特定ピクセルを追加ストロングラインに該当するピクセルとして分類し、前記第1ストロングラインに該当する前記ピクセルと前記追加ストロングラインに該当する前記ピクセルとが前記車線に該当するピクセルに対応するものと判断する段階;
(d)前記学習装置が、検出された前記車線とGT(Ground Truth)車線とを参照にしてセグメンテーションロス(Segmentation Loss)を算出する段階;及び
(e)前記学習装置が、前記セグメンテーションロスを用いてバックプロパゲーション(Backpropagation)を遂行することで、前記CNNの少なくとも一つのパラメータを最適化する段階;
を含むことを特徴とする学習方法。 - 前記(c)段階の後に、
前記学習装置は、(i)前記ウィークラインに該当する前記ピクセルの中の少なくとも一つの所定ピクセルと(ii)前記追加ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離の少なくとも一つの値が予め設定してある第2距離未満である場合、前記所定ピクセルを前記追加ストロングラインに該当するピクセルとして分類するプロセスを遂行し、前記追加ストロングラインに該当するピクセルとして分類され得る所定ピクセルがなくなるまで前記プロセスを繰り返した後、前記第1ストロングラインに該当する前記ピクセル及び前記追加ストロングラインに該当する前記ピクセルが前記車線に該当する前記ピクセルに対応すると判断することを特徴とする請求項1に記載の学習方法。 - 前記(c)段階において、
(c1)(i)前記ウィークラインに該当する前記ピクセルの中の前記特定ピクセルと(ii)前記第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離が前記予め設定してある第1距離未満である場合、前記学習装置が前記特定ピクセルを前記追加ストロングラインに該当する前記ピクセルとして分類する段階;
(c2)(i)前記ウィークラインに該当する前記ピクセルの中の前記所定ピクセルと(ii)前記追加ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離が前記予め設定してある第2距離未満である場合、前記学習装置が前記所定ピクセルを前記追加ストロングラインに該当する前記ピクセルとして分類する段階;及び
(c3)前記学習装置が、前記追加ストロングラインに該当するピクセルとして分類され得る所定ピクセルがなくなるまで前記(c2)段階を繰り返した後、前記第1ストロングラインに該当する前記ピクセル及び前記追加ストロングラインに該当するピクセルを前記車線に該当する前記ピクセルとして判断する段階;
を含むことを特徴とする請求項2に記載の学習方法。 - 前記(c)段階において、
前記学習装置が、前記第1ストロングラインに該当する前記ピクセルに対応する車線の方向に関する情報を参照して、前記ウィークラインに該当する前記ピクセルそれぞれが前記追加ストロングラインに該当する前記ピクセルに分類されているか否かを判断し、
前記第1ストロングラインに該当する前記ピクセルが前記入力イメージ内で特定の角度の方向に群がっていると判断されれば、(I)前記ウィークラインに該当する前記ピクセルの第1部分が前記方向から予め設定してある角度以内にあれば、前記学習装置が前記第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルから第1ピクセル距離内に前記ウィークラインに該当する前記ピクセルの前記第1部分が存在するか否かを判断し、(II)前記ウィークラインに該当する前記ピクセルの第2部分が前記方向から前記予め設定してある角度以内に存在しなければ、前記学習装置が前記第1ストロングラインに該当する前記ピクセルの少なくとも一部から第2ピクセル距離内に前記ウィークラインに該当する前記ピクセルの前記第2部分が存在するか否かを判断することを特徴としており、
前記第2ピクセル距離は、前記第1ピクセル距離より小さいことを特徴とする請求項2に記載の学習方法。 - 前記(c)段階において、
前記学習装置が、多項式フィッティング(Polynomial Fitting)アルゴリズム又はスプラインフィッティング(Spline Fitting)アルゴリズムを利用して、前記第1ストロングライン及び前記追加ストロングラインに該当する前記ピクセルに対応する前記車線を検出することを特徴とする請求項1に記載の学習方法。 - 前記予め設定してある第1距離は、2つの最も近いピクセル間の距離であることを特徴とする請求項1に記載の学習方法。
- 前記予め設定してある第1距離は、所定ピクセルと前記所定ピクセルから第nピクセル距離分だけ離れているピクセルとの間の距離であることを特徴とする請求項1に記載の学習方法。
- CNN(Convolutional Neural Network)基盤の、少なくとも一つの車線検出のためのテスト方法において、
(a)(I)学習装置がエンコーディングレイヤをもってトレーニングイメージに少なくとも一度コンボリューション演算を適用するようにして少なくとも一つの学習用エンコード済み特徴マップを取得し、デコーディングレイヤをもって前記エンコーディングレイヤから出力された特定学習用エンコード済み特徴マップに少なくとも一度デコンボリューション演算を適用するようにして、前記トレーニングイメージ内の少なくとも一つの学習用車線候補ピクセルに対する情報を含む学習用セグメンテーションの結果を取得するプロセス、(II)前記学習装置が、前記学習用車線候補ピクセルそれぞれに該当する確率スコアそれぞれを、予め設定してある第1閾値及び前記第1閾値より小さい予め設定してある第2閾値と比較して、前記学習用車線候補ピクセルの少なくとも一つの第1部分の少なくとも一つの確率スコアが前記第1閾値以上なら、前記学習用車線候補ピクセルの前記第1部分を少なくとも一つの学習用第1ストロングライン(Strong Line)に該当するピクセルとして分類し、前記学習用車線候補ピクセルの少なくとも一つの第2部分の少なくとも一つの確率スコアが前記第1閾値未満で前記第2閾値以上なら、前記第2部分を少なくとも一つの学習用ウィークライン(Weak Line)に該当するピクセルとして分類するプロセス、(III)前記学習装置が、(i)前記学習用ウィークラインに該当する前記ピクセルの中の少なくとも一つの特定ピクセルと(ii)前記学習用第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離の少なくとも一つの値が予め設定してある第1距離未満である場合、前記特定ピクセルを少なくとも一つの学習用追加ストロングラインに該当するピクセルとして分類し、前記学習用第1ストロングラインに該当する前記ピクセルと前記学習用追加ストロングラインに該当する前記ピクセルとが前記車線に該当するピクセルに対応するものと判断するプロセス;(IV)前記学習装置が、検出された前記車線とGT(Ground Truth)車線とを参照にしてセグメンテーションロス(Segmentation Loss)を算出するプロセス;及び(V)前記学習装置が、前記セグメンテーションロスを用いてバックプロパゲーション(Backpropagation)を遂行することで、前記学習装置の少なくとも一つのパラメータを最適化するプロセスを遂行した状態で、テスト装置がテストイメージを取得する段階;
(b)前記テスト装置が、前記エンコーディングレイヤをもって前記テストイメージに少なくとも一度コンボリューション演算を適用するようにして少なくとも一つのテスト用エンコード済み特徴マップを取得し、前記デコーディングレイヤをもって前記エンコーディングレイヤから出力された特定テスト用エンコード済み特徴マップに少なくとも一度デコンボリューション演算を適用するようにして、前記テストイメージ内の少なくとも一つのテスト用車線候補ピクセルに対する情報を含むテスト用セグメンテーションの結果を取得する段階;
(c)前記テスト装置が、前記テスト用車線候補ピクセルそれぞれに該当する確率スコアそれぞれを、予め設定してある第1閾値及び前記第1閾値より小さい予め設定してある第2閾値と比較して、前記テスト用車線候補ピクセルの少なくとも一つの第1部分の少なくとも一つの確率スコアが前記第1閾値以上なら、前記テスト用車線候補ピクセルの前記第1部分を少なくとも一つのテスト用第1ストロングライン(Strong Line)に該当するピクセルとして分類し、前記テスト用車線候補ピクセルの少なくとも一つの第2部分の少なくとも一つの確率スコアが前記第1閾値未満で前記第2閾値以上なら、前記第2部分を少なくとも一つのテスト用ウィークライン(Weak Line)に該当するピクセルとして分類する段階;及び
(d)前記テスト装置が、(i)前記テスト用ウィークラインに該当する前記ピクセルの中の少なくとも一つの特定ピクセルと(ii)前記テスト用第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離が予め設定してある第1距離未満である場合、前記特定ピクセルをテスト用追加ストロングラインに該当するピクセルとして分類し、前記テスト用第1ストロングラインに該当する前記ピクセルと前記テスト用追加ストロングラインに該当する前記ピクセルとが前記車線に該当するピクセルに対応すると判断する段階;
を含むことを特徴とするテスト方法。 - CNN(Convolutional Neural Network)基盤の、少なくとも一つの車線検出のための学習装置において、
入力イメージを取得するための通信部;及び
(I)入力イメージが取得されると、エンコーディングレイヤをもって前記入力イメージに少なくとも一度コンボリューション演算を適用するようにして少なくとも一つのエンコード済み特徴マップを取得し、デコーディングレイヤをもって前記エンコーディングレイヤから出力された特定エンコード済み特徴マップに少なくとも一度デコンボリューション演算を適用するようにして、前記入力イメージ内の少なくとも一つの車線候補ピクセルに対する情報を含むセグメンテーションの結果を取得するプロセス;(II)前記車線候補ピクセルそれぞれに該当する確率スコアそれぞれを、予め設定してある第1閾値及び前記第1閾値より小さい予め設定してある第2閾値と比較して、前記車線候補ピクセルの少なくとも一つの第1部分の少なくとも一つの確率スコアが前記第1閾値以上なら、前記車線候補ピクセルの前記第1部分を少なくとも一つの第1ストロングライン(Strong Line)に該当するピクセルとして分類し、前記車線候補ピクセルの少なくとも一つの第2部分の少なくとも一つの確率スコアが前記第1閾値未満で前記第2閾値以上なら、前記第2部分を少なくとも一つのウィークライン(Weak Line)に該当するピクセルとして分類するプロセス;(III)(i)前記ウィークラインに該当する前記ピクセルの中の少なくとも一つの特定ピクセルと(ii)前記第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離の少なくとも一つの値が予め設定してある第1距離未満である場合、前記特定ピクセルを追加ストロングラインに該当するピクセルとして分類し、前記第1ストロングラインに該当する前記ピクセルと前記追加ストロングラインに該当する前記ピクセルとが前記車線に該当するピクセルに対応すると判断するプロセス;(IV)前記学習装置が、検出された前記車線とGT(Ground Truth)車線とを参照にしてセグメンテーションロス(Segmentation Loss)を算出するプロセス;及び(V)前記学習装置が、前記セグメンテーションロスを用いてバックプロパゲーション(Backpropagation)を遂行することで、前記CNNの少なくとも一つのパラメータを最適化するプロセス;を遂行するプロセッサを含むことを特徴とする学習装置。 - 前記(III)プロセスの後に、
(i)前記ウィークラインに該当する前記ピクセルの中の少なくとも一つの所定ピクセルと(ii)前記追加ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離の少なくとも一つの値が予め設定してある第2距離未満である場合、前記プロセッサは、前記所定ピクセルを前記追加ストロングラインに該当するピクセルとして分類し、前記追加ストロングラインに該当するピクセルとして分類され得る所定ピクセルがなくなるまで前記プロセスを繰り返した後、前記第1ストロングラインに該当する前記ピクセル及び前記追加ストロングラインに該当する前記ピクセルが前記車線に該当する前記ピクセルに対応すると判断することを特徴とする請求項9に記載の学習装置。 - 前記(III)プロセスにおいて、
(III_1)(i)前記ウィークラインに該当する前記ピクセルの中の前記特定ピクセルと(ii)前記第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離が前記予め設定してある第1距離未満である場合、前記プロセッサが前記特定ピクセルを前記追加ストロングラインに該当する前記ピクセルとして分類するプロセス;
(III_2)(i)前記ウィークラインに該当する前記ピクセルの中の前記所定ピクセルと(ii)前記追加ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離が前記予め設定してある第2距離未満である場合、前記プロセッサが前記所定ピクセルを前記追加ストロングラインに該当する前記ピクセルとして分類するプロセス;及び
(III_3)前記プロセッサが、前記追加ストロングラインに該当するピクセルとして分類され得る所定ピクセルがなくなるまで前記(III_2)プロセスを繰り返した後、前記第1ストロングラインに該当する前記ピクセル及び前記追加ストロングラインに該当するピクセルを前記車線に該当する前記ピクセルとして判断するプロセス;
を含むことを特徴とする請求項10に記載の学習装置。 - 前記(III)プロセスにおいて、
前記プロセッサが、前記第1ストロングラインに該当する前記ピクセルに対応する車線の方向に関する情報を参照にして、前記ウィークラインに該当する前記ピクセルそれぞれが前記追加ストロングラインに該当する前記ピクセルに分類されているか否かを判断し、
前記第1ストロングラインに該当する前記ピクセルが前記入力イメージ内で特定の角度の方向に群がっていると判断されれば、(1)前記ウィークラインに該当する前記ピクセルの第1部分が前記方向から予め設定してある角度以内にあれば、前記プロセッサが前記第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルから第1ピクセル距離内に前記ウィークラインに該当する前記ピクセルの前記第1部分が存在するか否かを判断し、(2)前記ウィークラインに該当する前記ピクセルの第2部分が前記方向から前記予め設定してある角度以内に存在しなければ、前記プロセッサが前記第1ストロングラインに該当する前記ピクセルの少なくとも一部から第2ピクセル距離内に前記ウィークラインに該当する前記ピクセルの前記第2部分が存在するか否かを判断することを特徴としており、
前記第2ピクセル距離は、前記第1ピクセル距離より小さいことを特徴とする請求項10に記載の学習装置。 - 前記(III)プロセスにおいて、
前記プロセッサが、多項式フィッティング(Polynomial Fitting)アルゴリズム又はスプラインフィッティング(Spline Fitting)アルゴリズムを利用して、前記第1ストロングライン及び前記追加ストロングラインに該当する前記ピクセルに対応する前記車線を検出することを特徴とする請求項9に記載の学習装置。 - 前記予め設定してある第1距離は、2つの最も近いピクセル間の距離であることを特徴とする請求項9に記載の学習装置。
- 前記予め設定してある第1距離は、所定ピクセルと前記所定ピクセルから第nピクセル距離分だけ離れているピクセルとの間の距離であることを特徴とする請求項9に記載の学習装置。
- CNN(Convolutional Neural Network)基盤イメージに含まれた少なくとも一つの車線検出のためのテスト装置において、
(I)学習装置がエンコーディングレイヤをもってトレーニングイメージに少なくとも一度コンボリューション演算を適用するようにして少なくとも一つの学習用エンコード済み特徴マップを取得し、デコーディングレイヤをもって前記エンコーディングレイヤから出力された特定学習用エンコード済み特徴マップに少なくとも一度デコンボリューション演算を適用するようにして、前記トレーニングイメージ内の少なくとも一つの学習用車線候補ピクセルに対する情報を含む学習用セグメンテーションの結果を取得するプロセス;(II)前記学習装置が、前記学習用車線候補ピクセルそれぞれに該当する確率スコアそれぞれを、予め設定してある第1閾値及び前記第1閾値より小さい予め設定してある第2閾値と比較して、前記学習用車線候補ピクセルの少なくとも一つの第1部分の少なくとも一つの確率スコアが前記第1閾値以上なら、前記学習用車線候補ピクセルの前記第1部分を少なくとも一つの学習用第1ストロングライン(Strong Line)に該当するピクセルとして分類し、前記学習用車線候補ピクセルの少なくとも一つの第2部分の少なくとも一つの確率スコアが前記第1閾値未満で前記第2閾値以上なら、前記第2部分を少なくとも一つの学習用ウィークライン(Weak Line)に該当するピクセルとして分類するプロセス;(III)前記学習装置が、(i)前記学習用ウィークラインに該当する前記ピクセルの中の少なくとも一つの特定ピクセルと(ii)前記学習用第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離の少なくとも一つの値が予め設定してある第1距離未満である場合、前記特定ピクセルを学習用追加ストロングラインに該当するピクセルとして分類し、前記学習用第1ストロングラインに該当する前記ピクセルと前記学習用追加ストロングラインに該当する前記ピクセルとが前記車線に該当するピクセルに対応するものと判断するプロセス;(IV)前記学習装置が、検出された前記車線とGT(Ground Truth)車線とを参照にしてセグメンテーションロス(Segmentation Loss)を算出するプロセス;及び(V)前記学習装置が、前記セグメンテーションロスを用いてバックプロパゲーション(Backpropagation)を遂行することで、前記CNNの少なくとも一つのパラメータを最適化するプロセス;を遂行した状態で、テストイメージを取得する通信部;
(1)エンコーディングレイヤをもってテストイメージに少なくとも一度コンボリューション演算を適用するようにして少なくとも一つのテスト用エンコード済み特徴マップを取得し、デコーディングレイヤをもって前記エンコーディングレイヤから出力された特定テスト用エンコード済み特徴マップに少なくとも一度デコンボリューション演算を適用するようにして、前記テストイメージ内の少なくとも一つのテスト用車線候補ピクセルに対する情報を含むテスト用セグメンテーションの結果を取得するプロセス;(2)前記テスト用車線候補ピクセルそれぞれに該当する確率スコアそれぞれを、予め設定してある第1閾値及び前記第1閾値より小さい予め設定してある第2閾値と比較して、前記テスト用車線候補ピクセルの少なくとも一つの第1部分の少なくとも一つの確率スコアが前記第1閾値以上なら、前記テスト用車線候補ピクセルの前記第1部分を少なくとも一つのテスト用第1ストロングライン(Strong Line)に該当するピクセルとして分類し、前記テスト用車線候補ピクセルの少なくとも一つの第2部分の少なくとも一つの確率スコアが前記第1閾値未満で前記第2閾値以上なら、前記第2部分を少なくとも一つのテスト用ウィークライン(Weak Line)に該当するピクセルとして分類するプロセス;(3)(i)前記テスト用ウィークラインに該当する前記ピクセルの中の少なくとも一つの特定ピクセルと(ii)前記テスト用第1ストロングラインに該当する前記ピクセルの中の少なくとも一部のピクセルとの間の距離が予め設定してある第1距離未満である場合、前記特定ピクセルをテスト用追加ストロングラインに該当する少なくとも一つのピクセルとして分類し、前記テスト用第1ストロングラインに該当する前記ピクセルと前記テスト用追加ストロングラインに該当する前記ピクセルが前記車線に該当するピクセルに対応するものと判断するプロセス;を遂行するプロセッサ;
を含むことを特徴とするテスト装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/121,084 | 2018-09-04 | ||
US16/121,084 US10223614B1 (en) | 2018-09-04 | 2018-09-04 | Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020038662A JP2020038662A (ja) | 2020-03-12 |
JP6847464B2 true JP6847464B2 (ja) | 2021-03-24 |
Family
ID=65495722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019160095A Active JP6847464B2 (ja) | 2018-09-04 | 2019-09-03 | 車線候補ピクセルを分類して車線を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane through classifying lane candidate pixels and test method, test device using the same} |
Country Status (5)
Country | Link |
---|---|
US (1) | US10223614B1 (ja) |
EP (1) | EP3620956B1 (ja) |
JP (1) | JP6847464B2 (ja) |
KR (1) | KR102280395B1 (ja) |
CN (1) | CN110874564B (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110096933B (zh) * | 2018-01-30 | 2023-07-18 | 华为技术有限公司 | 目标检测的方法、装置及系统 |
US10565475B2 (en) * | 2018-04-24 | 2020-02-18 | Accenture Global Solutions Limited | Generating a machine learning model for objects based on augmenting the objects with physical properties |
US10311321B1 (en) * | 2018-10-26 | 2019-06-04 | StradVision, Inc. | Learning method, learning device using regression loss and testing method, testing device using the same |
US10402692B1 (en) * | 2019-01-22 | 2019-09-03 | StradVision, Inc. | Learning method and learning device for fluctuation-robust object detector based on CNN using target object estimating network adaptable to customers' requirements such as key performance index, and testing device using the same |
US10387753B1 (en) * | 2019-01-23 | 2019-08-20 | StradVision, Inc. | Learning method and learning device for convolutional neural network using 1×1 convolution for image recognition to be used for hardware optimization, and testing method and testing device using the same |
US10395140B1 (en) * | 2019-01-23 | 2019-08-27 | StradVision, Inc. | Learning method and learning device for object detector based on CNN using 1×1 convolution to be used for hardware optimization, and testing method and testing device using the same |
US10496899B1 (en) * | 2019-01-25 | 2019-12-03 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN in which residual networks are provided for meta learning, and testing method and testing device using the same |
US10373323B1 (en) * | 2019-01-29 | 2019-08-06 | StradVision, Inc. | Method and device for merging object detection information detected by each of object detectors corresponding to each camera nearby for the purpose of collaborative driving by using V2X-enabled applications, sensor fusion via multiple vehicles |
US10373027B1 (en) * | 2019-01-30 | 2019-08-06 | StradVision, Inc. | Method for acquiring sample images for inspecting label among auto-labeled images to be used for learning of neural network and sample image acquiring device using the same |
US10423840B1 (en) * | 2019-01-31 | 2019-09-24 | StradVision, Inc. | Post-processing method and device for detecting lanes to plan the drive path of autonomous vehicle by using segmentation score map and clustering map |
US10373004B1 (en) * | 2019-01-31 | 2019-08-06 | StradVision, Inc. | Method and device for detecting lane elements to plan the drive path of autonomous vehicle by using a horizontal filter mask, wherein the lane elements are unit regions including pixels of lanes in an input image |
WO2020181554A1 (zh) * | 2019-03-14 | 2020-09-17 | Oppo广东移动通信有限公司 | 预测值的确定方法、解码器以及计算机存储介质 |
US20200302176A1 (en) * | 2019-03-18 | 2020-09-24 | Nvidia Corporation | Image identification using neural networks |
CN110147794A (zh) * | 2019-05-21 | 2019-08-20 | 东北大学 | 一种基于深度学习的无人车室外场景实时分割方法 |
CN110414386B (zh) * | 2019-07-12 | 2022-01-21 | 武汉理工大学 | 基于改进scnn网络的车道线检测方法 |
US11055543B2 (en) | 2019-07-26 | 2021-07-06 | Volkswagen Ag | Road curvature generation in real-world images as a method of data augmentation |
KR20210112191A (ko) | 2020-03-04 | 2021-09-14 | 엘지전자 주식회사 | 영전압 스위칭 실패 감지 회로 |
CN111507203B (zh) * | 2020-03-27 | 2023-09-26 | 北京百度网讯科技有限公司 | 可变车道检测模型的构建方法、电子设备及存储介质 |
CN111368804A (zh) * | 2020-03-31 | 2020-07-03 | 河北科技大学 | 车道线检测方法、系统及终端设备 |
CN111874003B (zh) * | 2020-06-23 | 2021-07-20 | 安徽信息工程学院 | 一种车辆行驶偏离预警方法和系统 |
KR102501936B1 (ko) * | 2020-12-28 | 2023-02-21 | 한국과학기술정보연구원 | 차선검출장치 및 그 동작 방법 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9542626B2 (en) * | 2013-09-06 | 2017-01-10 | Toyota Jidosha Kabushiki Kaisha | Augmenting layer-based object detection with deep convolutional neural networks |
JP6426512B2 (ja) * | 2015-03-17 | 2018-11-21 | 株式会社Soken | 走行区画線認識装置 |
CN105260699B (zh) * | 2015-09-10 | 2018-06-26 | 百度在线网络技术(北京)有限公司 | 一种车道线数据的处理方法及装置 |
CN105631880B (zh) * | 2015-12-31 | 2019-03-22 | 百度在线网络技术(北京)有限公司 | 车道线分割方法和装置 |
ITUA20164758A1 (it) * | 2016-06-29 | 2017-12-29 | Ser Mac S R L | Apparato di rilevamento di prodotti ortofrutticoli. |
CN106203398B (zh) * | 2016-07-26 | 2019-08-13 | 东软集团股份有限公司 | 一种检测车道边界的方法、装置和设备 |
CN106971155B (zh) * | 2017-03-21 | 2020-03-24 | 电子科技大学 | 一种基于高度信息的无人车车道场景分割方法 |
US10373002B2 (en) * | 2017-03-31 | 2019-08-06 | Here Global B.V. | Method, apparatus, and system for a parametric representation of lane lines |
CN108229386B (zh) * | 2017-12-29 | 2021-12-14 | 百度在线网络技术(北京)有限公司 | 用于检测车道线的方法、装置和介质 |
-
2018
- 2018-09-04 US US16/121,084 patent/US10223614B1/en active Active
-
2019
- 2019-05-06 EP EP19172860.9A patent/EP3620956B1/en active Active
- 2019-08-27 KR KR1020190105473A patent/KR102280395B1/ko active IP Right Grant
- 2019-08-29 CN CN201910806797.7A patent/CN110874564B/zh active Active
- 2019-09-03 JP JP2019160095A patent/JP6847464B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
KR102280395B1 (ko) | 2021-07-23 |
EP3620956B1 (en) | 2023-10-25 |
CN110874564A (zh) | 2020-03-10 |
JP2020038662A (ja) | 2020-03-12 |
CN110874564B (zh) | 2023-08-04 |
KR20200027427A (ko) | 2020-03-12 |
EP3620956C0 (en) | 2023-10-25 |
US10223614B1 (en) | 2019-03-05 |
EP3620956A1 (en) | 2020-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6847464B2 (ja) | 車線候補ピクセルを分類して車線を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane through classifying lane candidate pixels and test method, test device using the same} | |
KR102373456B1 (ko) | 자동 주차 시스템을 제공하기 위해 결정 지점 간의 관계 및 결정 지점에 대한 리그레션 결과를 이용하여 주차 공간을 검출하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
JP6875021B2 (ja) | 有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6847463B2 (ja) | CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME} | |
JP6820030B2 (ja) | 異なるラベルセットを有する複数のラベリングされたデータベースを用いて学習する方法及び装置、そしてこれを利用したテスト方法及び装置{learning method and learning device using multiple labeled databases with different label sets and testing method and testing device using the same} | |
CN110874841B (zh) | 参照边缘图像的客体检测方法及装置 | |
JP6869565B2 (ja) | 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} | |
JP6980289B2 (ja) | 車線モデルを利用して車線を検出し得る学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane using lane model and test method, test device using the same} | |
JP6849932B2 (ja) | 高精密度のイメージを分析するためのディープラーニングネットワークを使用するためにトレーニングイメージをオートラベリングするオートラベルリング装置のハイパーパラメータを最適化する方法、及びこれを利用した最適化装置 | |
JP6865363B2 (ja) | ラプラシアンピラミッドネットワークを利用して自律走行自動車レベル4及びレベル5を満足させるために要求される道路障害物検出におけるセグメンテーション性能向上のための学習方法及び学習装置、並びにこれを利用したテスト方法及びテスト装置 | |
JP6869559B2 (ja) | 障害物を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting obstacles and testing method, testing device using the same} | |
JP6867054B2 (ja) | マルチカメラシステム内のダブルエンベディング構成を利用して、道路利用者イベントを検出するために用いられるセグメンテーション性能向上のための学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置。{learning method and learning device for improving segmentation performance to be used for detecting road user events using double embedding configuration in multi−camera system and testing method and testing device using the same} | |
JP6856952B2 (ja) | 複数のビデオフレームを利用してcnnのパラメータを最適化するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6793411B2 (ja) | 自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置 | |
JP6916548B2 (ja) | 自律走行自動車のレベル4を満たすために必要なhdマップとのコラボレーションを支援するエンベディングロス及びソフトマックスロスを利用して少なくとも一つの車線を有するイメージをセグメンテーションする学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 | |
JP6865342B2 (ja) | Cnn基盤車線検出のための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6979707B2 (ja) | リグレッションロス(Regression loss)を利用した学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE USING REGRESSION LOSS AND TESTING METHOD, TESTING DEVICE USING THE SAME} |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210224 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6847464 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |