JP6847463B2 - CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME} - Google Patents
CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME} Download PDFInfo
- Publication number
- JP6847463B2 JP6847463B2 JP2019160025A JP2019160025A JP6847463B2 JP 6847463 B2 JP6847463 B2 JP 6847463B2 JP 2019160025 A JP2019160025 A JP 2019160025A JP 2019160025 A JP2019160025 A JP 2019160025A JP 6847463 B2 JP6847463 B2 JP 6847463B2
- Authority
- JP
- Japan
- Prior art keywords
- cluster
- lane
- learning
- test
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012360 testing method Methods 0.000 title claims description 182
- 238000000034 method Methods 0.000 title claims description 134
- 238000013527 convolutional neural network Methods 0.000 title claims description 58
- 238000010998 test method Methods 0.000 title claims description 9
- 239000013598 vector Substances 0.000 claims description 146
- 230000006870 function Effects 0.000 claims description 78
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 description 15
- 230000011218 segmentation Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 241000282472 Canis lupus familiaris Species 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241001494479 Pecora Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/77—Determining position or orientation of objects or cameras using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Description
[数式1]
x=f(y;θi,j)
ここで、Li,j={(x,y)|(x,y)は、i番目の入力イメージのj番目の車線の中点座標}={(x,y)|x=f(y;θi,j)}であり、θi,jはi番目の入力イメージのj番目の車線の各関数パラメータを示す。
Claims (20)
- CNN(Convolutional Neural Network)を利用して少なくとも一つの車線を検出するための学習方法において、
(a)学習装置が、一つのコンボリューションレイヤをもって、少なくとも一つのイメージデータセットから選択された入力イメージに対して一回以上コンボリューション演算を適用して少なくとも一つの特徴マップを生成する段階;
(b)前記学習装置が、FC(Fully Connected)レイヤをもって、前記コンボリューションレイヤから出力された前記特徴マップの中の特定の特徴マップを前記FCレイヤに提供して、前記入力イメージ内の前記車線のクラスターID分類の予測結果ベクトルを生成する段階;及び
(c)前記学習装置が、ロスレイヤをもって、前記クラスターID分類の前記予測結果ベクトル及びクラスターIDGTベクトルを参照にして、少なくとも一つの分類ロスを生成し、前記分類ロスをバックプロパゲーションして、前記CNNの装置パラメータ(device parameters)を最適化する段階;
を含み、
前記クラスターIDGTベクトルは、前記入力イメージ内の前記車線の情報をもとに取得された関数パラメータをクラスタリングして、車線モデリング関数の前記関数パラメータに付与されたクラスターグループそれぞれのクラスターIDである確率に対するGT(Ground Truth)情報であることを特徴とする学習方法。 - 前記クラスターIDGTベクトルは、K+1ディメンションを有するベクトルであり、(i)前記入力イメージ上に前記車線が存在すると判断された場合、前記入力イメージの前記車線の中で、前記K個のクラスターIDの中の特定クラスターIDであるCkに属する特定車線が存在すれば、前記クラスターIDGTベクトルのk番目のディメンションは1が割り当てられ、前記クラスターIDの中で、前記入力イメージに存在しない他のクラスターIDそれぞれに対応する前記クラスターIDGTベクトルの他のディメンションは0が割り当てられ、前記クラスターIDGTベクトルのK+1番目のディメンションは0が割り当てられ、(ii)前記入力イメージ上に前記車線が存在しないと判断されれば、前記クラスターIDGTベクトルの1ないしK番目のディメンションは0が割り当てられ、前記クラスターIDGTベクトルの前記K+1番目のディメンションは1が割り当てられ、
kは1ないしKの整数であり、
前記(c)段階で、
前記クラスターID分類の前記予測結果ベクトルは、K+1ディメンションを有するベクトルであることを特徴とする請求項1に記載の学習方法。 - 前記それぞれの車線(Li,j)が前記クラスターグループの中で自身と対応する一つのクラスターグループ(Ck)にそれぞれ含まれ、前記車線(Li,j)それぞれと対応する前記クラスターIDに含まれたそれぞれのクラスターIDをkと表示した状態で、
前記各クラスターグループは、前記各クラスターグループに含まれる前記各車線の前記関数パラメータに対するそれぞれの平均値
前記学習方法は、
(d)前記学習装置が、予測されたクラスターIDそれぞれに対応する前記クラスターグループ代表値(θ k )各々を生成するか、他の装置をもって生成するように支援し、前記クラスターグループ代表値(θk)それぞれによって表現された予測車線それぞれを決定するか、他の装置をもって決定するように支援する段階;
をさらに含むことを特徴とする請求項2に記載の学習方法。 - 前記クラスターグループ代表値それぞれは、前記予測されたクラスターIDの中の少なくとも一部を利用して算出され、前記予測されたクラスターIDの前記少なくとも一部は、前記予測結果ベクトルの各ベクトル成分が予め設定された値より大きいか否かに対する情報を参照にして決定されることを特徴とする請求項3に記載の学習方法。
- (e)前記学習装置が、GT車線のいずれか一つの車線の座標が、前記予測車線の各々の座標からx軸に平行な両方の任意の方向へ所定のピクセル数以内の領域に存在するか否かを基に、前記それぞれの予測車線の周囲に、前記GT車線のいずれかが存在するかを示す、少なくとも一つのイグジステンスロス(existence loss)を算出するか、他の装置をもって算出するように支援する段階;
(f)前記学習装置が、前記予測車線の周辺それぞれに前記GT車線のいずれかが識別される場合、前記各予測車線の各々のピクセル(f(y|θk),y)と前記各予測車線にそれぞれ対応する前記GT車線の各々のピクセル(xGT,y)との各距離の差(xGT−f(y|θk))を参照して、少なくとも一つの距離リグレッションロスを算出するか、他の装置をもって獲得するように支援する段階;
(g)前記学習装置が、前記イグジステンスロス及び前記距離リグレッションロスをバックプロパゲーションするか、他の装置をもってバックプロパゲーションするように支援して、前記CNNの前記装置パラメータを最適化する段階;
をさらに含むことを特徴とする請求項3に記載の学習方法。 - 前記(e)段階以前に、
(e0)前記学習装置が、前記それぞれの予測車線の前記ピクセル(f(y|θk),y)周辺のそれぞれの領域を示す、少なくとも一つの領域フィーチャー(areal features)それぞれを前記特定の特徴マップから抽出するか、他の装置をもって抽出するよう支援する段階;
をさらに含み、
前記抽出された領域フィーチャーを基に前記イグジステンスロス及び前記距離リグレッションロスを算出することを特徴とする請求項5に記載の学習方法。 - 前記(e)段階で、
前記イグジステンスロスは、クロスエントロピーを利用して算出し、
前記(f)段階で、
前記距離リグレッションロスは、少なくとも一つのユークリッド距離リグレッションロスを利用して算出することを特徴とする請求項5に記載の学習方法。 - 車線モデル(lane model)を利用して少なくとも一つの車線を検出し得るCNN(Convolutional Neural Network)のテスト方法において、
(a)前記CNNを利用する学習装置が、(i)一つ以上のコンボリューションレイヤをもって、少なくとも一つの学習用イメージデータセットから選択された学習用入力イメージに対して一回以上のコンボリューション演算を適用して、一つ以上の学習用特徴マップを生成するプロセス;(ii)FCレイヤをもって、前記コンボリューションレイヤから出力された前記学習用特徴マップの中の学習用特定特徴マップを前記FCレイヤに提供して、前記学習用入力イメージ内の前記車線の学習用クラスターID分類の予測結果ベクトルを生成し、ロスレイヤをもって前記学習用クラスターID分類の前記予測結果ベクトル及びクラスターIDGTベクトルを参照にして、少なくとも一つの分類ロスを生成するプロセス;(iii)予測された学習用クラスターIDそれぞれに対応する学習用クラスターグループ代表値(θk)それぞれを生成し、前記学習用クラスターグループ代表値それぞれによって表現された学習用予測車線それぞれを決定するプロセス;(iv)GT車線のいずれか一つの車線の座標が、前記学習用予測車線の各々の座標からx軸に平行な両方の任意の方向へ所定のピクセル数以内の領域に存在するか否かを基に、前記それぞれの学習用予測車線の周囲に前記GT車線のいずれかが存在するかを示す、少なくとも一つのイグジステンスロス(existence loss)を算出するプロセス;(v)前記学習用予測車線のそれぞれの周辺に前記GT車線のいずれかが識別される場合、前記学習用予測車線のそれぞれのピクセル(f(y|θk),y)と前記各学習用予測車線にそれぞれ対応する前記GT車線のそれぞれのピクセル(xGT,y)との各距離の差(xGT−f(y|θk))を参照して少なくとも一つの距離リグレッションロスを算出するプロセス;(vi) 前記分類ロス、前記イグジステンスロス及び前記距離リグレッションロスをバックプロパゲーションして、前記CNNの装置パラメータを最適化するプロセス;を経て学習された学習装置のパラメータが取得された状態で、前記学習装置のパラメータを利用したテスト装置が、テストイメージを取得するか、他の装置をもって取得するように支援する段階;
(b)前記テスト装置が、前記テストイメージに対して、コンボリューション演算を適用して、少なくとも一つのテスト用特徴マップを生成するか、他の装置をもって取得するように支援する段階;
(c)前記テスト装置が、前記テスト用特徴マップの中の特定のテスト用特徴マップを前記FC(Fully Connected)レイヤに提供して、前記FCレイヤをもって、前記テストイメージ内の前記車線のテスト用クラスターID分類の結果ベクトル(前記テスト用クラスターID分類の結果ベクトルは、前記車線それぞれに対して予測されたテスト用クラスターIDを少なくとも一つ以上含むものである)を生成する段階;及び
(d)前記テスト装置が、前記予測されたテスト用クラスターIDそれぞれに対応するテスト用クラスターグループ代表値(θk)それぞれを生成し、前記テスト用クラスターグループ代表値(θ k )それぞれによって前記車線の各形状が表現された前記予測されたテスト用車線それぞれを決定する段階;
を含み、
前記クラスターIDGTベクトルは、前記学習用入力イメージ内の前記車線の情報を基に取得された関数パラメータをクラスタリングして、車線モデリング関数の前記関数パラメータに付与されたクラスターグループそれぞれの学習用クラスターIDである確率に対するGT情報であり、
前記それぞれの車線(Li,j)は、テスト用クラスターグループの中の自身と対応する一つのテスト用クラスターグループ(Ck)にそれぞれ含まれ、前記車線(Li,j)それぞれと対応する前記テスト用クラスターIDをそれぞれk(kは、1ないしKの間の値)と示した状態で、前記それぞれのテスト用クラスターグループは、前記テスト用各クラスターグループに含まれている前記各車線の前記関数パラメータに対するそれぞれの平均値
- (e)前記テスト装置が、それぞれのテスト用予測車線の前記ピクセル(f(y|θk),y)周辺のそれぞれの領域を示す少なくとも一つの領域フィーチャー(areal features)それぞれを前記特定のテスト用特徴マップから抽出するか、他の装置をもって抽出するように支援する段階;
(f)前記テスト装置が、前記テスト用予測車線のそれぞれの座標からx軸に平行な方向へ所定ピクセル数以内の領域に実際の車線の座標が存在するかを基に、前記実際の車線の中の一つが前記それぞれのテスト用予測車線周辺に存在するかを判断し、前記実際の車線の中の一つが周りに存在するならば、前記実際の車線の中の一つの座標と前記テスト用予測車線の座標との間の距離それぞれを計算するか、他の装置をもって計算するように支援する段階;及び
(g)前記テスト装置が、前記テスト用予測車線を前記距離のそれぞれの分だけ移動して、移動したテスト用予測車線を決定するか、他の装置をもって決定するように支援する段階;
をさらに含むことを特徴とする請求項8に記載のテスト方法。 - 前記(d)段階は、
前記テスト用クラスターグループ代表値それぞれは、前記予測されたテスト用クラスターID分類の前記結果ベクトルのうち、各ベクトル成分が予め設定してある値より大きいか否かに対する情報を参照にして決定された、前記予測されたテスト用クラスターIDの少なくとも一部を利用して、前記テスト用クラスターグループ代表値それぞれを取得することを特徴とする請求項8に記載のテスト方法。 - CNN(Convolutional Neural Network)を利用して少なくとも一つの車線を検出するための学習装置において、
少なくとも一つのイメージデータセットから選択された入力イメージを獲得するか、他の装置をもって獲得するように支援する通信部;及び
(i)一つのコンボリューションレイヤをもって、前記入力イメージに対して一回以上のコンボリューション演算を適用して少なくとも一つの特徴マップを生成するプロセス、(ii)FCレイヤをもって、前記コンボリューションレイヤから出力された前記特徴マップの中の特定の特徴マップを前記FCレイヤに提供して、前記入力イメージ内の前記車線のクラスターID分類の予測結果ベクトルを生成にするプロセス、(iii)ロスレイヤをもって、前記クラスターID分類の前記予測結果ベクトル及びクラスターIDGTベクトルを参照にして、少なくとも一つの分類ロスを生成し、前記分類ロスをバックプロパゲーションして、前記CNNの装置パラメータ(device parameters)を最適化するプロセスを遂行するプロセッサ;を含み、
前記クラスターIDGTベクトルは、前記入力イメージ内の前記車線の情報を基に取得された関数パラメータをクラスタリングして、車線モデリング関数の前記関数パラメータに付与されたクラスターグループそれぞれのクラスターIDである確率に対するGT情報であることを特徴とする学習装置。 - 前記クラスターIDGTベクトルは、K+1ディメンションを有するベクトルであり、(I)前記入力イメージ上に前記車線が存在すると判断された場合、前記入力イメージの前記車線の中で、前記K個のクラスターIDの中の特定クラスターIDであるCkに属する特定車線が存在すれば、前記クラスターIDGTベクトルのk番目のディメンションは1が割り当てられ、前記クラスターIDの中で、前記入力イメージに存在しない他のクラスターIDそれぞれに対応する前記クラスターIDGTベクトルの他のディメンションは0が割り当てられ、前記クラスターIDGTベクトルのK+1番目のディメンションは0が割り当てられ、(II)前記入力イメージ上に前記車線が存在しないと判断されれば、前記クラスターIDGTベクトルの1ないしK番目のディメンションは0が割り当てられ、前記クラスターIDGTベクトルの前記K+1番目のディメンションは1が割り当てられ、
kは1ないしKの整数であり、
前記(iii)プロセスで、
前記クラスターID分類の前記予測結果ベクトルは、K+1ディメンションを有するベクトルであることを特徴とする請求項11に記載の学習装置。 - 前記それぞれの車線(Li,j)が前記クラスターグループの中で自身と対応する一つのクラスターグループ(Ck)にそれぞれ含まれ、前記車線(Li,j)それぞれと対応する前記クラスターIDに含まれたそれぞれのクラスターIDをkと表示した状態で、
前記各クラスターグループは、前記各クラスターグループに含まれる前記各車線の前記関数パラメータに対するそれぞれの平均値
前記プロセッサは、
(iv)予測されたクラスターIDそれぞれに対応する前記クラスターグループ代表値(θ k )各々を生成するか、他の装置をもって生成するように支援し、前記クラスターグループ代表値(θk)それぞれによって表現された予測車線それぞれを決定するか、他の装置をもって決定するように支援するプロセス
をさらに遂行することを特徴とする請求項12に記載の学習装置。 - 前記クラスターグループ代表値それぞれは、前記予測されたクラスターIDの中の、少なくとも一部を利用して算出され、前記予測されたクラスターIDの前記少なくとも一部は、前記予測結果ベクトルの各ベクトル成分が予め設定された値より大きいか否かに対する情報を参照して決定されることを特徴とする請求項13に記載の学習装置。
- 前記プロセッサは、
(v)GT車線のいずれか一つの車線の座標が、前記予測車線の各々の座標からx軸に平行な両方の任意の方向へ所定のピクセル数以内の領域に存在するか否かを基に、前記それぞれの予測車線の周囲に、前記GT車線のいずれかが存在するかを示す、少なくとも一つのイグジステンスロス(existence loss)を算出するか、他の装置をもって算出するように支援するプロセス;
(vi)前記予測車線それぞれの周辺に前記GT車線のいずれかが識別される場合、前記各予測車線の各々のピクセル(f(y|θk),y)と前記各予測車線にそれぞれ対応する前記GT車線の各々のピクセル(xGT,y)との各距離の差(xGT−f(y|θk))を参照して、少なくとも一つの距離リグレッションロスを算出するか、他の装置をもって獲得するように支援するプロセス;
(vii)前記イグジステンスロス及び前記距離リグレッションロスをバックプロパゲーションするか、他の装置をもってバックプロパゲーションするように支援して、前記CNNの前記装置パラメータを最適化するプロセス;
をさらに遂行することを特徴とする請求項13に記載の学習装置。 - 前記(v)プロセス以前に、
(v0)前記それぞれの予測車線の前記ピクセル(f(y|θk),y)周辺のそれぞれの領域を示す、少なくとも一つの領域フィーチャー(areal features)それぞれを前記特定の特徴マップから抽出するか、他の装置をもって抽出できるよう支援するプロセスをさらに遂行し、
前記抽出された領域フィーチャーを基に前記イグジステンスロス及び前記距離リグレッションロスを算出することを特徴とする請求項15に記載の学習装置。 - 前記(v)プロセスで、
前記イグジステンスロスは、クロスエントロピーを利用して算出し、
前記(vi)プロセスで、
前記距離リグレッションロスは、少なくとも一つのユークリッド距離リグレッションロスを利用して算出することを特徴とする請求項15に記載の学習装置。 - 車線モデル(lane model)を利用して少なくとも一つの車線を検出し得るCNN(Convolutional Neural Network)のテスト装置において、
(I)前記CNNを利用する学習装置が、(i)一つ以上のコンボリューションレイヤをもって、少なくとも一つの学習用イメージデータセットから選択された学習用入力イメージに対して一回以上のコンボリューション演算を適用して、一つ以上の学習用特徴マップを生成するプロセス;(ii)FCレイヤをもって、前記コンボリューションレイヤから出力された前記学習用特徴マップの中の学習用特定の特徴マップを前記FCレイヤに提供して、前記学習用入力イメージ内の前記車線の学習用クラスターID分類の予測結果ベクトルを生成し、ロスレイヤをもって、前記学習用クラスターID分類の前記予測結果ベクトル及びクラスターIDGTベクトルを参照にして、少なくとも一つの分類ロスを生成するプロセス;(iii)予測された学習用クラスターIDそれぞれに対応する学習用クラスターグループ代表値(θk)それぞれを生成し、前記学習用クラスターグループ代表値それぞれによって表現された学習用予測車線それぞれを決定するプロセス;(iv)GT車線のいずれか一つの車線の座標が、前記学習用予測車線の各々の座標からx軸に平行な両方の任意の方向へ所定のピクセル数以内の領域に存在するか否かをもとに、前記それぞれの学習用予測車線の周囲に前記GT車線のいずれかが存在するかを示す、少なくとも一つのイグジステンスロス(existence loss)を算出するプロセス;(v)前記学習用予測車線のそれぞれの周辺に前記GT車線のいずれかが識別される場合、前記学習用予測車線のそれぞれのピクセル(f(y|θk),y)と前記各学習用予測車線にそれぞれ対応する前記GT車線のそれぞれのピクセル(xGT,y)との各距離の差(xGT−f(y|θk))を参照して少なくとも一つの距離リグレッションロスを算出するプロセス;(vi) 前記分類ロス、前記イグジステンスロス及び前記距離リグレッションロスをバックプロパゲーションして、前記CNNの装置パラメータを最適化するプロセス;を経て学習された学習装置のパラメータが取得された状態で、テストイメージを取得するか、他の装置をもって取得するように支援する通信部;及び
(II)前記テストイメージに対して、コンボリューション演算を適用して、少なくとも一つのテスト用特徴マップを生成するか、他の装置をもって取得するように支援するプロセス、(III)前記テスト用特徴マップの中の特定のテスト用特徴マップを前記FC(Fully Connected)レイヤに提供して、前記FCレイヤをもって、テスト用前記テストイメージ内の前記車線のテスト用クラスターID分類の結果ベクトル(前記テスト用クラスターID分類の結果ベクトルは、前記車線それぞれに対して予測されたテスト用クラスターIDを少なくとも一つ以上含むものである)を生成するプロセス、及び(IV)前記予測されたテスト用クラスターIDそれぞれに対応するテスト用クラスターグループ代表値(θk)それぞれを生成し、前記テスト用クラスターグループ代表値(θ k )それぞれによって前記車線の各形状が表現された前記予測されたテスト用車線それぞれを決定するプロセッサ;
を含み、
前記クラスターIDGTベクトルは、前記学習用入力イメージ内の前記車線の情報を基に取得された関数パラメータをクラスタリングして、車線モデリング関数の前記関数パラメータに付与されたクラスターグループそれぞれの学習用クラスターIDである確率に対するGT情報であり、
前記それぞれの車線(Li,j)は、テスト用クラスターグループの中の自身と対応する一つのテスト用クラスターグループ(Ck)にそれぞれ含まれ、前記車線(Li,j)それぞれと対応する前記テスト用クラスターIDをそれぞれk(kは、1ないしKの間の値)と示した状態で、前記それぞれのテスト用クラスターグループは、前記テスト用各クラスターグループに含まれている前記各車線の前記関数パラメータに対するそれぞれの平均値
- 前記プロセッサは、
(V)それぞれのテスト用予測車線の前記ピクセル(f(y|θk),y)周辺のそれぞれの領域を示す少なくとも一つの領域フィーチャー(areal features)それぞれを前記特定のテスト用特徴マップから抽出するか、他の装置をもって抽出できるよう支援するプロセス;
(VI)前記テスト用予測車線のそれぞれの座標からx軸に平行な方向へ所定ピクセル数以内の領域に実際の車線の座標が存在するかを基に、前記実際の車線の中の一つが前記それぞれのテスト用予測車線周辺に存在するかを判断し、前記実際の車線の中の一つが周りに存在するならば、前記実際の車線の中の一つの座標と前記テスト用予測車線の座標との間の距離それぞれを計算するか、他の装置をもって計算するように支援するプロセス;及び
(VII)前記テスト用予測車線を前記距離のそれぞれの分だけ移動して、移動したテスト用予測車線を決定するか、他の装置をもって決定するように支援するプロセス;
をさらに遂行することを特徴とする請求項18に記載のテスト装置。 - 前記(IV)プロセスで、
前記テスト用クラスターグループ代表値それぞれは、前記予測されたテスト用クラスターID分類の前記結果ベクトルのうち、各ベクトル成分が予め設定してある値より大きいか否かに対する情報を参照にして決定された、前記予測されたテスト用クラスターIDの少なくとも一部を利用して、前記テスト用クラスターグループ代表値それぞれを取得することを特徴とする請求項18に記載のテスト装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/121,670 | 2018-09-05 | ||
US16/121,670 US10262214B1 (en) | 2018-09-05 | 2018-09-05 | Learning method, learning device for detecting lane by using CNN and testing method, testing device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020038660A JP2020038660A (ja) | 2020-03-12 |
JP6847463B2 true JP6847463B2 (ja) | 2021-03-24 |
Family
ID=66098465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019160025A Active JP6847463B2 (ja) | 2018-09-05 | 2019-09-03 | CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME} |
Country Status (5)
Country | Link |
---|---|
US (1) | US10262214B1 (ja) |
EP (1) | EP3620980B1 (ja) |
JP (1) | JP6847463B2 (ja) |
KR (1) | KR102279376B1 (ja) |
CN (1) | CN110889318B (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10783393B2 (en) * | 2017-06-20 | 2020-09-22 | Nvidia Corporation | Semi-supervised learning for landmark localization |
CN110287817B (zh) * | 2019-06-05 | 2021-09-21 | 北京字节跳动网络技术有限公司 | 目标识别及目标识别模型的训练方法、装置和电子设备 |
CN110363160B (zh) * | 2019-07-17 | 2022-09-23 | 河南工业大学 | 一种多车道线识别方法及装置 |
CN112446266B (zh) * | 2019-09-04 | 2024-03-29 | 北京君正集成电路股份有限公司 | 一种适合前端的人脸识别网络结构 |
US11836992B2 (en) * | 2021-01-29 | 2023-12-05 | General Motors Llc | Identification and clustering of lane lines on roadways using reinforcement learning |
CN113221643B (zh) * | 2021-04-06 | 2023-04-11 | 中国科学院合肥物质科学研究院 | 一种采用级联网络的车道线分类方法及系统 |
KR102531838B1 (ko) * | 2021-05-06 | 2023-05-12 | 대한민국 | 극자외선 태양 영상을 사용하여 지자기 교란 지수를 예측하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 |
CN113469239B (zh) * | 2021-06-29 | 2023-01-31 | 展讯通信(上海)有限公司 | 线损值评估模型生成方法、系统、设备及介质 |
KR102632773B1 (ko) | 2021-09-30 | 2024-02-06 | 고려대학교 산학협력단 | 의료데이터 스플릿 학습 시스템과 이의 제어방법 및 그 방법을 수행하기 위한 기록매체 |
CN114399828B (zh) * | 2022-03-25 | 2022-07-08 | 深圳比特微电子科技有限公司 | 用于图像处理的卷积神经网络模型的训练方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09223218A (ja) * | 1996-02-15 | 1997-08-26 | Toyota Motor Corp | 走路検出方法及び装置 |
KR19990059238A (ko) * | 1997-12-30 | 1999-07-26 | 정몽규 | 무인자율주행차량용 차선검출방법 및 조향제어장치 |
KR101225626B1 (ko) * | 2010-07-19 | 2013-01-24 | 포항공과대학교 산학협력단 | 차선 인식 시스템 및 방법 |
CN106688011B (zh) * | 2014-09-10 | 2018-12-28 | 北京市商汤科技开发有限公司 | 用于多类别物体检测的方法和系统 |
CN106157283A (zh) * | 2015-04-01 | 2016-11-23 | 株式会社理光 | 道路分割物的检测方法和装置 |
CN105354568A (zh) * | 2015-08-24 | 2016-02-24 | 西安电子科技大学 | 基于卷积神经网络的车标识别方法 |
CN105868691B (zh) * | 2016-03-08 | 2019-05-21 | 青岛邃智信息科技有限公司 | 基于快速区域卷积神经网络的城市车辆追踪方法 |
EP3507773A1 (en) * | 2016-09-02 | 2019-07-10 | Artomatix Ltd. | Systems and methods for providing convolutional neural network based image synthesis using stable and controllable parametric models, a multiscale synthesis framework and novel network architectures |
KR102628654B1 (ko) * | 2016-11-07 | 2024-01-24 | 삼성전자주식회사 | 차선을 표시하는 방법 및 장치 |
KR101879207B1 (ko) * | 2016-11-22 | 2018-07-17 | 주식회사 루닛 | 약한 지도 학습 방식의 객체 인식 방법 및 장치 |
JP6798860B2 (ja) * | 2016-11-29 | 2020-12-09 | 株式会社Soken | 境界線推定装置 |
CN106778668B (zh) * | 2016-12-30 | 2019-08-09 | 明见(厦门)技术有限公司 | 一种联合ransac和cnn的鲁棒的车道线检测方法 |
KR101869266B1 (ko) * | 2017-05-08 | 2018-06-21 | 경북대학교 산학협력단 | 극한 심층학습 기반 차선 검출 시스템 및 그 방법 |
KR102400017B1 (ko) * | 2017-05-17 | 2022-05-19 | 삼성전자주식회사 | 객체를 식별하는 방법 및 디바이스 |
CN107730904A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的多任务车辆逆向行驶视觉检测系统 |
CN107688823B (zh) * | 2017-07-20 | 2018-12-04 | 北京三快在线科技有限公司 | 一种图像特征获取方法及装置,电子设备 |
US10007865B1 (en) * | 2017-10-16 | 2018-06-26 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same |
CN108009524B (zh) * | 2017-12-25 | 2021-07-09 | 西北工业大学 | 一种基于全卷积网络的车道线检测方法 |
-
2018
- 2018-09-05 US US16/121,670 patent/US10262214B1/en active Active
-
2019
- 2019-06-04 EP EP19178056.8A patent/EP3620980B1/en active Active
- 2019-08-27 KR KR1020190105470A patent/KR102279376B1/ko active IP Right Grant
- 2019-08-30 CN CN201910813373.3A patent/CN110889318B/zh active Active
- 2019-09-03 JP JP2019160025A patent/JP6847463B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
EP3620980B1 (en) | 2023-11-01 |
KR20200027889A (ko) | 2020-03-13 |
CN110889318B (zh) | 2024-01-19 |
JP2020038660A (ja) | 2020-03-12 |
KR102279376B1 (ko) | 2021-07-21 |
US10262214B1 (en) | 2019-04-16 |
CN110889318A (zh) | 2020-03-17 |
EP3620980C0 (en) | 2023-11-01 |
EP3620980A1 (en) | 2020-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6847463B2 (ja) | CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME} | |
JP6980289B2 (ja) | 車線モデルを利用して車線を検出し得る学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane using lane model and test method, test device using the same} | |
JP6875021B2 (ja) | 有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6820030B2 (ja) | 異なるラベルセットを有する複数のラベリングされたデータベースを用いて学習する方法及び装置、そしてこれを利用したテスト方法及び装置{learning method and learning device using multiple labeled databases with different label sets and testing method and testing device using the same} | |
EP3620956B1 (en) | Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same | |
KR102337376B1 (ko) | 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP6869565B2 (ja) | 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} | |
JP2020038658A (ja) | エッジイメージを利用して物体を検出する学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 | |
JP6867054B2 (ja) | マルチカメラシステム内のダブルエンベディング構成を利用して、道路利用者イベントを検出するために用いられるセグメンテーション性能向上のための学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置。{learning method and learning device for improving segmentation performance to be used for detecting road user events using double embedding configuration in multi−camera system and testing method and testing device using the same} | |
JP6856952B2 (ja) | 複数のビデオフレームを利用してcnnのパラメータを最適化するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
US10303981B1 (en) | Learning method and testing method for R-CNN based object detector, and learning device and testing device using the same | |
JP6910081B2 (ja) | 協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置 | |
JP6892157B2 (ja) | V2x情報融合技術によって取得された、各物体に対する深さ予測情報及び各物体に対するクラス情報を利用して3d空間を再構築することによりhdマップをアップデートする学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
JP6865342B2 (ja) | Cnn基盤車線検出のための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6903352B2 (ja) | 非最大値抑制を学習する併合ネットワークを利用した異種センサ融合のための学習方法及び学習装置{learning method and learning device for heterogeneous sensor fusion by using merging network which learns non−maximum suppression} |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210224 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6847463 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |