JP2020038661A - 車線モデルを利用して車線を検出し得る学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane using lane model and test method, test device using the same} - Google Patents
車線モデルを利用して車線を検出し得る学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane using lane model and test method, test device using the same} Download PDFInfo
- Publication number
- JP2020038661A JP2020038661A JP2019160073A JP2019160073A JP2020038661A JP 2020038661 A JP2020038661 A JP 2020038661A JP 2019160073 A JP2019160073 A JP 2019160073A JP 2019160073 A JP2019160073 A JP 2019160073A JP 2020038661 A JP2020038661 A JP 2020038661A
- Authority
- JP
- Japan
- Prior art keywords
- lane
- cluster
- test
- learning
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 141
- 238000012360 testing method Methods 0.000 title claims description 187
- 238000010998 test method Methods 0.000 title claims description 8
- 239000013598 vector Substances 0.000 claims abstract description 146
- 230000006870 function Effects 0.000 claims abstract description 110
- 238000013527 convolutional neural network Methods 0.000 claims description 58
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 16
- 230000011218 segmentation Effects 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 241000282472 Canis lupus familiaris Species 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241001494479 Pecora Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/77—Determining position or orientation of objects or cameras using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
Description
[数式1]
x=f(y;θi,j)
ここで、Li,j={(x,y)|(x,y)は、i番目の入力イメージのj番目の車線の中点座標}={(x,y)|x=f(y;θi,j)}であり、θi,jはi番目の入力イメージのj番目の車線の各関数パラメータを示す。
Claims (28)
- 車線モデル(lane model)を利用して少なくとも一つの車線を検出し得るCNN(Convolutional Neural Network)の学習方法において、
(a)学習装置が、前記車線が含まれている少なくとも一つのイメージデータセットから前記車線の情報を取得するか、他の装置をもって取得できるように支援し、前記車線の情報は、前記各車線を成すピクセルの各座標の各集合で表現されることを特徴とする段階;
(b)前記学習装置が、前記各車線を成す前記ピクセルの前記各座標を利用して、前記各車線の車線モデリング関数の少なくとも一つの関数パラメータ(function parameters)を計算するか、他の装置をもって計算するように支援する段階;及び
(c)前記学習装置が、クラスタリングアルゴリズムを利用して、前記関数パラメータをK個のクラスターグループに分類するか、他の装置をもって分類するように支援し、少なくとも一つのクラスターIDを前記クラスターグループごとにそれぞれ付与するか、他の装置をもって付与するように支援し、前記車線のタイプに対応する前記クラスターIDである確率に対するGT(Ground Truth)情報を示すクラスターIDGTベクトルを生成するか、他の装置をもって生成するように支援する段階;
を含むことを特徴とする学習方法。 - (d)前記学習装置が、前記少なくとも一つのイメージデータセットから取得された入力イメージに対して、前記入力イメージ内の少なくとも一つの前記車線に対応する少なくとも一つの前記クラスターIDを予測し得る前記CNNの装置パラメータ(device parameters)を学習するか、他の装置をもって学習するように支援する段階;
をさらに含み、
前記(d)段階は、
(d1)前記学習装置が、少なくとも一つのコンボリューションレイヤをもって、前記入力イメージに対してコンボリューション演算を一回以上随行して少なくとも一つの特徴マップを生成するようにする段階;
(d2)前記学習装置が、前記コンボリューションレイヤから出力された特定の特徴マップをFC(Fully Connected)レイヤに提供して、前記FCレイヤをもって、前記入力イメージ内の前記車線のクラスターID分類の結果ベクトルを生成するようにする段階;及び
(d3)前記学習装置が、ロスレイヤをもって、前記クラスターID分類の前記結果ベクトル及び前記クラスターIDGTベクトルを参照にして少なくとも一つの分類ロスを算出し、前記分類ロスをバックプロパゲーションすることで前記CNNの前記装置パラメータを最適化するようにする段階;
を含むことを特徴とする請求項1に記載の学習方法。 - 前記クラスターIDGTベクトルは、K+1ディメンションを有するベクトルであり、(i)前記入力イメージ上に前記車線が存在すると判断された場合、前記入力イメージの前記車線の中に前記K個のクラスターIDのうち特定クラスターIDであるCkに属する特定車線が存在すれば、前記クラスターIDGTベクトルのk番目のディメンションは1が割り当てられ、前記クラスターIDのうち、前記入力イメージに存在していない他のクラスターIDそれぞれに対応する前記クラスターIDGTベクトルの他のディメンションは0が割り当てられ、前記クラスターIDGTベクトルのK+1番目のディメンションは0が割り当てられて、(ii)前記入力イメージ上に前記車線が存在しないと判断されれば、前記クラスターIDGTベクトルの1ないしK番目のディメンションは0が割り当てられ、前記クラスターIDGTベクトルの前記K+1番目のディメンションは1が割り当てられ、
ここで、kは1ないしKの整数であり、
前記(d3)段階で、
前記クラスターID分類の前記結果ベクトルは、K+1ディメンションを有するベクトルであることを特徴とする請求項2に記載の学習方法。 - 前記(b)段階で、
前記車線(Li,j)に含まれる中点座標(x,y)を示す前記車線モデリング関数は以下の数式で表され、
x=f(y;θi,j)
Li,j={(x,y)|(x,y)は、i番目の入力イメージのj番目の車線の前記各中点座標}={(x,y)|x=f(y;θi,j)}であり、θi,jは、前記i番目の入力イメージの前記j番目の車線の前記各関数パラメータを示すことを特徴とする請求項3に記載の学習方法。 - 前記車線モデリング関数の前記車線モデルは、パラメータ化されたモデルであり、前記関数パラメータはリグレッションアルゴリズムを用いて算出され、前記リグレッションアルゴリズムは、前記車線モデルによって異なるアルゴリズムが利用されることを特徴とする請求項4に記載の学習方法。
- 前記車線モデルは多項式関数であり、前記リグレッションアルゴリズムは、最小二乗誤差アルゴリズムであることを特徴とする請求項5に記載の学習方法。
- 前記(c)段階で、
前記それぞれの車線(Li,j)が前記クラスターグループの中の自身と対応する一つのクラスターグループ(Ck)にそれぞれ含まれ、前記車線(Li,j)それぞれと対応する前記クラスターIDに含まれたそれぞれのクラスターIDをkと示した状態で、
前記各クラスターグループは、前記各クラスターグループに含まれている前記各車線の前記関数パラメータに対する各々の平均値
を各クラスターグループ代表値(θk)として有し、
前記学習方法は、
(e)前記学習装置が、前記予測されたクラスターIDそれぞれに対応する前記クラスターグループ代表値それぞれを生成するか、他の装置をもって生成するように支援し、前記クラスターグループ代表値(θk)それぞれによって表現された前記予測された車線それぞれを決定するか、他の装置をもって決定するように支援する段階;
をさらに含むことを特徴とする請求項4に記載の学習方法。 - 前記クラスターグループ代表値は、前記予測されたクラスターIDの中から少なくとも一部を利用して算出され、前記予測されたクラスターIDの前記少なくとも一部は前記結果ベクトルの各ベクトル成分が予め設定してある値より大きいか否かに対する情報を参照にして決定されることを特徴とする請求項7に記載の学習方法。
- (f)前記学習装置が、前記GT車線のいずれかの車線の各座標が、前記予測車線の各座標からx軸に平行な両方の任意方向へ所定のピクセル数以内の領域に存在するか否かを基に、前記それぞれの予測車線周辺にGT車線のいずれかが存在するかを示す少なくとも一つのイグジステンスロス(existence loss)を算出するか、他の装置をもって算出するように支援する段階;
(g)前記学習装置が、前記予測車線のそれぞれの周辺に前記GT車線のいずれかが識別される場合、前記予測車線のそれぞれのピクセル(f(y|θk),y)と前記各予測車線にそれぞれ対応する前記GT車線のそれぞれのピクセル(xGT,y)との各距離の差(xGT−f(y|θk))を参照して少なくとも一つの距離リグレッションロスを算出するか、他の装置をもって算出するように支援する段階;
(h)前記学習装置が、前記イグジステンスロス及び前記距離リグレッションロスをバックプロパゲーションするか、他の装置をもってバックプロパゲーションするように支援して前記CNN前記装置パラメータを最適化する段階;
をさらに含むことを特徴とする請求項7に記載の学習方法。 - 前記(f)段階以前に、
(f0)前記学習装置が、前記それぞれの予測車線の前記ピクセル(f(y|θk),y)周辺のそれぞれの領域を示す少なくとも一つの領域フィーチャー(areal features)それぞれを前記特定の特徴マップから抽出するか、他の装置をもって抽出するように支援する段階;
をさらに含み、
前記抽出された領域フィーチャーを基に、前記イグジステンスロス及び前記距離リグレッションロスを算出することを特徴とする請求項9に記載の学習方法。 - 前記(f)において、
前記イグジステンスロスは、クロスエントロピーを利用して算出し、
前記(g)段階において、
前記距離リグレッションロスは、少なくとも一つのユークリッド距離リグレッションロスを利用して算出することを特徴とする請求項9に記載の学習方法。 - 車線モデル(lane model)を利用して少なくとも一つの車線を検出し得るCNN(Convolutional Neural Network)のテスト方法において、
(a)前記CNNを利用する学習装置において、(i)前記車線が含まれている少なくとも一つのトレーニングイメージデータセットから前記車線の情報を取得するか、他の装置をもって取得できるように支援し、前記車線の情報は、前記各車線を成すピクセルの各座標の各集合で表現されることを特徴とするプロセス;(ii)前記各車線を成す前記ピクセルの前記各座標を利用して、前記各車線の車線モデリング関数の少なくとも一つの関数パラメータ(function parameters)を計算するか他の装置をもって計算できるように支援するプロセス;(iii)クラスタリングアルゴリズムを利用して、前記関数パラメータをK個のクラスターグループに分類するか、他の装置をもって分類するように支援し、前記クラスターグループごとに少なくとも一つの前記クラスターIDをそれぞれ付与するか、他の装置をもって付与するように支援し、前記車線のタイプに対応する前記クラスターIDである確率に対するGT(Ground Truth)情報を示すクラスターIDGTベクトルを生成するか、他の装置をもって生成するように支援するプロセス;(iv)前記トレーニングイメージに対して、コンボリューション演算を一回以上随行して少なくとも一つの学習用特徴マップを生成するプロセス;(v)前記学習用特徴マップの中の特定の特徴マップをFC(Fully Connected)レイヤに提供して、前記入力イメージ内の前記車線の前記学習用クラスターID分類の結果ベクトルを生成し、前記学習用クラスターID分類の前記結果ベクトル及び前記クラスターIDGTベクトルを参照にして少なくとも一つの分類ロスを算出するプロセス;(vi)前記予測された学習用クラスターIDそれぞれに対応する前記学習用クラスターグループ代表値それぞれを生成するか、他の装置をもって生成するように支援し、前記学習用クラスターグループ代表値(θk)それぞれによって表現された前記予測された車線それぞれを決定するか、他の装置をもって決定するように支援するプロセス、(vii)前記学習用予測車線の各座標からx軸に平行な両方の任意方向へ所定のピクセル数以内の領域に存在するか否かを基に、前記それぞれの学習用予測車線周辺にGT車線のいずれかが存在するかを示す少なくとも一つのイグジステンスロス(existence loss)を算出するか、他の装置をもって算出するように支援するプロセス;(viii)前記学習用予測車線のそれぞれの周辺に前記GT車線のいずれかが識別される場合、前記学習用予測車線のそれぞれのピクセル(f(y|θk),y)と前記各予測車線にそれぞれ対応する前記GT車線のそれぞれのピクセル(xGT,y)との各距離の差(xGT−f(y|θk))を参照して少なくとも一つの距離リグレッションロスを算出するか、他の装置をもって算出するように支援するプロセス;(ix)前記分類ロス、前記イグジステンスロス及び前記距離リグレッションロスをバックプロパゲーションして、前記CNNの前記装置パラメータを最適化するプロセス;を経て学習された学習装置のパラメータが取得された状態で、前記学習装置のパラメータを利用したテスト装置が、テストイメージを取得するか、他の装置をもって取得するように支援する段階;
(b)前記テスト装置が、前記テストイメージに対して、コンボリューション演算を一回以上随行して少なくとも一つのテスト用特徴マップを生成するか、他の装置をもって取得するように支援する段階;
(c)前記テスト装置が、前記テスト用特徴マップから、特定のテスト用特徴マップをFC(Fully Connected)レイヤに提供して、前記FCレイヤをもって、前記テスト用入力イメージ内の前記車線のテスト用クラスターID分類の結果ベクトル(前記テスト用クラスターID分類の結果ベクトルは、前記車線それぞれに対して予測されたテスト用クラスターIDを少なくとも一つ以上含むものである)を生成する段階;及び
(d)前記テスト装置が、前記予測されたテスト用クラスターIDそれぞれに対応する前記テスト用クラスターグループ代表値それぞれを生成するか、他の装置をもって生成するように支援し、前記テスト用クラスターグループ代表値(θk)それぞれによって前記車線の各形状が表現された前記予測されたテスト用車線それぞれを決定するか、他の装置をもって決定するように支援する段階;
を含み、
前記それぞれの車線(Li,j)は、前記テスト用クラスターグループの中の自身と対応する一つのテスト用クラスターグループ(Ck)にそれぞれ含まれ、前記車線(Li,j)それぞれと対応する前記テスト用クラスターIDをそれぞれk(ここで、kは、1ないしKの間の値)と示した状態で、前記テスト用クラスターグループそれぞれは、前記テスト用クラスターグループに含まれている前記各車線の前記関数パラメータに対するそれぞれの平均値
をテスト用各クラスターグループ代表値(θk)として有することを特徴とするテスト方法。 - (e)前記テスト装置が、前記テスト用それぞれの予測車線の前記ピクセル(f(y|θk),y)周辺のそれぞれの領域を示す少なくとも一つの領域フィーチャー(areal features)それぞれを前記特定のテスト用特徴マップから抽出するか、他の装置をもって抽出するように支援する段階;
(f)前記テスト装置が、前記テスト用予測車線のそれぞれの座標からx軸に平行な方向へ所定ピクセル数以内の領域に実際の車線の座標が存在するかを基に、前記実際の車線のうちの一つが前記それぞれのテスト用予測車線周辺に存在するかを判断し、前記実際の車線のうちの一つが周りに存在する場合、前記実際の車線のうちの一つの座標と前記テスト用予測車線座標との間の距離それぞれを計算するか、他の装置をもって計算するように支援する段階;及び
(g)前記テスト装置が、前記テスト用予測車線を上記距離のそれぞれの分だけ移動し、移動したテスト用予測車線を決定するか、他の装置をもって決定するように支援する段階;
をさらに含むことを特徴とする請求項12に記載のテスト方法。 - 前記(d)段階は、
前記テスト用クラスターグループ代表値それぞれは、前記予測されたテスト用クラスターID分類の前記結果ベクトルのうち、各ベクトル成分が予め設定してある値より大きいか否かに対する情報を参照にして、前記予測されたテスト用クラスターIDの少なくとも一部を利用して、前記テスト用クラスターグループ代表値それぞれを取得することを特徴とする請求項12に記載のテスト方法。 - 車線モデル(lane model)を利用して少なくとも一つの車線を検出し得るCNN(Convolutional Neural Network)の学習装置において、
前記車線が含まれているイメージデータセットを取得するための通信部;及び
(i)前記車線が含まれているイメージデータセットから前記車線の情報を取得するか、他の装置をもって取得できるように支援し、前記車線の情報は、前記各車線を成すピクセルの各座標の各集合で表現されることを特徴とするプロセス、(ii)前記各車線を成す前記ピクセルの前記各座標を利用して、前記各車線の車線モデリング関数の少なくとも一つの関数パラメータ(function parameters)を計算するか、他の装置をもって計算するように支援するプロセス、及び(iii)クラスタリングアルゴリズムを利用して、前記関数パラメータをK個のクラスターグループに分類するか、他の装置をもって分類するように支援し、前記クラスターグループごとに少なくとも一つのクラスターIDをそれぞれ付与するか、他の装置をもって付与するように支援し、前記車線のタイプに対応する前記クラスターIDである確率に対するGT(Ground Truth)情報を示すクラスターIDGTベクトルを生成するか、他の装置をもって生成するように支援するプロセスを遂行するプロセッサ;
を含むことを特徴とする学習装置。 - 前記プロセッサは、(iv)前記少なくとも一つのイメージデータセットから取得された入力イメージに対して、前記入力イメージ内の少なくとも一つの前記車線に対応する少なくとも一つの前記クラスターIDを予測し得る前記CNNの装置パラメータ(device parameters)を学習するか他の装置をもって学習するように支援するプロセスをさらに遂行し、
前記(iv)プロセスは、
(iv−1)少なくとも一つのコンボリューションレイヤをもって、前記入力イメージに対してコンボリューション演算を一回以上随行して少なくとも一つの特徴マップを生成するようにするプロセス;
(iv−2)前記コンボリューションレイヤから出力された特定の特徴マップをFC(Fully Connected)レイヤに提供して、前記FCレイヤをもって、前記入力イメージ内の前記車線のクラスターID分類の結果ベクトルを生成するようにするプロセス;及び
(iv−3)ロスレイヤをもって、前記クラスターID分類の前記結果ベクトル及び前記クラスターIDGTベクトルを参照にして少なくとも一つの分類ロスを算出し、前記分類ロスをバックプロパゲーションすることで前記CNNの前記装置パラメータを最適化するようにするプロセス;
を含むことを特徴とする請求項15に記載の学習装置。 - 前記クラスターIDGTベクトルは、K+1ディメンションを有するベクトルであり、(i)前記入力イメージ上に前記車線が存在すると判断された場合、前記入力イメージの前記車線の中に前記K個のクラスターIDのうち特定クラスターIDであるCkに属する特定車線が存在すれば、前記クラスターIDGTベクトルのk番目のディメンションは1が割り当てられ、前記クラスターIDのうち、前記入力イメージに存在しない他のクラスターIDそれぞれに対応する前記クラスターIDGTベクトルの他のディメンションは0が割り当てられ、前記クラスターIDGTベクトルのK+1番目のディメンションは0が割り当てられて、(ii)前記入力イメージ上に前記車線が存在しないと判断されれば、前記クラスターIDGTベクトルの1ないしK番目のディメンションは0が割り当てられ、前記クラスターIDGTベクトルの前記K+1番目のディメンションは1が割り当てられ、
ここで、kは1ないしKの整数であり、
前記(iv−3)プロセスで、
前記クラスターID分類の前記結果ベクトルは、K+1ディメンションを有するベクトルであることを特徴とする請求項16に記載の学習装置。 - 前記(ii)プロセスで、
前記車線(Li,j)に含まれる中点座標(x,y)を示す前記車線モデリング関数は以下の数式で表され、
x=f(y;θi,j)
Li,j={(x,y)|(x,y)は、i番目の入力イメージのj番目の車線の前記各中点座標}={(x,y)|x=f(y;θi,j)}であり、θi,jは、前記i番目の入力イメージの前記j番目の車線の前記各関数パラメータを示すことを特徴とする請求項17に記載の学習装置。 - 前記車線モデリング関数の前記車線モデルは、パラメータ化されたモデルであり、前記関数パラメータはリグレッションアルゴリズムを用いて算出され、前記リグレッションアルゴリズムは、前記車線モデルによって異なるアルゴリズムが利用されることを特徴とする請求項18に記載の学習装置。
- 前記車線モデルは多項式関数であり、前記リグレッションアルゴリズムは、最小二乗誤差アルゴリズムであることを特徴とする請求項19に記載の学習装置。
- 前記(iii)プロセスにおいて、
前記それぞれの車線(Li,j)が前記クラスターグループの中の自身と対応する一つのクラスターグループ(Ck)にそれぞれ含まれ、前記車線(Li,j)それぞれと対応する前記クラスターIDに含まれたそれぞれのクラスターIDをkと示した状態で、
前記各クラスターグループは、前記各クラスターグループに含まれている前記各車線の前記関数パラメータに対する各々の平均値
を各クラスターグループ代表値(θk)として有し、
前記プロセッサは、
(v)前記予測されたクラスターIDそれぞれに対応する前記クラスターグループ代表値それぞれを生成するか、他の装置をもって生成するように支援し、前記クラスターグループ代表値(θk)それぞれによって表現された前記予測された車線それぞれを決定するか、他の装置をもって決定するように支援するプロセス
をさらに遂行することを特徴とする請求項18に記載の学習装置。 - 前記クラスターグループ代表値は、前記予測されたクラスターIDの中から少なくとも一部を利用して算出され、前記予測されたクラスターIDの前記少なくとも一部は前記結果ベクトルの各ベクトル成分が予め設定してある値より大きいか否かに対する情報を参照にして決定されることを特徴とする請求項21に記載の学習装置。
- 前記プロセッサは、
(vi)前記GT車線のいずれかの車線の各座標が、前記予測車線の各座標からx軸に平行な両方の任意方向へ所定のピクセル数以内の領域に存在するか否かを基に、前記それぞれの予測車線周辺にGT車線のいずれかが存在するかを示す少なくとも一つのイグジステンスロス(existence loss)を算出するか、他の装置をもって算出するように支援するプロセス;
(vii)前記予測車線のそれぞれの周辺に前記GT車線のいずれかが識別される場合、前記予測車線のそれぞれのピクセル(f(y|θk),y)と前記各予測車線にそれぞれ対応する前記GT車線のそれぞれのピクセル(xGT,y)との各距離の差(xGT−f(y|θk))を参照して少なくとも一つの距離リグレッションロスを算出するか、他の装置をもって算出するように支援するプロセス;
(viii)前記イグジステンスロス及び前記距離リグレッションロスをバックプロパゲーションするか、他の装置をもってバックプロパゲーションするように支援して前記CNN前記装置パラメータを最適化するプロセス;
をさらに遂行することを特徴とする請求項21に記載の学習装置。 - 前記(vi)プロセス以前に、
(vi−0)前記それぞれの予測車線の前記ピクセル(f(y|θk),y)周辺のそれぞれの領域を示す少なくとも一つの領域フィーチャー(areal features)それぞれを前記特定の特徴マップから抽出するか、他の装置をもって抽出するように支援するプロセスをさらに遂行し、
前記抽出された領域フィーチャーを基に、前記イグジステンスロス及び前記距離リグレッションロスを算出することを特徴とする請求項23に記載の学習装置。 - 前記(vi)プロセスにおいて、
前記イグジステンスロスは、クロスエントロピーを利用して算出し、
前記(vii)プロセスにおいて、
前記距離リグレッションロスは、少なくとも一つのユークリッド距離リグレッションロスを利用して算出することを特徴とする請求項23に記載の学習装置。 - 車線モデル(lane model)を利用して少なくとも一つの車線を検出し得るCNN(Convolutional Neural Network)のテスト装置において、
前記CNNを利用する学習装置において、(i)前記車線が含まれている少なくとも一つのトレーニングイメージデータセットから前記車線の情報を取得するか、他の装置をもって取得できるように支援し、前記車線の情報は、前記各車線を成すピクセルの各座標の各集合で表現されることを特徴とするプロセス;(ii)前記各車線を成す前記ピクセルの前記各座標を利用して、前記各車線の車線モデリング関数の少なくとも一つの関数パラメータ(function parameters)を計算するか他の装置をもって計算できるように支援するプロセス;(iii)クラスタリングアルゴリズムを利用して、前記関数パラメータをK個のクラスターグループに分類するか、他の装置をもって分類するように支援し、前記クラスターグループごとに少なくとも一つの前記クラスターIDをそれぞれ付与するか、他の装置をもって付与するように支援し、前記車線のタイプに対応する前記クラスターIDである確率に対するGT(Ground Truth)情報を示すクラスターIDGTベクトルを生成するか、他の装置をもって生成するように支援するプロセス;(iv)前記トレーニングイメージに対して、コンボリューション演算を一回以上随行して少なくとも一つの学習用特徴マップを生成するプロセス;(v)前記学習用特徴マップから、特定の特徴マップをFC(Fully Connected)レイヤに提供して、前記入力イメージ内の前記車線の前記学習用クラスターID分類の結果ベクトルを生成し、前記学習用クラスターID分類の前記結果ベクトル及び前記クラスターIDGTベクトルを参照にして少なくとも一つの分類ロスを算出するプロセス;(vi)前記予測された学習用クラスターIDそれぞれに対応する前記学習用クラスターグループ代表値それぞれを生成するか、他の装置をもって生成するように支援し、前記学習用クラスターグループ代表値(θk)それぞれによって表現された前記予測された車線それぞれを決定するか、他の装置をもって決定するように支援するプロセス、(vii)前記学習用予測車線の各座標からx軸に平行な両方の任意方向へ所定のピクセル数以内の領域に存在するか否かを基に、前記それぞれの学習用予測車線周辺にGT車線のいずれかが存在するかを示す少なくとも一つのイグジステンスロス(existence loss)を算出するか、他の装置をもって算出するように支援するプロセス;(viii)前記学習用予測車線のそれぞれの周辺に前記GT車線のいずれかが識別される場合、前記学習用予測車線のそれぞれのピクセル(f(y|θk),y)と前記各予測車線にそれぞれ対応する前記GT車線のそれぞれのピクセル(xGT,y)との各距離の差(xGT−f(y|θk))を参照して少なくとも一つの距離リグレッションロスを算出するか、他の装置をもって算出するように支援するプロセス;(ix)前記分類ロス、前記イグジステンスロス及び前記距離リグレッションロスをバックプロパゲーションして、前記CNNの前記装置パラメータを最適化するプロセス、を経て学習された学習装置のパラメータが取得された状態で、テストイメージを取得するか、他の装置をもって取得するように支援する通信部;及び
(I)前記テストイメージに対して、コンボリューション演算を一回以上随行して少なくとも一つのテスト用特徴マップを生成するか、他の装置をもって取得するように支援するプロセス、(II)前記テスト用特徴マップから、特定のテスト用特徴マップをFC(Fully Connected)レイヤに提供して、前記FCレイヤをもって、前記テスト用入力イメージ内の前記車線のテスト用クラスターID分類の結果ベクトル(前記テスト用クラスターID分類の結果ベクトルは、前記車線それぞれに対して予測されたテスト用クラスターIDを少なくとも一つ以上含むものである)を生成するプロセス、及び(III)前記予測されたテスト用クラスターIDそれぞれに対応する前記テスト用クラスターグループ代表値それぞれを生成するか、他の装置をもって生成するように支援し、前記テスト用クラスターグループ代表値(θk)それぞれによって前記車線の各形状が表現された前記予測されたテスト用車線それぞれを決定するか、他の装置をもって決定するように支援するプロセスを遂行するプロセッサ;
を含み、
前記それぞれの車線(Li,j)は、前記テスト用クラスターグループの中の自身と対応する一つのテスト用クラスターグループ(Ck)にそれぞれ含まれ、前記車線(Li,j)それぞれと対応する前記テスト用クラスターIDをそれぞれk(ここで、kは、1ないしKの間の値)と示した状態で、前記テスト用クラスターグループは、前記テスト用各クラスターグループに含まれている前記各車線の前記関数パラメータに対するそれぞれの平均値
をテスト用各クラスターグループ代表値(θk)として有することを特徴とするテスト装置。 - 前記プロセッサは、
(IV)前記テスト用それぞれの予測車線の前記ピクセル(f(y|θk),y)周辺のそれぞれの領域を示す少なくとも一つの領域フィーチャー(areal features)それぞれを前記特定のテスト用特徴マップから抽出するか、他の装置をもって抽出するように支援するプロセス;
(V)前記テスト用予測車線のそれぞれの座標からx軸に平行な方向へ所定ピクセル数以内の領域に実際の車線の座標が存在するかを基に、前記実際の車線のうちの一つが前記それぞれのテスト用予測車線周辺に存在するかを判断し、前記実際の車線のうちの一つが周りに存在する場合、前記実際の車線のうちの一つの座標と前記テスト用予測車線座標との間の距離それぞれを計算するか、他の装置をもって計算するように支援するプロセス;及び
(VI)前記テスト用予測車線を前記距離のそれぞれの分だけ移動し、移動したテスト用予測車線を決定するか、他の装置をもって決定するように支援するプロセス;
をさらに遂行することを特徴とする請求項26に記載のテスト装置。 - 前記(III)プロセスにおいて、
前記テスト用クラスターグループ代表値それぞれは、前記予測されたテスト用クラスターID分類の前記結果ベクトルのうち、各ベクトル成分が予め設定してある値より大きいか否かに対する情報を参照にして、前記予測されたテスト用クラスターIDの少なくとも一部を利用して、前記テスト用クラスターグループ代表値それぞれを取得することを特徴とする請求項26に記載のテスト装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/121,640 US10275667B1 (en) | 2018-09-05 | 2018-09-05 | Learning method, learning device for detecting lane through lane model and testing method, testing device using the same |
US16/121,640 | 2018-09-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020038661A true JP2020038661A (ja) | 2020-03-12 |
JP6980289B2 JP6980289B2 (ja) | 2021-12-15 |
Family
ID=66248244
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019160073A Active JP6980289B2 (ja) | 2018-09-05 | 2019-09-03 | 車線モデルを利用して車線を検出し得る学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane using lane model and test method, test device using the same} |
Country Status (5)
Country | Link |
---|---|
US (1) | US10275667B1 (ja) |
EP (1) | EP3620958B1 (ja) |
JP (1) | JP6980289B2 (ja) |
KR (1) | KR102279388B1 (ja) |
CN (1) | CN110879961B (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2016374520C1 (en) * | 2015-12-14 | 2020-10-15 | Motion Metrics International Corp. | Method and apparatus for identifying fragmented material portions within an image |
CN110246180A (zh) * | 2019-05-17 | 2019-09-17 | 福州瑞芯微电子股份有限公司 | 一种基于深度学习的教师位置检测方法及系统 |
CN111126327B (zh) * | 2019-12-30 | 2023-09-15 | 中国科学院自动化研究所 | 车道线检测方法、系统、车载系统及车辆 |
CN111141306A (zh) * | 2020-01-07 | 2020-05-12 | 深圳南方德尔汽车电子有限公司 | 基于A-star全局路径规划方法、装置、计算机设备及存储介质 |
CN111666808A (zh) * | 2020-04-20 | 2020-09-15 | 中汽数据有限公司 | 一种生成车辆典型变道测试工况的方法 |
US20220227397A1 (en) * | 2021-01-19 | 2022-07-21 | Baidu Usa Llc | Dynamic model evaluation package for autonomous driving vehicles |
KR20220144456A (ko) * | 2021-04-19 | 2022-10-27 | 현대모비스 주식회사 | Svm 원 영상을 기반으로 근접 주행 환경을 인식하는 방법 및 시스템 |
CN116543365B (zh) * | 2023-07-06 | 2023-10-10 | 广汽埃安新能源汽车股份有限公司 | 一种车道线识别方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09223218A (ja) * | 1996-02-15 | 1997-08-26 | Toyota Motor Corp | 走路検出方法及び装置 |
JP2017076371A (ja) * | 2015-08-27 | 2017-04-20 | トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド | 自動式移動体のための経路決定方法 |
US20180129887A1 (en) * | 2016-11-07 | 2018-05-10 | Samsung Electronics Co., Ltd. | Method and apparatus for indicating lane |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5083658B2 (ja) * | 2008-03-26 | 2012-11-28 | 本田技研工業株式会社 | 車両用車線認識装置、車両、及び車両用車線認識プログラム |
KR101225626B1 (ko) * | 2010-07-19 | 2013-01-24 | 포항공과대학교 산학협력단 | 차선 인식 시스템 및 방법 |
CN105260699B (zh) * | 2015-09-10 | 2018-06-26 | 百度在线网络技术(北京)有限公司 | 一种车道线数据的处理方法及装置 |
US9418546B1 (en) * | 2015-11-16 | 2016-08-16 | Iteris, Inc. | Traffic detection with multiple outputs depending on type of object detected |
JP6798860B2 (ja) * | 2016-11-29 | 2020-12-09 | 株式会社Soken | 境界線推定装置 |
KR101882743B1 (ko) | 2017-04-17 | 2018-08-30 | 인하대학교 산학협력단 | 콘볼루션 신경망 기반-계층적 특징 모델링을 이용한 효율적인 객체 검출 방법 |
KR101949448B1 (ko) * | 2017-04-25 | 2019-02-18 | 서울대학교산학협력단 | 가우시안 프로세스 회귀분석을 이용한 클러스터링 방법 및 그 장치 |
US10007865B1 (en) * | 2017-10-16 | 2018-06-26 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same |
KR101896406B1 (ko) | 2018-03-13 | 2018-10-22 | 연세대학교 산학협력단 | 블랙박스 영상을 이용한 딥러닝 기반의 픽셀 단위 도로 크랙 검출 장치 및 그 방법, 그리고 이 방법을 실행시키기 위해 컴퓨터가 판독 가능한 기록매체에 저장된 컴퓨터 프로그램 |
-
2018
- 2018-09-05 US US16/121,640 patent/US10275667B1/en active Active
-
2019
- 2019-06-04 EP EP19178066.7A patent/EP3620958B1/en active Active
- 2019-08-27 KR KR1020190105469A patent/KR102279388B1/ko active IP Right Grant
- 2019-08-30 CN CN201910813171.9A patent/CN110879961B/zh active Active
- 2019-09-03 JP JP2019160073A patent/JP6980289B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09223218A (ja) * | 1996-02-15 | 1997-08-26 | Toyota Motor Corp | 走路検出方法及び装置 |
JP2017076371A (ja) * | 2015-08-27 | 2017-04-20 | トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド | 自動式移動体のための経路決定方法 |
US20180129887A1 (en) * | 2016-11-07 | 2018-05-10 | Samsung Electronics Co., Ltd. | Method and apparatus for indicating lane |
Non-Patent Citations (1)
Title |
---|
DAVY NEVEN ET AL: "Towards End-to-End Lane Detection: an Instance Segmentation Approach", 2018 IEEE INTELLIGENT VEHICLES SYMPOSIUM (IV), JPN6020041088, 30 June 2018 (2018-06-30), US, pages 286 - 291, XP033423446, ISSN: 0004623493, DOI: 10.1109/IVS.2018.8500547 * |
Also Published As
Publication number | Publication date |
---|---|
US10275667B1 (en) | 2019-04-30 |
EP3620958C0 (en) | 2023-11-29 |
JP6980289B2 (ja) | 2021-12-15 |
EP3620958B1 (en) | 2023-11-29 |
CN110879961A (zh) | 2020-03-13 |
KR102279388B1 (ko) | 2021-07-21 |
EP3620958A1 (en) | 2020-03-11 |
KR20200027888A (ko) | 2020-03-13 |
CN110879961B (zh) | 2023-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6847463B2 (ja) | CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME} | |
CN109614985B (zh) | 一种基于密集连接特征金字塔网络的目标检测方法 | |
JP6980289B2 (ja) | 車線モデルを利用して車線を検出し得る学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane using lane model and test method, test device using the same} | |
EP3405845B1 (en) | Object-focused active three-dimensional reconstruction | |
JP6847464B2 (ja) | 車線候補ピクセルを分類して車線を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane through classifying lane candidate pixels and test method, test device using the same} | |
JP6875021B2 (ja) | 有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
Alhussan et al. | Pothole and plain road classification using adaptive mutation dipper throated optimization and transfer learning for self driving cars | |
JP6869565B2 (ja) | 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} | |
KR102372703B1 (ko) | V2v 통신을 통해 획득된 타 자율 주행 차량의 공간 탐지 결과를 자신의 자율 주행 차량의 공간 탐지 결과와 통합하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102372687B1 (ko) | 비최대값 억제를 학습하는 병합 네트워크를 이용한 이종 센서 융합을 위한 학습 방법 및 학습 장치 | |
JP2020038669A (ja) | 複数のビデオフレームを利用してcnnのパラメータを最適化するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
CN111508252A (zh) | 利用v2x信息集成技术更新高清地图的方法和装置 | |
JP6865342B2 (ja) | Cnn基盤車線検出のための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
Nagy et al. | 3D CNN based phantom object removing from mobile laser scanning data | |
JP2021197184A (ja) | 分類器を訓練及びテストするためのデバイス及び方法 | |
al Atrash et al. | Detecting and Counting People's Faces in Images Using Convolutional Neural Networks | |
Shon et al. | Identifying the exterior image of buildings on a 3D map and extracting elevation information using deep learning and digital image processing | |
Kumar et al. | Stationary Object Detection using RetinaNet and Kalman Filter | |
Lee | Deep Convolutional Neural Network Based Single Tree Detection Using Volumetric Module From Airborne Lidar Data | |
Sevastopoulos et al. | Depth-guided Free-space Segmentation for a Mobile Robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211026 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6980289 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |