JP6810415B2 - 自律走行自動車のレベル4を満たすために領域のクラスに応じてモードを切り換えてグリッドセルごとに重み付けコンボリューションフィルタを利用した監視用イメージセグメンテーション方法及び装置、並びにそれを利用したテスト方法及びテスト装置 - Google Patents
自律走行自動車のレベル4を満たすために領域のクラスに応じてモードを切り換えてグリッドセルごとに重み付けコンボリューションフィルタを利用した監視用イメージセグメンテーション方法及び装置、並びにそれを利用したテスト方法及びテスト装置 Download PDFInfo
- Publication number
- JP6810415B2 JP6810415B2 JP2019239382A JP2019239382A JP6810415B2 JP 6810415 B2 JP6810415 B2 JP 6810415B2 JP 2019239382 A JP2019239382 A JP 2019239382A JP 2019239382 A JP2019239382 A JP 2019239382A JP 6810415 B2 JP6810415 B2 JP 6810415B2
- Authority
- JP
- Japan
- Prior art keywords
- feature map
- layer
- weighted
- test
- specific
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 61
- 238000012360 testing method Methods 0.000 title claims description 49
- 238000003709 image segmentation Methods 0.000 title claims description 18
- 238000010998 test method Methods 0.000 title claims description 4
- 238000012544 monitoring process Methods 0.000 title 1
- 238000013527 convolutional neural network Methods 0.000 claims description 61
- 230000011218 segmentation Effects 0.000 claims description 41
- 230000008569 process Effects 0.000 claims description 38
- 238000012549 training Methods 0.000 claims description 22
- 230000009466 transformation Effects 0.000 claims description 8
- 238000012546 transfer Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Game Theory and Decision Science (AREA)
- Neurology (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Business, Economics & Management (AREA)
- Algebra (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
W_C_Filteri=αi*B+βi
ここで、W_C_Filteriは、前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれの値それぞれを意味し、Bは前記参照領域に対応する参照フィルタ値を意味し、αi及びβiそれぞれは、前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれに対応する線形変換パラメータ(Linear Transformation Parameter)それぞれを意味し、前記(c)段階で、前記学習装置は、前記αi、βi及びBを学習することにより、前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれを学習することを特徴とする。
W_C_Filteri=αi*B+βi
ここで、W_C_Filteriは、前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれの値それぞれを意味し、Bは前記参照領域に対応する参照フィルタ値を意味し、αi及びβiそれぞれは、前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれに対応する線形変換パラメータ(Linear Transformation Parameter)それぞれを意味し、前記(III)プロセスで、前記プロセッサは、前記αi、βi及びBを学習することにより、前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれを学習することを特徴とする。
ここで、W_C_Filteriはグリッドセルごとの重み付けコンボリューションフィルタそれぞれの値それぞれを意味し、Bは参照領域に対応する参照フィルタ値を意味し、αi及びβiそれぞれは、グリッドセルごとの重み付けコンボリューションフィルタそれぞれに対応する線形変換パラメータ(Linear Transformation Parameter)それぞれを意味する。
Claims (16)
- グリッドセル(Grid Cell)ごとに複数個の重み付けコンボリューションフィルタ(Weighted Convolution Filter)それぞれを利用したイメージセグメンテーション方法において、
(a)少なくとも一つの入力イメージが取得されると、学習装置が、(i)CNN(Convolutional Neural Network)モジュールのエンコードレイヤをもって、前記入力イメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つのエンコード済み特徴マップを生成させ、(ii)前記CNNモジュールのデコードレイヤをもって、前記エンコードレイヤから出力された特定のエンコード済み特徴マップに対してデコンボリューション演算を少なくとも一回適用させて少なくとも一つのデコード済み特徴マップを生成させる段階;
(b)前記デコードレイヤから出力された特定のデコード済み特徴マップが少なくとも一つの予め設定された基準に従って複数個の前記グリッドセルに区画されると、前記学習装置が、前記CNNモジュールの重み付けコンボリューションレイヤをもって、前記重み付けコンボリューションフィルタそれぞれを前記グリッドセルそれぞれに対応するように設定させ、前記特定のデコード済み特徴マップに対して重み付けコンボリューション演算を少なくとも一回適用させることでセグメンテーション結果を出力させる段階;及び
(c)前記学習装置が、前記セグメンテーション結果と、それに対応する原本正解とを参照して取得されたセグメンテーションロスをバックプロパゲーション(Backpropagation)して前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれを学習させる段階;
を含むことを特徴とする方法。 - 前記(b)段階は、
前記学習装置が、前記特定のデコード済み特徴マップ上の少なくとも一つの特徴値を参照して、少なくとも一つの特定基準に従ってそれぞれグルーピングされた少なくとも一つの領域のうち最も広い領域を参照領域として設定する段階を含み、
前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれは、次の数式で表現され、
W_C_Filteri=αi*B+βi
ここで、W_C_Filteriは、前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれの値それぞれを意味し、Bは前記参照領域に対応する参照フィルタ値を意味し、αi及びβiそれぞれは、前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれに対応する線形変換パラメータ(Linear Transformation Parameter)それぞれを意味し、
前記(c)段階で、
前記学習装置は、前記αi、βi及びBを学習することにより、前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれを学習することを特徴とする請求項1に記載の方法。 - 前記(b)段階で、
前記特定のデコード済み特徴マップ上の前記特徴値を参照して、前記特徴値の範囲に応じてそれぞれグルーピングされた少なくとも一つの領域のうち前記最も広い領域を前記参照領域として設定することを特徴とする請求項2に記載の方法。 - 前記入力イメージは、複数個のトレーニングイメージを含み、
前記複数個のトレーニングイメージそれぞれに第1分割領域ないし第k分割領域に対応する第1位置情報ないし第k位置情報がある状態で、前記入力イメージは、前記第1位置情報の相対的な偏差ないし前記第k位置情報の相対的な偏差のうち少なくとも一部それぞれが少なくとも一つの予め設定された閾値以下である特定のトレーニングイメージを含むように選択されることを特徴とする請求項1に記載の方法。 - 前記(b)段階で、
前記グリッドセルそれぞれの形と大きさは、いずれも同一であることを特徴とする請求項1に記載の方法。 - 前記入力イメージは、道路走行状況を示したイメージであり、前記学習装置は、道路走行の際にフリースペース(Free Space)検出のために使用されることを特徴とする請求項1に記載の方法。
- グリッドセル(Grid Cell)ごとに複数個の重み付けコンボリューションフィルタ(Weighted Convolution Filter)それぞれを利用してイメージをセグメンテーションするテスト方法において、
(a)(1)(i)学習装置が、CNN(Convolutional Neural Network)モジュールのエンコードレイヤをもって、少なくとも一つのトレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つの学習用エンコード済み特徴マップを生成させ、(ii)前記学習装置が、前記CNNモジュールのデコードレイヤをもって、前記エンコードレイヤから出力された特定の学習用エンコード済み特徴マップに対してデコンボリューション演算を少なくとも一回適用させて少なくとも一つの学習用デコード済み特徴マップを生成させ;(2)前記デコードレイヤから出力された特定の学習用デコード済み特徴マップが少なくとも一つの予め設定された基準に従って複数個の前記グリッドセルに区画されると、前記学習装置が、前記CNNモジュールの重み付けコンボリューションレイヤをもって、前記重み付けコンボリューションフィルタそれぞれを前記グリッドセルそれぞれに対応するように設定させ、前記デコードレイヤから出力された前記特定の学習用デコード済み特徴マップに対して前記重み付けコンボリューションレイヤの重み付けコンボリューション演算を少なくとも一回適用させることで学習用セグメンテーション結果を出力させ;(3)前記学習装置が、前記セグメンテーション結果とそれに対応する原本正解とを参照して取得されたセグメンテーションロスを利用してバックプロパゲーション(Backpropagation)を遂行して前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれを学習した状態で、少なくとも一つのテストイメージが取得されると、テスト装置は、(i)前記CNNモジュールの前記エンコードレイヤをもって、前記テストイメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つのテスト用エンコード済み特徴マップを生成させ、(ii)前記CNNモジュールの前記デコードレイヤをもって、前記エンコードレイヤから出力された特定のテスト用エンコード済み特徴マップに対してデコンボリューション演算を少なくとも一回適用させて少なくとも一つのテスト用デコード済み特徴マップを生成させる段階;及び
(b)前記デコードレイヤから出力された特定のテスト用デコード済み特徴マップが少なくとも一つの前記予め設定された基準に従って複数個の前記グリッドセルに区画されると、前記テスト装置が、前記CNNモジュールの前記重み付けコンボリューションレイヤをもって、前記重み付けコンボリューションフィルタそれぞれを前記グリッドセルそれぞれに対応するように設定させ、前記デコードレイヤから出力された前記特定のテスト用デコード済み特徴マップに対して重み付けコンボリューション演算を少なくとも一回適用させることにより、テスト用セグメンテーション結果を出力させる段階;
を含むことを特徴とする方法。 - 前記テストイメージは道路走行状況を示したイメージであり、前記テスト装置は、道路走行の際にフリースペース(Free Space)検出のために使用されることを特徴とする請求項7に記載の方法。
- グリッドセル(Grid Cell)ごとに複数個の重み付けコンボリューションフィルタ(Weighted Convolution Filter)それぞれを利用したイメージセグメンテーションする学習装置において、
インストラクションを格納する少なくとも一つのメモリと、
(I)(i)CNN(Convolutional Neural Network)モジュールのエンコードレイヤをもって、少なくとも一つの入力イメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つのエンコード済み特徴マップを生成させ、(ii)前記CNNモジュールのデコードレイヤをもって、前記エンコードレイヤから出力された特定のエンコード済み特徴マップに対してデコンボリューション演算を少なくとも一回適用させて少なくとも一つのデコード済み特徴マップを生成させるプロセス、(II)前記デコードレイヤから出力された特定のデコード済み特徴マップが少なくとも一つの予め設定された基準に従って複数個の前記グリッドセルに区画されると、前記CNNモジュールの重み付けコンボリューションレイヤをもって、前記重み付けコンボリューションフィルタそれぞれを前記グリッドセルそれぞれに対応するように設定させ、前記特定のデコード済み特徴マップに対して重み付けコンボリューション演算を少なくとも一回適用させることでセグメンテーション結果を出力させるプロセス、及び(III)前記セグメンテーション結果とそれに対応する原本正解とを参照して取得されたセグメンテーションロスを利用してバックプロパゲーション(Backpropagation)を遂行して前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれを学習させるプロセス;を遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とする学習装置。 - 前記(II)プロセスは、
前記特定のデコード済み特徴マップ上の少なくとも一つの特徴値を参照して、少なくとも一つの特定基準に従ってそれぞれグルーピングされた少なくとも一つの領域のうち最も広い領域を参照領域として設定するプロセスを含み、
前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれは、次の数式で表現され、
W_C_Filteri=αi*B+βi
ここで、W_C_Filteriは、前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれの値それぞれを意味し、Bは前記参照領域に対応する参照フィルタ値を意味し、αi及びβiそれぞれは、前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれに対応する線形変換パラメータ(Linear Transformation Parameter)それぞれを意味し、
前記(III)プロセスで、
前記プロセッサは、前記αi、βi及びBを学習することにより、前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれを学習することを特徴とする請求項9に記載の学習装置。 - 前記(II)プロセスで、
前記特定のデコード済み特徴マップの前記特徴値を参照して、前記特徴値の範囲に応じてそれぞれグルーピングされた少なくとも一つの領域のうち前記最も広い領域を前記参照領域として設定することを特徴とする請求項10に記載の学習装置。 - 前記入力イメージは複数個のトレーニングイメージを含み、
前記複数個のトレーニングイメージそれぞれに第1分割領域ないし第k分割領域に対応する第1位置情報ないし第k位置情報がある状態で、前記入力イメージは、前記第1位置情報の相対的な偏差ないし前記第k位置情報の相対的な偏差のうち少なくとも一部それぞれが少なくとも一つの予め設定された閾値以下である特定のトレーニングイメージを含むように選択されることを特徴とする請求項9に記載の学習装置。 - 前記(II)プロセスは、
前記グリッドセルのそれぞれの形と大きさはいずれも同一であることを特徴とする請求項9に記載の学習装置。 - 前記入力イメージは道路走行状況を示したイメージであり、前記学習装置は、道路走行の際にフリースペース(Free Space)検出のために使用されることを特徴とする請求項9に記載の学習装置。
- グリッドセル(Grid Cell)ごとに複数個の重み付けコンボリューションフィルタ(Weighted Convolution Filter)それぞれを利用してイメージをセグメンテーションするテスト装置において、
インストラクションを格納する少なくとも一つのメモリと、
(1)(i)学習装置が、CNN(Convolutional Neural Network)モジュールのエンコードレイヤをもって、少なくとも一つのトレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つの学習用エンコード済み特徴マップを生成させ、(ii)前記学習装置が、前記CNNモジュールのデコードレイヤをもって、前記エンコードレイヤから出力された特定の学習用エンコード済み特徴マップに対してデコンボリューション演算を少なくとも一回適用させて少なくとも一つの学習用デコード済み特徴マップを生成させ、(2)前記デコードレイヤから出力された特定の学習用デコード済み特徴マップが少なくとも一つの予め設定された基準に従って複数個の前記グリッドセルに区画されると、前記学習装置が、前記CNNモジュールの重み付けコンボリューションレイヤをもって、前記重み付けコンボリューションフィルタそれぞれを前記グリッドセルそれぞれに対応するように設定させ、前記デコードレイヤから出力された前記特定の学習用デコード済み特徴マップに対して前記重み付けコンボリューションレイヤの重み付けコンボリューション演算を少なくとも一回適用させることで学習用セグメンテーション結果を出力させ、(3)前記学習装置が、前記セグメンテーション結果とそれに対応する原本正解とを参照して取得されたセグメンテーションロスを利用して、バックプロパゲーション(Backpropagation)を遂行して前記グリッドセルごとの前記重み付けコンボリューションフィルタそれぞれを学習した状態で、(I)(i)前記CNNモジュールの前記エンコードレイヤをもって、少なくとも一つのテストイメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つのテスト用エンコード済み特徴マップを生成させ、(ii)前記CNNモジュールの前記デコードレイヤをもって、前記エンコードレイヤから出力された特定のテスト用エンコード済み特徴マップに対してデコンボリューション演算を少なくとも一回適用させて少なくとも一つのテスト用デコード済み特徴マップを生成させるプロセス、(II)前記デコードレイヤから出力された特定のテスト用デコード済み特徴マップが少なくとも一つの前記予め設定された基準に従って複数個の前記グリッドセルに区画されると、前記CNNモジュールの前記重み付けコンボリューションレイヤをもって、前記重み付けコンボリューションフィルタそれぞれを前記グリッドセルそれぞれに対応するように設定させ、前記デコードレイヤから出力された前記特定のテスト用デコード済み特徴マップに対して重み付けコンボリューション演算を少なくとも一回適用させることで、テスト用セグメンテーション結果を出力させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とするテスト装置。 - 前記テストイメージは道路走行状況を示したイメージであり、前記テスト装置は、道路走行の際にフリースペース(Free Space)検出のために使用されることを特徴とする請求項15に記載のテスト装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/254,448 US10325371B1 (en) | 2019-01-22 | 2019-01-22 | Method and device for segmenting image to be used for surveillance using weighted convolution filters for respective grid cells by converting modes according to classes of areas to satisfy level 4 of autonomous vehicle, and testing method and testing device using the same |
US16/254,448 | 2019-01-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020119521A JP2020119521A (ja) | 2020-08-06 |
JP6810415B2 true JP6810415B2 (ja) | 2021-01-06 |
Family
ID=66826060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019239382A Active JP6810415B2 (ja) | 2019-01-22 | 2019-12-27 | 自律走行自動車のレベル4を満たすために領域のクラスに応じてモードを切り換えてグリッドセルごとに重み付けコンボリューションフィルタを利用した監視用イメージセグメンテーション方法及び装置、並びにそれを利用したテスト方法及びテスト装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10325371B1 (ja) |
EP (1) | EP3686792A1 (ja) |
JP (1) | JP6810415B2 (ja) |
KR (1) | KR102296509B1 (ja) |
CN (1) | CN111462129B (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10387740B2 (en) * | 2016-10-10 | 2019-08-20 | Gyrfalcon Technology Inc. | Object detection and recognition apparatus based on CNN based integrated circuits |
US11328430B2 (en) * | 2019-05-28 | 2022-05-10 | Arizona Board Of Regents On Behalf Of Arizona State University | Methods, systems, and media for segmenting images |
CN110633706B (zh) * | 2019-08-02 | 2022-03-29 | 杭州电子科技大学 | 一种基于金字塔网络的语义分割方法 |
CN110807463B (zh) * | 2019-09-17 | 2022-10-11 | 珠海格力电器股份有限公司 | 图像分割方法、装置、计算机设备和存储介质 |
CN110726813B (zh) * | 2019-10-12 | 2021-04-27 | 浙江大学 | 基于双层集成神经网络的电子鼻预测方法 |
CN111160230B (zh) * | 2019-12-27 | 2023-06-06 | 清华大学苏州汽车研究院(吴江) | 一种基于深度学习的道路不规则区域检测网络 |
CN111860155B (zh) * | 2020-06-12 | 2022-04-29 | 华为技术有限公司 | 一种车道线的检测方法及相关设备 |
TWI755214B (zh) * | 2020-12-22 | 2022-02-11 | 鴻海精密工業股份有限公司 | 區分物件的方法、電腦裝置及儲存介質 |
CN112651407B (zh) * | 2020-12-31 | 2023-10-20 | 中国人民解放军战略支援部队信息工程大学 | 一种基于区分性反卷积的cnn可视化方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3881946B2 (ja) * | 2002-09-12 | 2007-02-14 | 松下電器産業株式会社 | 音響符号化装置及び音響符号化方法 |
JP5506274B2 (ja) * | 2009-07-31 | 2014-05-28 | 富士フイルム株式会社 | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム |
JP6393058B2 (ja) * | 2014-03-31 | 2018-09-19 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US10373019B2 (en) * | 2016-01-13 | 2019-08-06 | Ford Global Technologies, Llc | Low- and high-fidelity classifiers applied to road-scene images |
US20170206434A1 (en) * | 2016-01-14 | 2017-07-20 | Ford Global Technologies, Llc | Low- and high-fidelity classifiers applied to road-scene images |
US10706348B2 (en) * | 2016-07-13 | 2020-07-07 | Google Llc | Superpixel methods for convolutional neural networks |
WO2018033156A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 视频图像的处理方法、装置和电子设备 |
GB201616095D0 (en) * | 2016-09-21 | 2016-11-02 | Univ Oxford Innovation Ltd | A neural network and method of using a neural network to detect objects in an environment |
US10424064B2 (en) * | 2016-10-18 | 2019-09-24 | Adobe Inc. | Instance-level semantic segmentation system |
US10157441B2 (en) * | 2016-12-27 | 2018-12-18 | Automotive Research & Testing Center | Hierarchical system for detecting object with parallel architecture and hierarchical method thereof |
WO2018138603A1 (en) * | 2017-01-26 | 2018-08-02 | Semiconductor Energy Laboratory Co., Ltd. | Semiconductor device and electronic device including the semiconductor device |
US10325166B2 (en) * | 2017-04-13 | 2019-06-18 | Here Global B.V. | Method, apparatus, and system for a parametric representation of signs |
US10824938B2 (en) * | 2017-04-24 | 2020-11-03 | Intel Corporation | Specialized fixed function hardware for efficient convolution |
US10402995B2 (en) * | 2017-07-27 | 2019-09-03 | Here Global B.V. | Method, apparatus, and system for real-time object detection using a cursor recurrent neural network |
CN108022238B (zh) * | 2017-08-09 | 2020-07-03 | 深圳科亚医疗科技有限公司 | 对3d图像中对象进行检测的方法、计算机存储介质和系统 |
US10753997B2 (en) * | 2017-08-10 | 2020-08-25 | Siemens Healthcare Gmbh | Image standardization using generative adversarial networks |
US11227108B2 (en) * | 2017-09-11 | 2022-01-18 | Nec Corporation | Convolutional neural network architecture with adaptive filters |
CN110838124B (zh) * | 2017-09-12 | 2021-06-18 | 深圳科亚医疗科技有限公司 | 用于分割具有稀疏分布的对象的图像的方法、系统和介质 |
US10095977B1 (en) * | 2017-10-04 | 2018-10-09 | StradVision, Inc. | Learning method and learning device for improving image segmentation and testing method and testing device using the same |
CN108734713A (zh) * | 2018-05-18 | 2018-11-02 | 大连理工大学 | 一种基于多特征图的交通图像语义分割方法 |
-
2019
- 2019-01-22 US US16/254,448 patent/US10325371B1/en active Active
- 2019-09-27 KR KR1020190119514A patent/KR102296509B1/ko active IP Right Grant
- 2019-11-11 EP EP19208315.2A patent/EP3686792A1/en active Pending
- 2019-12-16 CN CN201911292063.8A patent/CN111462129B/zh active Active
- 2019-12-27 JP JP2019239382A patent/JP6810415B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020119521A (ja) | 2020-08-06 |
KR102296509B1 (ko) | 2021-09-02 |
CN111462129A (zh) | 2020-07-28 |
US10325371B1 (en) | 2019-06-18 |
EP3686792A1 (en) | 2020-07-29 |
KR20200091317A (ko) | 2020-07-30 |
CN111462129B (zh) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6810415B2 (ja) | 自律走行自動車のレベル4を満たすために領域のクラスに応じてモードを切り換えてグリッドセルごとに重み付けコンボリューションフィルタを利用した監視用イメージセグメンテーション方法及び装置、並びにそれを利用したテスト方法及びテスト装置 | |
JP6923960B2 (ja) | 自動駐車システムを提供するために決定地点間の関係及び決定地点に対するリグレッション結果を利用して駐車スペースを検出する学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
JP6886202B2 (ja) | 仮想走行の環境で使用されるドメイン適応に適用され得るganを利用して、リアル特徴マップと同一または類似する特性を有するバーチャル特徴マップを生成する学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 | |
KR102313119B1 (ko) | 자율주행 자동차의 레벨 4를 충족시키기 위해 요구되는 hd 맵 업데이트에 이용될 적어도 하나의 어댑티브 로스 가중치 맵을 이용한 어텐션 드리븐 이미지 세그먼테이션 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
JP6895693B2 (ja) | レーンマスク(Lane Mask)を使用して後処理なしに入力イメージに含まれた一つ以上の車線を検出する方法及び装置、並びにそれを利用したテスト方法及びテスト装置{METHOD AND DEVICE FOR LANE DETECTION WITHOUT POST−PROCESSING BY USING LANE MASK, AND TESTING METHOD, AND TESTING DEVICE USING THE SAME} | |
JP2020126607A (ja) | カメラから取得されたイメージと、それに対応するレーダまたはライダを通じて取得されたポイントクラウドマップをニューラルネットワークのそれぞれのコンボリューションステージごとに統合する学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 | |
JP6957050B2 (ja) | モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same} | |
JP7092383B2 (ja) | 各領域において最適化された自律走行を遂行できるように位置基盤アルゴリズムの選択によってシームレスパラメータ変更を遂行する方法及び装置 | |
JP6850037B2 (ja) | 自律走行状況で、障害物検出のためのcnn学習用イメージデータセットの生成方法及びコンピューティング装置 | |
CN111461325B (zh) | 一种用于稀疏奖励环境问题的多目标分层强化学习算法 | |
JP6916548B2 (ja) | 自律走行自動車のレベル4を満たすために必要なhdマップとのコラボレーションを支援するエンベディングロス及びソフトマックスロスを利用して少なくとも一つの車線を有するイメージをセグメンテーションする学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 | |
US10872297B2 (en) | Learning method and learning device for generating training data from virtual data on virtual world by using generative adversarial network, to thereby reduce annotation cost required in training processes of neural network for autonomous driving, and a testing method and a testing device using the same | |
JP6856904B2 (ja) | 物体のスケールに応じてモード転換が可能なcnn基盤の監視用物体検出器の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP2020038666A (ja) | 自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置 | |
JP6856906B2 (ja) | 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置 | |
JP6856852B2 (ja) | 横フィルタマスクを利用して自律走行車の走行経路を計画するために車線要素を検出する方法及び装置 | |
JP6864891B2 (ja) | 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置 | |
US10339424B1 (en) | Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles | |
CN116704461A (zh) | 基于激光点云的地面检测方法、系统及计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6810415 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |