JP6865364B2 - エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 - Google Patents
エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 Download PDFInfo
- Publication number
- JP6865364B2 JP6865364B2 JP2019202412A JP2019202412A JP6865364B2 JP 6865364 B2 JP6865364 B2 JP 6865364B2 JP 2019202412 A JP2019202412 A JP 2019202412A JP 2019202412 A JP2019202412 A JP 2019202412A JP 6865364 B2 JP6865364 B2 JP 6865364B2
- Authority
- JP
- Japan
- Prior art keywords
- layers
- layer
- test
- deconvolution
- feature maps
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012360 testing method Methods 0.000 title claims description 225
- 238000000034 method Methods 0.000 title claims description 109
- 230000011218 segmentation Effects 0.000 title claims description 27
- 238000010998 test method Methods 0.000 title claims description 14
- 230000008569 process Effects 0.000 claims description 79
- 230000006870 function Effects 0.000 claims description 24
- 238000012549 training Methods 0.000 claims description 16
- 238000013527 convolutional neural network Methods 0.000 description 9
- 238000003709 image segmentation Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 241000282472 Canis lupus familiaris Species 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 3
- 238000013142 basic testing Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000001965 increasing effect Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Description
Claims (30)
- (i)少なくとも一つのトレーニングイメージに対応する少なくとも一つの特徴マップに一つ以上のコンボリューション演算を適用して第1ないし第kエンコード済み特徴マップをそれぞれ出力する第1ないし第kコンボリューションレイヤ;(ii)前記第kエンコード済み特徴マップに一つ以上のデコンボリューション演算を適用して第(k−1)ないし第1デコード済み特徴マップをそれぞれ出力する第(k−1)ないし第1デコンボリューションレイヤ;(iii)前記(k−1)個のデコンボリューションレイヤのうちでh個のデコンボリューションレイヤ(前記hは1から(k−1)までの整数である)にそれぞれ対応する第1ないし第hマスクレイヤ;及び(iv)前記第1ないし前記第hマスクレイヤにそれぞれ対応する第1ないし第hエッジロスレイヤ;を含む学習装置を利用してセグメンテーション性能を向上させるための学習方法において、
(a)前記トレーニングイメージが入力されると、前記学習装置は、前記第1ないし前記第kコンボリューションレイヤをもって前記第1ないし前記第kエンコード済み特徴マップを生成させる段階;
(b)前記学習装置は、前記第(k−1)ないし前記第1デコンボリューションレイヤをもって順次に前記第(k−1)ないし前記第1デコード済み特徴マップを生成させるものの、前記学習装置は、前記第hないし前記第1マスクレイヤをもって、(i)前記第hないし前記第1マスクレイヤそれぞれに対応する前記h個のデコンボリューションレイヤそれぞれから出力されたそれぞれのh個の基本デコード済み特徴マップからエッジ部分を抽出して第hないし第1エッジ特徴マップを生成するようにし、(ii)前記h個の基本デコード済み特徴マップ及び前記第hないし前記第1エッジ特徴マップを参照して前記第(k−1)ないし前記第1デコード済み特徴マップのうち少なくとも一部として機能するh個のエッジ強化デコード済み特徴マップを生成させる段階;
(c)前記学習装置は、前記第1ないし前記第hエッジロスレイヤをもって前記エッジ部分及びこれに対応するGTを参照して第1ないし第hエッジロスを生成するようにして、前記第1ないし前記第hエッジロスを利用したバックプロパゲーションを通じて前記第1ないし前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の一つ以上のパラメータを調整する段階;
を含むことを特徴とする学習方法。 - 前記第1ないし前記第hエッジロスレイヤは、前記エッジ部分と、これに対応するGTとの差を計算して前記第1ないし前記第hエッジロスを生成するものの、前記GTは前記第1ないし前記第hエッジ特徴マップの大きさにそれぞれ対応する大きさを有した第1ないし第hGTイメージからそれぞれ抽出されることを特徴とする請求項1に記載の学習方法。
- 前記(b)段階で、
前記第(k−1)ないし前記第1デコンボリューションレイヤは、(i)それぞれの前記第hないし前記第1エッジ特徴マップと前記第hないし前記第1マスクレイヤに対応する前記h個のデコンボリューションレイヤから出力されたそれぞれの前記h個の基本デコード済み特徴マップの要素ごとの和(Element−wise Sum)を利用し、(ii)前記第hないし前記第1マスクレイヤに対応しない(k−h)個のデコンボリューションレイヤそれぞれの以前のレイヤそれぞれから出力された特徴マップに前記デコンボリューション演算を適用して前記(k−1)個のデコード済み特徴マップの少なくとも一部として機能する(k−h)個の基本デコード済み特徴マップを生成して、順次に前記第(k−1)ないし前記第1デコード済み特徴マップを生成することを特徴とする請求項1に記載の学習方法。 - 前記学習装置は、(v)前記第1ないし前記第(k−1)デコンボリューションレイヤのうちでr個のデコンボリューションレイヤに対応して配置される第1ないし第rロスレイヤをさらに含み、
前記(c)段階は、
(c1)前記学習装置が前記第1ないし前記第rロスレイヤをもって前記第1ないし前記第rロスレイヤに対応する前記r個のデコンボリューションレイヤから出力された各r個のデコード済み特徴マップ及びこれに対応するGTイメージを参照して第1ないし第rロスをそれぞれ生成するようにして、前記第1ないし前記第rロスを利用したバックプロパゲーションを通じて前記第1ないし前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の前記パラメータを調整する段階;を含むことを特徴とする請求項3に記載の学習方法。 - 前記第1ないし前記第rロスレイヤは、それぞれの前記r個のデコード済み特徴マップにそれぞれ補助コンボリューション演算を適用して出力されたそれぞれのr個の変換済み特徴マップと、これに対応するGTイメージとを参照して前記第1ないし前記第rロスをそれぞれ算出することを特徴とする請求項4に記載の学習方法。
- 前記学習装置は、(vi)前記第1ないし前記第hマスクレイヤそれぞれの出力端と前記第1ないし前記第hマスクレイヤに対応するコンボリューションレイヤそれぞれの出力端との間にそれぞれ位置する第1ないし第h中間レイヤをさらに含み、
前記(b)段階は、
(b1)前記学習装置は、前記第1ないし前記第h中間レイヤをもって前記第1ないし前記第hマスクレイヤに対応するh個のコンボリューションレイヤから出力されたh個のエンコード済み特徴マップが入力されて第1ないし第h中間特徴マップを生成させる段階;(b2)前記学習装置は、前記第1ないし前記第hマスクレイヤをもってそれぞれの前記第1ないし前記第hマスクレイヤに対応するそれぞれの前記h個のデコンボリューションレイヤからそれぞれ出力された前記h個の基本デコード済み特徴マップから前記エッジ部分を抽出して前記第1ないし前記第hエッジ特徴マップを生成させる段階;及び(b3)前記学習装置は、(i)第1ないし第h要素ごとのプロダクトレイヤをもってそれぞれの前記第1ないし前記第h中間特徴マップと、これに対応するエッジ特徴マップとを要素ごとに掛け合わせて(Element−wise Product)、それぞれの第1ないし第h要素ごとのプロダクトを生成するようにし、(ii)第1ないし第h要素ごとの合算レイヤをもってそれぞれの前記第1ないし前記第h要素ごとのプロダクトと、前記h個の基本デコード済み特徴マップのうちでそれぞれの前記第1ないし前記第h要素ごとのプロダクトに対応する基本デコード済み特徴マップとを要素ごとに合算するようにすることで、前記第1ないし前記第(k−1)デコード済み特徴マップのうちでh個のデコード済み特徴マップを生成する段階;を含むことを特徴とする請求項3に記載の学習方法。 - 前記学習装置が、前記第kコンボリューションレイヤの出力端と前記第(k−1)デコンボリューションレイヤの入力端との間に位置したさらなる第(h+1)中間レイヤをさらに含むものの、前記さらなる第(h+1)中間レイヤは、前記第kエンコード済み特徴マップに一つ以上の中間演算を適用して第(h+1)中間特徴マップを生成し、前記第(h+1)中間特徴マップを前記第(k−1)デコンボリューションレイヤに伝達することを特徴とする請求項6に記載の学習方法。
- 前記第1ないし前記第h中間レイヤのうち少なくとも一つは一つ以上の膨張コンボリューション演算を遂行することを特徴とする請求項6に記載の学習方法。
- 前記(b2)段階で、
前記学習装置は、前記第1ないし前記第hマスクレイヤのうちで少なくとも第mマスクレイヤをもって前記(k−1)個のデコンボリューションレイヤのうちで前記第mマスクレイヤに対応する第nデコンボリューションレイヤから出力された第n基本デコード済み特徴マップからエッジ部分を抽出して第mエッジ特徴マップを生成するようにし、
前記(b3)段階で、
前記学習装置は、(i)第m要素ごとのプロダクトレイヤをもって前記第mエッジ特徴マップと前記第mマスクレイヤに対応する第m中間レイヤから出力された第m中間特徴マップとを要素ごとに掛け合わせて第m要素ごとのプロダクトを生成するようにし、(ii)第m要素ごとの合算レイヤをもって前記第m要素ごとのプロダクトと、前記第n基本デコード済み特徴マップとを要素ごとに合算するようにして、第nデコード済み特徴マップを生成することを特徴とする請求項6に記載の学習方法。 - 前記学習装置は、(v)前記第1ないし前記第(k−1)デコンボリューションレイヤのうちでr個のデコンボリューションレイヤに対応して配置される第1ないし第rロスレイヤをさらに含み、
前記学習装置は、前記第1デコード済み特徴マップを受けて前記第1ロスレイヤに入力される調整された第1デコード済み特徴マップを出力することができるさらなるデコンボリューションレイヤをさらに含み、
前記(c)段階は、(c1)前記学習装置が前記第1ないし前記第rロスレイヤをもって前記第1ないし前記第rロスレイヤに対応する前記r個のデコンボリューションレイヤから出力された各r個のデコード済み特徴マップ及びこれに対応するGTイメージを参照して第1ないし第rロスをそれぞれ生成するようにして、前記第1ないし前記第rロスを利用したバックプロパゲーションを通じて前記第1ないし前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の前記パラメータを調整するようにする段階;を含むことを特徴とする請求項9に記載の学習方法。 - 少なくとも一つのテストイメージに対するセグメンテーションのテスト方法において、
(a)学習装置が、(i)少なくとも一つのトレーニングイメージに対応する少なくとも一つの学習用特徴マップに一つ以上のコンボリューション演算を適用して第1ないし第k学習用エンコード済み特徴マップをそれぞれ出力する第1ないし第kコンボリューションレイヤ、(ii)前記第k学習用エンコード済み特徴マップに一つ以上のデコンボリューション演算を適用して第(k−1)ないし第1学習用デコード済み特徴マップをそれぞれ出力する第(k−1)ないし第1デコンボリューションレイヤ、(iii)前記(k−1)個のデコンボリューションレイヤのうちでh個のデコンボリューションレイヤ(前記hは1から(k−1)までの整数である)にそれぞれ対応する第1ないし第hマスクレイヤ、及び(iv)前記第1ないし前記第hマスクレイヤにそれぞれ対応する第1ないし第hエッジロスレイヤを含むとするとき、前記学習装置が(1)前記第1ないし前記第kコンボリューションレイヤをもって前記第1ないし前記第k学習用エンコード済み特徴マップを生成するようにし、(2)前記第(k−1)ないし前記第1デコンボリューションレイヤをもって順次に前記第(k−1)ないし前記第1学習用デコード済み特徴マップを生成させるものの、前記学習装置は、前記第hないし前記第1マスクレイヤをもって、(i)前記第hないし前記第1マスクレイヤそれぞれに対応する前記h個のデコンボリューションレイヤそれぞれから出力されたそれぞれのh個の学習用基本デコード済み特徴マップから学習用エッジ部分を抽出して第hないし第1学習用エッジ特徴マップを生成するようにし、(ii)前記h個の学習用基本デコード済み特徴マップ及び前記第hないし前記第1学習用エッジ特徴マップを参照して前記第(k−1)ないし前記第1学習用デコード済み特徴マップのうち少なくとも一部として機能するh個の学習用エッジ強化デコード済み特徴マップを生成するようにし、(3)前記第1ないし前記第hエッジロスレイヤをもって前記学習用エッジ部分及びこれに対応するGTを参照して第1ないし第hエッジロスを生成するようにして、前記第1ないし前記第hエッジロスを利用したバックプロパゲーションを通じて前記第1ないし前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の一つ以上のパラメータを調整した状態で、テスト装置が、前記テストイメージが入力されると、前記第1ないし前記第kコンボリューションレイヤをもって第1ないし第kテスト用エンコード済み特徴マップを出力するようにする段階;及び
(b)前記テスト装置は、前記第(k−1)ないし前記第1デコンボリューションレイヤをもって順次に第(k−1)ないし第1テスト用デコード済み特徴マップを生成させるものの、前記テスト装置は、前記第hないし前記第1マスクレイヤをもって、(i)前記第hないし前記第1マスクレイヤそれぞれに対応する前記h個のデコンボリューションレイヤそれぞれから出力されたそれぞれのh個のテスト用基本デコード済み特徴マップからテスト用エッジ部分を抽出して第hないし第1テスト用エッジ特徴マップを生成するようにし、(ii)前記h個のテスト用基本デコード済み特徴マップ及び前記第hないし前記第1テスト用エッジ特徴マップを参照して前記第(k−1)ないし前記第1テスト用デコード済み特徴マップのうち少なくとも一部として機能するh個のテスト用エッジ強化デコード済み特徴マップを生成させる段階;
を含むことを特徴とするテスト方法。 - 前記(b)段階で、
前記第(k−1)ないし前記第1デコンボリューションレイヤは、(i)それぞれの前記第hないし前記第1テスト用エッジ特徴マップと前記第hないし前記第1マスクレイヤに対応する前記h個のデコンボリューションレイヤから出力されたそれぞれの前記h個のテスト用基本デコード済み特徴マップの要素ごとの和(Element−wise Sum)を利用して、(ii)前記第hないし前記第1マスクレイヤに対応しない(k−h)個のデコンボリューションレイヤそれぞれの以前のレイヤそれぞれから出力されたテスト用特徴マップに前記デコンボリューション演算を適用して前記(k−1)個のテスト用デコード済み特徴マップの少なくとも一部として機能する(k−h)個のテスト用基本デコード済み特徴マップを生成し、順次に前記第(k−1)ないし前記第1テスト用デコード済み特徴マップを生成することを特徴とする請求項11に記載のテスト方法。 - 前記テスト装置は(v)前記第1ないし前記第hマスクレイヤそれぞれの出力端と前記第1ないし前記第hマスクレイヤに対応するコンボリューションレイヤそれぞれの出力端との間にそれぞれ位置する第1ないし第h中間レイヤをさらに含み、
前記(b)段階は、
(b1)前記テスト装置は前記第1ないし前記第h中間レイヤをもって前記第1ないし前記第hマスクレイヤに対応するh個のコンボリューションレイヤから出力されたh個のテスト用エンコード済み特徴マップが入力されて第1ないし第hテスト用中間特徴マップを生成させる段階;(b2)前記テスト装置は、前記第1ないし前記第hマスクレイヤをもってそれぞれの前記第1ないし前記第hマスクレイヤに対応するそれぞれの前記h個のデコンボリューションレイヤからそれぞれ出力された前記第h個のテスト用基本デコード済み特徴マップから前記テスト用エッジ部分を抽出して前記第1ないし前記第hテスト用エッジ特徴マップを生成させる段階;及び(b3)前記テスト装置は、(i)第1ないし第h要素ごとのプロダクトレイヤをもってそれぞれの前記第1ないし前記第hテスト用中間特徴マップと、これに対応するテスト用エッジ特徴マップとを要素ごとに掛け合わせて(Element−wise Product)、それぞれの第1ないし第hテスト用要素ごとのプロダクトを生成するようにし、(ii)第1ないし第hテスト要素ごとの合算レイヤをもってそれぞれの前記第1ないし前記第hテスト用要素ごとのプロダクトと、前記h個のテスト用基本デコード済み特徴マップのうちでそれぞれの前記第1ないし前記第hテスト用要素ごとのプロダクトに対応するテスト用基本デコード済み特徴マップとを要素ごとに合算するようにすることで、前記第1ないし前記第(k−1)テスト用デコード済み特徴マップのうちでh個のテスト用デコード済み特徴マップを生成する段階;を含むことを特徴とする請求項12に記載のテスト方法。 - 前記テスト装置が前記第kコンボリューションレイヤの出力端と前記第(k−1)デコンボリューションレイヤの入力端との間に位置したさらなる第(h+1)中間レイヤをさらに含むものの、前記さらなる第(h+1)中間レイヤは、前記第kテスト用エンコード済み特徴マップに一つ以上の中間演算を適用して第(h+1)テスト用中間特徴マップを生成し、前記第(h+1)テスト用中間特徴マップを前記第(k−1)デコンボリューションレイヤに伝達することを特徴とする請求項13に記載のテスト方法。
- 前記(b2)段階で、
前記テスト装置は、前記第1ないし前記第hマスクレイヤのうちで少なくとも第mマスクレイヤをもって前記(k−1)個のデコンボリューションレイヤのうちで前記第mマスクレイヤに対応する第nデコンボリューションレイヤから出力された第nテスト用基本デコード済み特徴マップからテスト用エッジ部分を抽出して第mテスト用エッジ特徴マップを生成するようにし、
前記(b3)段階で、
前記テスト装置は、(i)第m要素別プロダクトレイヤをもって前記第mテスト用エッジ特徴マップと、前記第mマスクレイヤに対応する第m中間レイヤから出力された第mテスト用中間特徴マップとを要素ごとに掛け合わせて、第mテスト用要素別プロダクトを生成するようにし、(ii)第m要素別合算レイヤをもって前記第mテスト用要素ごとのプロダクトと前記第nテスト用基本デコード済み特徴マップとを要素ごとに合算するようにして、第nテスト用デコード済み特徴マップを生成することを特徴とする請求項13に記載のテスト方法。 - (i)少なくとも一つのトレーニングイメージに対応する少なくとも一つの特徴マップに一つ以上のコンボリューション演算を適用して、第1ないし第kエンコード済み特徴マップをそれぞれ出力する第1ないし第kコンボリューションレイヤ;(ii)前記第kエンコード済み特徴マップに一つ以上のデコンボリューション演算を適用して第(k−1)ないし第1デコード済み特徴マップをそれぞれ出力する第(k−1)ないし第1デコンボリューションレイヤ;(iii)前記(k−1)個のデコンボリューションレイヤのうちでh個のデコンボリューションレイヤ(前記hは1から(k−1)までの整数である)にそれぞれ対応する第1ないし第hマスクレイヤ;及び(iv)前記第1ないし前記第hマスクレイヤにそれぞれ対応する第1ないし第hエッジロスレイヤ;を含む、セグメンテーションの性能向上のための学習装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
(I)前記第1ないし前記第kコンボリューションレイヤをもって前記第1ないし前記第kエンコード済み特徴マップを生成させるプロセス、(II)前記第(k−1)ないし前記第1デコンボリューションレイヤをもって順次に前記第(k−1)ないし前記第1デコード済み特徴マップを生成させるものの、前記学習装置は、前記第hないし前記第1マスクレイヤをもって、(i)前記第hないし前記第1マスクレイヤそれぞれに対応する前記h個のデコンボリューションレイヤそれぞれから出力されたそれぞれのh個の基本デコード済み特徴マップからエッジ部分を抽出して第hないし第1エッジ特徴マップを生成するようにし、(ii)前記h個の基本デコード済み特徴マップ及び前記第hないし前記第1エッジ特徴マップを参照して前記第(k−1)ないし前記第1デコード済み特徴マップのうち少なくとも一部として機能するh個のエッジ強化デコード済み特徴マップを生成させるプロセス、及び(III)前記第1ないし前記第hエッジロスレイヤをもって前記エッジ部分及びこれに対応するGTを参照して第1ないし第hエッジロスを生成するようにして、前記第1ないし前記第hエッジロスを利用したバックプロパゲーションを通じて前記第1ないし前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の一つ以上のパラメータを調整するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とする学習装置。 - 前記第1ないし前記第hエッジロスレイヤは、前記エッジ部分と、これに対応するGTの差を計算して前記第1ないし前記第hエッジロスを生成するものの、前記GTは前記第1ないし前記第hエッジ特徴マップの大きさにそれぞれ対応する大きさを有した第1ないし第hGTイメージからそれぞれ抽出されることを特徴とする請求項16に記載の学習装置。
- 前記(II)プロセスで、
前記第(k−1)ないし前記第1デコンボリューションレイヤは、(i)それぞれの前記第hないし前記第1エッジ特徴マップと前記第hないし前記第1マスクレイヤに対応する前記h個のデコンボリューションレイヤから出力されたそれぞれの前記h個の基本デコード済み特徴マップの要素ごとの和(Element−wise Sum)を利用して、(ii)前記第hないし前記第1マスクレイヤに対応しない(k−h)個のデコンボリューションレイヤそれぞれの以前のレイヤそれぞれから出力された特徴マップに前記デコンボリューション演算を適用して前記(k−1)個のデコード済み特徴マップの少なくとも一部として機能する(k−h)個の基本デコード済み特徴マップを生成して、順次に前記第(k−1)ないし前記第1デコード済み特徴マップを生成することを特徴とする請求項16に記載の学習装置。 - 前記学習装置は、(v)前記第1ないし前記第(k−1)デコンボリューションレイヤのうちでr個のデコンボリューションレイヤに対応して配置される第1ないし第rロスレイヤをさらに含み、
前記(III)プロセスは、
(III−1)前記プロセッサが前記第1ないし前記第rロスレイヤをもって前記第1ないし前記第rロスレイヤに対応する前記r個のデコンボリューションレイヤから出力された各r個のデコード済み特徴マップ及びこれに対応するGTイメージを参照して第1ないし第rロスをそれぞれ生成するようにして、前記第1ないし前記第rロスを利用したバックプロパゲーションを通じて前記第1ないし前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の前記パラメータを調整するプロセス;を含むことを特徴とする請求項18に記載の学習装置。 - 前記第1ないし前記第rロスレイヤは、それぞれの前記r個のデコード済み特徴マップにそれぞれ補助コンボリューション演算を適用して出力されたそれぞれのr個の変換済み特徴マップと、これに対応するGTイメージとを参照して前記第1ないし前記第rロスをそれぞれ算出することを特徴とする請求項19に記載の学習装置。
- 前記学習装置は、(vi)前記第1ないし前記第hマスクレイヤそれぞれの出力端と前記第1ないし前記第hマスクレイヤに対応するコンボリューションレイヤそれぞれの出力端との間にそれぞれ位置する第1ないし第h中間レイヤをさらに含み、
前記(II)プロセスは、
(II−1)前記プロセッサが、前記第1ないし前記第h中間レイヤをもって前記第1ないし前記第hマスクレイヤに対応するh個のコンボリューションレイヤから出力されたh個のエンコード済み特徴マップが入力されて第1ないし第h中間特徴マップを生成させるプロセス;(II−2)前記プロセッサは前記第1ないし前記第hマスクレイヤをもってそれぞれの前記第1ないし前記第hマスクレイヤに対応するそれぞれの前記h個のデコンボリューションレイヤからそれぞれ出力された前記h個の基本デコード済み特徴マップから前記エッジ部分を抽出して前記第1ないし前記第hエッジ特徴マップを生成させるプロセス;及び(III−3)前記プロセッサは(i)第1ないし第h要素ごとのプロダクトレイヤをもってそれぞれの前記第1ないし前記第h中間特徴マップと、これに対応するエッジ特徴マップとを要素ごとに掛け合わせて(Element−wise Product)、それぞれの第1ないし第h要素ごとのプロダクトを生成するようにし、(ii)第1ないし第h要素ごとの合算レイヤをもってそれぞれの前記第1ないし前記第h要素ごとのプロダクトと、前記h個の基本デコード済み特徴マップのうちでそれぞれの前記第1ないし前記第h要素ごとのプロダクトに対応する基本デコード済み特徴マップとを要素ごとに合算するようにすることで、前記第1ないし前記第(k−1)デコード済み特徴マップのうちでh個のデコード済み特徴マップを生成するプロセス;を含むことをを特徴とする請求項18に記載の学習装置。 - 前記学習装置が前記第kコンボリューションレイヤの出力端と前記第(k−1)デコンボリューションレイヤの入力端との間に位置したさらなる第(h+1)中間レイヤをさらに含むものの、前記さらなる第(h+1)中間レイヤは、前記第kエンコード済み特徴マップに一つ以上の中間演算を適用して第(h+1)中間特徴マップを生成し、前記第(h+1)中間特徴マップを前記第(k−1)デコンボリューションレイヤに伝達することを特徴とする請求項21に記載の学習装置。
- 前記第1ないし前記第h中間レイヤのうち少なくとも一つは一つ以上の膨張コンボリューション演算を遂行することを特徴とする請求項21に記載の学習装置。
- 前記(II−2)プロセスで、
前記プロセッサは前記第1ないし前記第hマスクレイヤのうちで少なくとも第mマスクレイヤをもって前記(k−1)個のデコンボリューションレイヤのうちで前記第mマスクレイヤに対応する第nデコンボリューションレイヤから出力された第n基本デコード済み特徴マップからエッジ部分を抽出して第mエッジ特徴マップを生成するようにし、
前記(II−3)プロセスで、
前記プロセッサは、(i)第m要素別プロダクトレイヤをもって前記第mエッジ特徴マップと前記第mマスクレイヤに対応する第m中間レイヤから出力された第m中間特徴マップを要素別に掛け合わせて、第m要素別プロダクトを生成するようにし、(ii)第m要素別合算レイヤをもって前記第m要素別プロダクトと前記第n基本デコード特徴マップとを要素ごとに合算するようにして、第nデコード特徴マップを生成することを特徴とする請求項21に記載の学習装置。 - 前記学習装置は、(v)前記第1ないし前記第(k−1)デコンボリューションレイヤのうちでr個のデコンボリューションレイヤに対応して配置される第1ないし第rロスレイヤをさらに含み、
前記学習装置は、前記第1デコード済み特徴マップを受けて前記第1ロスレイヤに入力される調整された第1デコード済み特徴マップを出力することができるさらなるデコンボリューションレイヤをさらに含み、
前記(III)プロセスは、(III−1)前記プロセッサが前記第1ないし前記第rロスレイヤをもって前記第1ないし前記第rロスレイヤに対応する前記r個のデコンボリューションレイヤから出力された各r個のデコード済み特徴マップ及びこれに対応するGTイメージを参照して第1ないし第rロスをそれぞれ生成するようにして、前記第1ないし前記第rロスを利用したバックプロパゲーションを通じて前記第1ないし前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の前記パラメータを調整するようにするプロセス;を含むことを特徴とする請求項24に記載の学習装置。 - 少なくとも一つのテストイメージに対するセグメンテーションをするためのテスト装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
学習装置が、(i)少なくとも一つのトレーニングイメージに対応する少なくとも一つの学習用特徴マップに一つ以上のコンボリューション演算を適用して第1ないし第k学習用エンコード済み特徴マップをそれぞれ出力する第1ないし第kコンボリューションレイヤ、(ii)前記第k学習用エンコード済み特徴マップに一つ以上のデコンボリューション演算を適用して第(k−1)ないし第1学習用デコード済み特徴マップをそれぞれ出力する第(k−1)ないし第1デコンボリューションレイヤ、(iii)前記(k−1)個のデコンボリューションレイヤのうちでh個のデコンボリューションレイヤ(前記hは1から(k−1)までの整数である)にそれぞれ対応する第1ないし第hマスクレイヤ、及び(iv)前記第1ないし前記第hマスクレイヤにそれぞれ対応する第1ないし第hエッジロスレイヤを含むとするとき、前記学習装置が(1)前記第1ないし前記第kコンボリューションレイヤをもって前記第1ないし前記第k学習用エンコード済み特徴マップを生成するようにし、(2)前記第(k−1)ないし前記第1デコンボリューションレイヤをもって順次に前記第(k−1)ないし前記第1学習用デコード済み特徴マップを生成させるものの、前記学習装置は、前記第hないし前記第1マスクレイヤをもって、(i)前記第hないし前記第1マスクレイヤそれぞれに対応する前記h個のデコンボリューションレイヤそれぞれから出力されたそれぞれのh個の学習用基本デコード済み特徴マップから学習用エッジ部分を抽出して第hないし第1学習用エッジ特徴マップを生成するようにし、(ii)前記h個の学習用基本デコード済み特徴マップ及び前記第hないし前記第1学習用エッジ特徴マップを参照して前記第(k−1)ないし前記第1学習用デコード済み特徴マップのうち少なくとも一部として機能するh個の学習用エッジ強化デコード済み特徴マップを生成するようにし、(3)前記第1ないし前記第hエッジロスレイヤをもって前記学習用エッジ部分及びこれに対応するGTを参照して第1ないし第hエッジロスを生成するようにして、前記第1ないし前記第hエッジロスを利用したバックプロパゲーションを通じて前記第1乃至前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の一つ以上のパラメータを調整した状態で、(I)前記第1ないし前記第kコンボリューションレイヤをもって第1ないし第kテスト用エンコード済み特徴マップを出力するようにするプロセス;及び(II)前記第(k−1)ないし前記第1デコンボリューションレイヤをもって順次に第(k−1)ないし第1テスト用デコード済み特徴マップを生成させるものの、前記テスト装置は、前記第hないし前記第1マスクレイヤをもって、(i)前記第hないし前記第1マスクレイヤそれぞれに対応する前記h個のデコンボリューションレイヤそれぞれから出力されたそれぞれのh個のテスト用基本デコード済み特徴マップからテスト用エッジ部分を抽出して第hないし第1テスト用エッジ特徴マップを生成するようにし、(ii)前記h個のテスト用基本デコード済み特徴マップ及び前記第hないし前記第1テスト用エッジ特徴マップを参照して前記第(k−1)ないし前記第1テスト用デコード済み特徴マップのうち少なくとも一部として機能するh個のテスト用エッジ強化デコード済み特徴マップを生成させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とするテスト装置。 - 前記(II)プロセスで、
前記第(k−1)ないし前記第1デコンボリューションレイヤは、(i)それぞれの前記第hないし前記第1テスト用エッジ特徴マップと前記第hないし前記第1マスクレイヤに対応する前記h個のデコンボリューションレイヤから出力されたそれぞれの前記h個のテスト用基本デコード済み特徴マップの要素ごとの和(Element−wise Sum)を利用し、(ii)前記第hないし前記第1マスクレイヤに対応しない(k−h)個のデコンボリューションレイヤそれぞれの以前のレイヤそれぞれから出力されたテスト用特徴マップに前記デコンボリューション演算を適用して前記(k−1)個のテスト用デコード済み特徴マップの少なくとも一部として機能する(k−h)個のテスト用基本デコード済み特徴マップを生成して、順次に前記第(k−1)ないし前記第1テスト用デコード済み特徴マップを生成することを特徴とする請求項26に記載のテスト装置。 - 前記テスト装置は、(v)前記第1ないし前記第hマスクレイヤそれぞれの出力端と前記第1ないし前記第hマスクレイヤに対応するコンボリューションレイヤそれぞれの出力端との間にそれぞれ位置する第1ないし第h中間レイヤをさらに含み、
前記(II)プロセスは、
(II−1)前記プロセッサは前記第1ないし前記第h中間レイヤをもって前記第1ないし前記第hマスクレイヤに対応するh個のコンボリューションレイヤから出力されたh個のテスト用エンコード済み特徴マップが入力されて第1ないし第hテスト用中間特徴マップを生成させるプロセス;(II−2)前記プロセッサは前記第1ないし前記第hマスクレイヤをもってそれぞれの前記第1ないし前記第hマスクレイヤに対応するそれぞれの前記h個のデコンボリューションレイヤからそれぞれ出力された前記第hテスト用基本デコード済み特徴マップから前記テスト用エッジ部分を抽出して前記第1ないし前記第hテスト用エッジ特徴マップを生成させるプロセス;及び(II−3)前記プロセッサは、(i)第1ないし第h要素ごとのプロダクトレイヤをもってそれぞれの前記第1ないし前記第hテスト用中間特徴マップと、これに対応するテスト用エッジ特徴マップとを要素ごとに掛け合わせて(Element−wise Product)、それぞれの第1ないし第hテスト用要素ごとのプロダクトを生成するようにし、(ii)第1ないし第h要素ごとの合算レイヤをもってそれぞれの前記第1ないし前記第hテスト用要素ごとのプロダクトと、前記h個のテスト用基本デコード済み特徴マップのうちでそれぞれの前記第1ないし前記第hテスト用要素ごとのプロダクトに対応するテスト用基本デコード済み特徴マップとを要素ごとに合算するようにすることで、前記第1ないし前記第(k−1)テスト用デコード済み特徴マップのうちでh個のテスト用デコード済み特徴マップを生成するプロセス;を含むことを特徴とする請求項27に記載のテスト装置。 - 前記テスト装置が前記第kコンボリューションレイヤの出力端と前記第(k−1)デコンボリューションレイヤの入力端との間に位置したさらなる第(h+1)中間レイヤをさらに含むものの、前記さらなる第(h+1)中間レイヤは、前記第kテスト用エンコード済み特徴マップに一つ以上の中間演算を適用して第(h+1)テスト用中間特徴マップを生成し、前記第(h+1)テスト用中間特徴マップを前記第(k−1)デコンボリューションレイヤに伝達することを特徴とする請求項28に記載のテスト装置。
- 前記(II−2)プロセスで、
前記プロセッサは、前記第1ないし前記第hマスクレイヤのうちで少なくとも第mマスクレイヤをもって前記(k−1)個のデコンボリューションレイヤのうちで前記第mマスクレイヤに対応する第nデコンボリューションレイヤから出力された第nテスト用基本デコード済み特徴マップからテスト用エッジ部分を抽出して第mテスト用エッジ特徴マップを生成するようにし、
前記(II−3)プロセスで、
前記プロセッサは(i)第m要素ごとのプロダクトレイヤをもって前記第mテスト用エッジ特徴マップと前記第mマスクレイヤに対応する第m中間レイヤから出力された第mテスト用中間特徴マップとを要素ごとに掛け合わせて第mテスト用要素ごとのプロダクトを生成するようにし、(ii)第m要素ごとの合算レイヤをもって前記第mテスト用要素ごとのプロダクトと、前記第nテスト用基本デコード済み特徴マップとを要素ごとに合算するようにして、第nテスト用デコード済み特徴マップを生成することを特徴とする請求項28に記載のテスト装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/257,832 | 2019-01-25 | ||
US16/257,832 US10410352B1 (en) | 2019-01-25 | 2019-01-25 | Learning method and learning device for improving segmentation performance to be used for detecting events including pedestrian event, vehicle event, falling event and fallen event using edge loss and test method and test device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020119501A JP2020119501A (ja) | 2020-08-06 |
JP6865364B2 true JP6865364B2 (ja) | 2021-04-28 |
Family
ID=67845092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019202412A Active JP6865364B2 (ja) | 2019-01-25 | 2019-11-07 | エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10410352B1 (ja) |
EP (1) | EP3686795B1 (ja) |
JP (1) | JP6865364B2 (ja) |
KR (1) | KR102241595B1 (ja) |
CN (1) | CN111488880B (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11003920B2 (en) * | 2018-11-13 | 2021-05-11 | GM Global Technology Operations LLC | Detection and planar representation of three dimensional lanes in a road scene |
US11255693B2 (en) * | 2019-03-30 | 2022-02-22 | Intel Corporation | Technologies for intelligent traffic optimization with high-definition maps |
KR20210061839A (ko) * | 2019-11-20 | 2021-05-28 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
KR102302476B1 (ko) * | 2019-12-09 | 2021-09-15 | 숭실대학교산학협력단 | 실시간 철도 장애물 감지 시스템 |
US11731662B2 (en) | 2020-10-08 | 2023-08-22 | Ford Global Technologies, Llc | Autonomous vehicle system for detecting pedestrian presence |
US11361201B2 (en) | 2020-10-08 | 2022-06-14 | Argo AI, LLC | Systems and methods for determining an object type and an attribute for an observation based on fused sensor data |
CN112949486B (zh) * | 2021-03-01 | 2022-05-17 | 八维通科技有限公司 | 基于神经网络的智能交通数据处理方法及装置 |
CN113205051B (zh) * | 2021-05-10 | 2022-01-25 | 中国科学院空天信息创新研究院 | 基于高空间分辨率遥感影像的储油罐提取方法 |
CN113963060B (zh) * | 2021-09-22 | 2022-03-18 | 腾讯科技(深圳)有限公司 | 基于人工智能的车信图像处理方法、装置及电子设备 |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002008004A (ja) * | 2000-06-20 | 2002-01-11 | Japan Radio Co Ltd | デコンボリューション処理装置 |
JP5416377B2 (ja) * | 2008-08-28 | 2014-02-12 | アンリツ産機システム株式会社 | 画像処理装置及びそれを備えたx線異物検出装置並びに画像処理方法 |
JP5506274B2 (ja) * | 2009-07-31 | 2014-05-28 | 富士フイルム株式会社 | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム |
US8520971B2 (en) * | 2010-09-30 | 2013-08-27 | Apple Inc. | Digital image resampling |
CA2966555C (en) * | 2014-12-30 | 2023-06-13 | Ventana Medical Systems, Inc. | Systems and methods for co-expression analysis in immunoscore computation |
WO2016197303A1 (en) * | 2015-06-08 | 2016-12-15 | Microsoft Technology Licensing, Llc. | Image semantic segmentation |
US9547908B1 (en) * | 2015-09-28 | 2017-01-17 | Google Inc. | Feature mask determination for images |
CN108603922A (zh) * | 2015-11-29 | 2018-09-28 | 阿特瑞斯公司 | 自动心脏体积分割 |
US20170206434A1 (en) * | 2016-01-14 | 2017-07-20 | Ford Global Technologies, Llc | Low- and high-fidelity classifiers applied to road-scene images |
US9972092B2 (en) * | 2016-03-31 | 2018-05-15 | Adobe Systems Incorporated | Utilizing deep learning for boundary-aware image segmentation |
US11144889B2 (en) * | 2016-04-06 | 2021-10-12 | American International Group, Inc. | Automatic assessment of damage and repair costs in vehicles |
WO2018033156A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 视频图像的处理方法、装置和电子设备 |
US10424064B2 (en) * | 2016-10-18 | 2019-09-24 | Adobe Inc. | Instance-level semantic segmentation system |
WO2018076212A1 (zh) * | 2016-10-26 | 2018-05-03 | 中国科学院自动化研究所 | 基于反卷积神经网络的场景语义分割方法 |
US10582907B2 (en) * | 2016-10-31 | 2020-03-10 | Siemens Healthcare Gmbh | Deep learning based bone removal in computed tomography angiography |
US10157441B2 (en) * | 2016-12-27 | 2018-12-18 | Automotive Research & Testing Center | Hierarchical system for detecting object with parallel architecture and hierarchical method thereof |
US20190205758A1 (en) * | 2016-12-30 | 2019-07-04 | Konica Minolta Laboratory U.S.A., Inc. | Gland segmentation with deeply-supervised multi-level deconvolution networks |
WO2018138603A1 (en) * | 2017-01-26 | 2018-08-02 | Semiconductor Energy Laboratory Co., Ltd. | Semiconductor device and electronic device including the semiconductor device |
CN108229455B (zh) * | 2017-02-23 | 2020-10-16 | 北京市商汤科技开发有限公司 | 物体检测方法、神经网络的训练方法、装置和电子设备 |
US10133964B2 (en) * | 2017-03-28 | 2018-11-20 | Siemens Healthcare Gmbh | Magnetic resonance image reconstruction system and method |
US10325166B2 (en) * | 2017-04-13 | 2019-06-18 | Here Global B.V. | Method, apparatus, and system for a parametric representation of signs |
US11164071B2 (en) * | 2017-04-18 | 2021-11-02 | Samsung Electronics Co., Ltd. | Method and apparatus for reducing computational complexity of convolutional neural networks |
US10824938B2 (en) * | 2017-04-24 | 2020-11-03 | Intel Corporation | Specialized fixed function hardware for efficient convolution |
CN107180248A (zh) * | 2017-06-12 | 2017-09-19 | 桂林电子科技大学 | 基于联合损失增强网络的高光谱图像分类方法 |
US10733755B2 (en) * | 2017-07-18 | 2020-08-04 | Qualcomm Incorporated | Learning geometric differentials for matching 3D models to objects in a 2D image |
US10402995B2 (en) * | 2017-07-27 | 2019-09-03 | Here Global B.V. | Method, apparatus, and system for real-time object detection using a cursor recurrent neural network |
CN108022238B (zh) * | 2017-08-09 | 2020-07-03 | 深圳科亚医疗科技有限公司 | 对3d图像中对象进行检测的方法、计算机存储介质和系统 |
US10753997B2 (en) * | 2017-08-10 | 2020-08-25 | Siemens Healthcare Gmbh | Image standardization using generative adversarial networks |
US10282589B2 (en) * | 2017-08-29 | 2019-05-07 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for detection and classification of cells using convolutional neural networks |
US11227108B2 (en) * | 2017-09-11 | 2022-01-18 | Nec Corporation | Convolutional neural network architecture with adaptive filters |
CN110838124B (zh) * | 2017-09-12 | 2021-06-18 | 深圳科亚医疗科技有限公司 | 用于分割具有稀疏分布的对象的图像的方法、系统和介质 |
US10223610B1 (en) * | 2017-10-15 | 2019-03-05 | International Business Machines Corporation | System and method for detection and classification of findings in images |
US10896342B2 (en) * | 2017-11-14 | 2021-01-19 | Qualcomm Incorporated | Spatio-temporal action and actor localization |
CN108648197B (zh) * | 2018-04-12 | 2021-09-07 | 天津大学 | 一种基于图像背景掩膜的目标候选区域提取方法 |
US10304193B1 (en) * | 2018-08-17 | 2019-05-28 | 12 Sigma Technologies | Image segmentation and object detection using fully convolutional neural network |
US10229346B1 (en) * | 2018-09-04 | 2019-03-12 | StradVision, Inc. | Learning method, learning device for detecting object using edge image and testing method, testing device using the same |
-
2019
- 2019-01-25 US US16/257,832 patent/US10410352B1/en active Active
- 2019-09-27 KR KR1020190119500A patent/KR102241595B1/ko active IP Right Grant
- 2019-10-30 EP EP19206201.6A patent/EP3686795B1/en active Active
- 2019-10-31 CN CN201911055501.9A patent/CN111488880B/zh active Active
- 2019-11-07 JP JP2019202412A patent/JP6865364B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN111488880A (zh) | 2020-08-04 |
KR102241595B1 (ko) | 2021-04-19 |
EP3686795B1 (en) | 2023-08-09 |
EP3686795C0 (en) | 2023-08-09 |
JP2020119501A (ja) | 2020-08-06 |
US10410352B1 (en) | 2019-09-10 |
EP3686795A1 (en) | 2020-07-29 |
KR20200092840A (ko) | 2020-08-04 |
CN111488880B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6865364B2 (ja) | エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 | |
JP6865363B2 (ja) | ラプラシアンピラミッドネットワークを利用して自律走行自動車レベル4及びレベル5を満足させるために要求される道路障害物検出におけるセグメンテーション性能向上のための学習方法及び学習装置、並びにこれを利用したテスト方法及びテスト装置 | |
JP6856851B2 (ja) | イメージエンコーディングのための方法及び装置そしてこれを利用したテスト方法及びテスト装置 | |
CN108764063B (zh) | 一种基于特征金字塔的遥感影像时敏目标识别系统及方法 | |
KR102337376B1 (ko) | 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP6855091B2 (ja) | ニューラルネットワーク学習に利用されるオートラベリングされたイメージのうちでラベル検収のためのサンプルイメージを取得する方法、及びそれを利用したサンプルイメージ取得装置 | |
JP6869565B2 (ja) | 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} | |
JP6912835B2 (ja) | 自律走行自動車のレベル4を満たすために要求されるhdマップアップデートに利用される、少なくとも一つのアダプティブロス重み付け値マップを利用したアテンションドリブン・イメージセグメンテーション学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
CN111507150B (zh) | 利用基于深度神经网络的多重图像块组合识别人脸的方法 | |
JP6849932B2 (ja) | 高精密度のイメージを分析するためのディープラーニングネットワークを使用するためにトレーニングイメージをオートラベリングするオートラベルリング装置のハイパーパラメータを最適化する方法、及びこれを利用した最適化装置 | |
JP6957050B2 (ja) | モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same} | |
JP6932395B2 (ja) | イメージを分析するために、ディープラーニングネットワークに利用するためのトレーニングイメージに対するラベルリング信頼度を自動的に評価するための方法、及びこれを利用した信頼度評価装置 | |
US11113574B1 (en) | Methods for performing self-supervised learning of deep-learning based detection network by using deep Q-network and devices using the same | |
JP2020038664A (ja) | コンボリューションニューラルネットワークから複数の出力のアンサンブルを利用して統合された特徴マップを提供するための方法及び装置{method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network} | |
JP6978104B2 (ja) | Ganを用いて仮想世界における仮想データから取得したトレーニングデータを生成して、自律走行用ニューラルネットワークの学習プロセスに必要なアノテーションコストを削減する学習方法や学習装置、それを利用したテスト方法やテスト装置 | |
CN111476262B (zh) | 利用1xH卷积的基于CNN的对象检测方法及装置 | |
JP6935939B2 (ja) | マルチフィーディングを適用した学習方法及び学習装置並びにそれを利用したテスト方法及びテスト装置 | |
JP6916549B2 (ja) | 軍事的目的、ドローンまたはロボットに利用されるために一つ以上の以前のバッチをさらに参照してモバイル装置またはiot装置に適用可能なオンラインバッチ正規化、オンデバイス学習、及び連続学習を遂行する方法と装置、並びにそれを利用したテスト方法及びテスト装置 | |
JP6856904B2 (ja) | 物体のスケールに応じてモード転換が可能なcnn基盤の監視用物体検出器の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
CN110879960A (zh) | 生成卷积神经网络学习用图像数据集的方法及计算装置 | |
KR102375278B1 (ko) | 사진 스타일 변환을 사용하여 런타임 입력 변환에 의해 실제 세계에서 사용되는 가상 세계에서 학습된 cnn을 허용하기 위한 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP6970461B2 (ja) | スマートフォン、ドローン、船舶または軍事的目的のための、トレーニングイメージの最適化サンプリングにより入力データを分析するニューラルネットワークのオンデバイス継続学習方法及び装置、そして、これを利用したテスト方法及び装置 | |
CN116861262B (zh) | 一种感知模型训练方法、装置及电子设备和存储介质 | |
CN117636183A (zh) | 一种基于自监督预训练的小样本遥感图像分类方法 | |
KR20220134428A (ko) | 서로 다른 스펙을 가지는 영상 장치들로부터 획득된 이미지들을 이용하여 퍼셉션 네트워크를 학습 및 테스트하는 방법 및 이를 이용한 학습 및 테스트 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210310 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6865364 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |