JP2020119501A - エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 - Google Patents
エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 Download PDFInfo
- Publication number
- JP2020119501A JP2020119501A JP2019202412A JP2019202412A JP2020119501A JP 2020119501 A JP2020119501 A JP 2020119501A JP 2019202412 A JP2019202412 A JP 2019202412A JP 2019202412 A JP2019202412 A JP 2019202412A JP 2020119501 A JP2020119501 A JP 2020119501A
- Authority
- JP
- Japan
- Prior art keywords
- layers
- test
- layer
- feature maps
- deconvolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 103
- 230000011218 segmentation Effects 0.000 title claims abstract description 28
- 238000012360 testing method Methods 0.000 title claims description 216
- 238000010998 test method Methods 0.000 title claims description 12
- 238000012549 training Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 12
- 230000010339 dilation Effects 0.000 claims description 5
- 238000013142 basic testing Methods 0.000 claims description 3
- 239000010410 layer Substances 0.000 claims 243
- 239000011229 interlayer Substances 0.000 claims 1
- 238000013527 convolutional neural network Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000003709 image segmentation Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 241000282472 Canis lupus familiaris Species 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
Description
Claims (30)
- (i)少なくとも一つのトレーニングイメージに対応する少なくとも一つの特徴マップに一つ以上のコンボリューション演算を適用して第1ないし第kエンコード済み特徴マップをそれぞれ出力する第1ないし第kコンボリューションレイヤ;(ii)前記第kエンコード済み特徴マップに一つ以上のデコンボリューション演算を適用して第(k−1)ないし第1デコード済み特徴マップをそれぞれ出力する第(k−1)ないし第1デコンボリューションレイヤ;(iii)前記(k−1)個のデコンボリューションレイヤのうちでh個のデコンボリューションレイヤ(前記hは1から(k−1)までの整数である)にそれぞれ対応する第1ないし第hマスクレイヤ;及び(iv)前記第1ないし前記第hマスクレイヤにそれぞれ対応する第1ないし第hエッジロスレイヤ;を含む学習装置を利用してセグメンテーション性能を向上させるための学習方法において、
(a)前記トレーニングイメージが入力されると、前記学習装置は、前記第1ないし前記第kコンボリューションレイヤをもって前記第1ないし前記第kエンコード済み特徴マップを生成させる段階;
(b)前記学習装置は、前記第(k−1)ないし前記第1デコンボリューションレイヤをもって順次に前記第(k−1)ないし前記第1デコード済み特徴マップを生成させるものの、前記学習装置は、前記第hないし前記第1マスクレイヤをもって、(i)前記第hないし前記第1マスクレイヤそれぞれに対応する前記h個のデコンボリューションレイヤそれぞれから出力されたそれぞれのh個の基本デコード済み特徴マップからエッジ部分を抽出して第hないし第1エッジ特徴マップを生成するようにし、(ii)前記h個の基本デコード済み特徴マップ及び前記第hないし前記第1エッジ特徴マップを参照して前記第(k−1)ないし前記第1デコード済み特徴マップのうち少なくとも一部として機能するh個のエッジ強化デコード済み特徴マップを生成させる段階;
(c)前記学習装置は、前記第1ないし前記第hエッジロスレイヤをもって前記エッジ部分及びこれに対応するGTを参照して第1ないし第hエッジロスを生成するようにして、前記第1ないし前記第hエッジロスを利用したバックプロパゲーションを通じて前記第1ないし前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の一つ以上のパラメータを調整する段階;
を含むことを特徴とする学習方法。 - 前記第1ないし前記第hエッジロスレイヤは、前記エッジ部分と、これに対応するGTとの差を計算して前記第1ないし前記第hエッジロスを生成するものの、前記GTは前記第1ないし前記第hエッジ特徴マップの大きさにそれぞれ対応する大きさを有した第1ないし第hGTイメージからそれぞれ抽出されることを特徴とする請求項1に記載の学習方法。
- 前記(b)段階で、
前記第(k−1)ないし前記第1デコンボリューションレイヤは、(i)それぞれの前記第hないし前記第1エッジ特徴マップと前記第hないし前記第1マスクレイヤに対応する前記h個のデコンボリューションレイヤから出力されたそれぞれの前記h個の基本デコード済み特徴マップの要素ごとの和(Element−wise Sum)を利用し、(ii)前記第hないし前記第1マスクレイヤに対応しない(k−h)個のデコンボリューションレイヤそれぞれの以前のレイヤそれぞれから出力された特徴マップに前記デコンボリューション演算を適用して前記(k−1)個のデコード済み特徴マップの少なくとも一部として機能する(k−h)個の基本デコード済み特徴マップを生成して、順次に前記第(k−1)ないし前記第1デコード済み特徴マップを生成することを特徴とする請求項1に記載の学習方法。 - 前記学習装置は、(v)前記第1ないし前記第(k−1)デコンボリューションレイヤのうちでr個のデコンボリューションレイヤに対応して配置される第1ないし第rロスレイヤをさらに含み、
前記(c)段階は、
(c1)前記学習装置が前記第1ないし前記第rロスレイヤをもって前記第1ないし前記第rロスレイヤに対応する前記r個のデコンボリューションレイヤから出力された各r個のデコード済み特徴マップ及びこれに対応するGTイメージを参照して第1ないし第rロスをそれぞれ生成するようにして、前記第1ないし前記第rロスを利用したバックプロパゲーションを通じて前記第1ないし前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の前記パラメータを調整する段階;を含むことを特徴とする請求項3に記載の学習方法。 - 前記第1ないし前記第rロスレイヤは、それぞれの前記r個のデコード済み特徴マップにそれぞれ補助コンボリューション演算を適用して出力されたそれぞれのr個の変換済み特徴マップと、これに対応するGTイメージとを参照して前記第1ないし前記第rロスをそれぞれ算出することを特徴とする請求項4に記載の学習方法。
- 前記学習装置は、(vi)前記第1ないし前記第hマスクレイヤそれぞれの出力端と前記第1ないし前記第hマスクレイヤに対応するコンボリューションレイヤそれぞれの出力端との間にそれぞれ位置する第1ないし第h中間レイヤをさらに含み、
前記(b)段階は、
(b1)前記学習装置は、前記第1ないし前記第h中間レイヤをもって前記第1ないし前記第hマスクレイヤに対応するh個のコンボリューションレイヤから出力されたh個のエンコード済み特徴マップが入力されて第1ないし第h中間特徴マップを生成させる段階;(b2)前記学習装置は、前記第1ないし前記第hマスクレイヤをもってそれぞれの前記第1ないし前記第hマスクレイヤに対応するそれぞれの前記h個のデコンボリューションレイヤからそれぞれ出力された前記h個の基本デコード済み特徴マップから前記エッジ部分を抽出して前記第1ないし前記第hエッジ特徴マップを生成させる段階;及び(b3)前記学習装置は、(i)第1ないし第h要素ごとのプロダクトレイヤをもってそれぞれの前記第1ないし前記第h中間特徴マップと、これに対応するエッジ特徴マップとを要素ごとに掛け合わせて(Element−wise Product)、それぞれの第1ないし第h要素ごとのプロダクトを生成するようにし、(ii)第1ないし第h要素ごとの合算レイヤをもってそれぞれの前記第1ないし前記第h要素ごとのプロダクトと、前記h個の基本デコード済み特徴マップのうちでそれぞれの前記第1ないし前記第h要素ごとのプロダクトに対応する基本デコード済み特徴マップとを要素ごとに合算するようにすることで、前記第1ないし前記第(k−1)デコード済み特徴マップのうちでh個のデコード済み特徴マップを生成する段階;を含むことを特徴とする請求項3に記載の学習方法。 - 前記学習装置が、前記第kコンボリューションレイヤの出力端と前記第(k−1)デコンボリューションレイヤの入力端との間に位置したさらなる第(h+1)中間レイヤをさらに含むものの、前記さらなる第(h+1)中間レイヤは、前記第kエンコード済み特徴マップに一つ以上の中間演算を適用して第(h+1)中間特徴マップを生成し、前記第(h+1)中間特徴マップを前記第(k−1)デコンボリューションレイヤに伝達することを特徴とする請求項6に記載の学習方法。
- 前記第1ないし前記第h中間レイヤのうち少なくとも一つは一つ以上の膨張コンボリューション演算を遂行することを特徴とする請求項6に記載の学習方法。
- 前記(b2)段階で、
前記学習装置は、前記第1ないし前記第hマスクレイヤのうちで少なくとも第mマスクレイヤをもって前記(k−1)個のデコンボリューションレイヤのうちで前記第mマスクレイヤに対応する第nデコンボリューションレイヤから出力された第n基本デコード済み特徴マップからエッジ部分を抽出して第mエッジ特徴マップを生成するようにし、
前記(b3)段階で、
前記学習装置は、(i)第m要素ごとのプロダクトレイヤをもって前記第mエッジ特徴マップと前記第mマスクレイヤに対応する第m中間レイヤから出力された第m中間特徴マップとを要素ごとに掛け合わせて第m要素ごとのプロダクトを生成するようにし、(ii)第m要素ごとの合算レイヤをもって前記第m要素ごとのプロダクトと、前記第n基本デコード済み特徴マップとを要素ごとに合算するようにして、第nデコード済み特徴マップを生成することを特徴とする請求項6に記載の学習方法。 - 前記学習装置は、(v)前記第1ないし前記第(k−1)デコンボリューションレイヤのうちでr個のデコンボリューションレイヤに対応して配置される第1ないし第rロスレイヤをさらに含み、
前記学習装置は、前記第1デコード済み特徴マップを受けて前記第1ロスレイヤに入力される調整された第1デコード済み特徴マップを出力することができるさらなるデコンボリューションレイヤをさらに含み、
前記(c)段階は、(c1)前記学習装置が前記第1ないし前記第rロスレイヤをもって前記第1ないし前記第rロスレイヤに対応する前記r個のデコンボリューションレイヤから出力された各r個のデコード済み特徴マップ及びこれに対応するGTイメージを参照して第1ないし第rロスをそれぞれ生成するようにして、前記第1ないし前記第rロスを利用したバックプロパゲーションを通じて前記第1ないし前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の前記パラメータを調整するようにする段階;を含むことを特徴とする請求項9に記載の学習方法。 - 少なくとも一つのテストイメージに対するセグメンテーションのテスト方法において、
(a)学習装置が、(i)少なくとも一つのトレーニングイメージに対応する少なくとも一つの学習用特徴マップに一つ以上のコンボリューション演算を適用して第1ないし第k学習用エンコード済み特徴マップをそれぞれ出力する第1ないし第kコンボリューションレイヤ、(ii)前記第k学習用エンコード済み特徴マップに一つ以上のデコンボリューション演算を適用して第(k−1)ないし第1学習用デコード済み特徴マップをそれぞれ出力する第(k−1)ないし第1デコンボリューションレイヤ、(iii)前記(k−1)個のデコンボリューションレイヤのうちでh個のデコンボリューションレイヤ(前記hは1から(k−1)までの整数である)にそれぞれ対応する第1ないし第hマスクレイヤ、及び(iv)前記第1ないし前記第hマスクレイヤにそれぞれ対応する第1ないし第hエッジロスレイヤを含むとするとき、前記学習装置が(1)前記第1ないし前記第kコンボリューションレイヤをもって前記第1ないし前記第k学習用エンコード済み特徴マップを生成するようにし、(2)前記第(k−1)ないし前記第1デコンボリューションレイヤをもって順次に前記第(k−1)ないし前記第1学習用デコード済み特徴マップを生成させるものの、前記学習装置は、前記第hないし前記第1マスクレイヤをもって、(i)前記第hないし前記第1マスクレイヤそれぞれに対応する前記h個のデコンボリューションレイヤそれぞれから出力されたそれぞれのh個の学習用基本デコード済み特徴マップから学習用エッジ部分を抽出して第hないし第1学習用エッジ特徴マップを生成するようにし、(ii)前記h個の学習用基本デコード済み特徴マップ及び前記第hないし前記第1学習用エッジ特徴マップを参照して前記第(k−1)ないし前記第1学習用デコード済み特徴マップのうち少なくとも一部として機能するh個の学習用エッジ強化デコード済み特徴マップを生成するようにし、(3)前記第1ないし前記第hエッジロスレイヤをもって前記学習用エッジ部分及びこれに対応するGTを参照して第1ないし第hエッジロスを生成するようにして、前記第1ないし前記第hエッジロスを利用したバックプロパゲーションを通じて前記第1ないし前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の一つ以上のパラメータを調整した状態で、テスト装置が、前記テストイメージが入力されると、前記第1ないし前記第kコンボリューションレイヤをもって第1ないし第kテスト用エンコード済み特徴マップを出力するようにする段階;及び
(b)前記テスト装置は、前記第(k−1)ないし前記第1デコンボリューションレイヤをもって順次に第(k−1)ないし第1テスト用デコード済み特徴マップを生成させるものの、前記テスト装置は、前記第hないし前記第1マスクレイヤをもって、(i)前記第hないし前記第1マスクレイヤそれぞれに対応する前記h個のデコンボリューションレイヤそれぞれから出力されたそれぞれのh個のテスト用基本デコード済み特徴マップからテスト用エッジ部分を抽出して第hないし第1テスト用エッジ特徴マップを生成するようにし、(ii)前記h個のテスト用基本デコード済み特徴マップ及び前記第hないし前記第1テスト用エッジ特徴マップを参照して前記第(k−1)ないし前記第1テスト用デコード済み特徴マップのうち少なくとも一部として機能するh個のテスト用エッジ強化デコード済み特徴マップを生成させる段階;
を含むことを特徴とするテスト方法。 - 前記(b)段階で、
前記第(k−1)ないし前記第1デコンボリューションレイヤは、(i)それぞれの前記第hないし前記第1テスト用エッジ特徴マップと前記第hないし前記第1マスクレイヤに対応する前記h個のデコンボリューションレイヤから出力されたそれぞれの前記h個のテスト用基本デコード済み特徴マップの要素ごとの和(Element−wise Sum)を利用して、(ii)前記第hないし前記第1マスクレイヤに対応しない(k−h)個のデコンボリューションレイヤそれぞれの以前のレイヤそれぞれから出力されたテスト用特徴マップに前記デコンボリューション演算を適用して前記(k−1)個のテスト用デコード済み特徴マップの少なくとも一部として機能する(k−h)個のテスト用基本デコード済み特徴マップを生成し、順次に前記第(k−1)ないし前記第1テスト用デコード済み特徴マップを生成することを特徴とする請求項11に記載のテスト方法。 - 前記テスト装置は(v)前記第1ないし前記第hマスクレイヤそれぞれの出力端と前記第1ないし前記第hマスクレイヤに対応するコンボリューションレイヤそれぞれの出力端との間にそれぞれ位置する第1ないし第h中間レイヤをさらに含み、
前記(b)段階は、
(b1)前記テスト装置は前記第1ないし前記第h中間レイヤをもって前記第1ないし前記第hマスクレイヤに対応するh個のコンボリューションレイヤから出力されたh個のテスト用エンコード済み特徴マップが入力されて第1ないし第hテスト用中間特徴マップを生成させる段階;(b2)前記テスト装置は、前記第1ないし前記第hマスクレイヤをもってそれぞれの前記第1ないし前記第hマスクレイヤに対応するそれぞれの前記h個のデコンボリューションレイヤからそれぞれ出力された前記第h個のテスト用基本デコード済み特徴マップから前記テスト用エッジ部分を抽出して前記第1ないし前記第hテスト用エッジ特徴マップを生成させる段階;及び(b3)前記テスト装置は、(i)第1ないし第h要素ごとのプロダクトレイヤをもってそれぞれの前記第1ないし前記第hテスト用中間特徴マップと、これに対応するテスト用エッジ特徴マップとを要素ごとに掛け合わせて(Element−wise Product)、それぞれの第1ないし第hテスト用要素ごとのプロダクトを生成するようにし、(ii)第1ないし第hテスト要素ごとの合算レイヤをもってそれぞれの前記第1ないし前記第hテスト用要素ごとのプロダクトと、前記h個のテスト用基本デコード済み特徴マップのうちでそれぞれの前記第1ないし前記第hテスト用要素ごとのプロダクトに対応するテスト用基本デコード済み特徴マップとを要素ごとに合算するようにすることで、前記第1ないし前記第(k−1)テスト用デコード済み特徴マップのうちでh個のテスト用デコード済み特徴マップを生成する段階;を含むことを特徴とする請求項12に記載のテスト方法。 - 前記テスト装置が前記第kコンボリューションレイヤの出力端と前記第(k−1)デコンボリューションレイヤの入力端との間に位置したさらなる第(h+1)中間レイヤをさらに含むものの、前記さらなる第(h+1)中間レイヤは、前記第kテスト用エンコード済み特徴マップに一つ以上の中間演算を適用して第(h+1)テスト用中間特徴マップを生成し、前記第(h+1)テスト用中間特徴マップを前記第(k−1)デコンボリューションレイヤに伝達することを特徴とする請求項13に記載のテスト方法。
- 前記(b2)段階で、
前記テスト装置は、前記第1ないし前記第hマスクレイヤのうちで少なくとも第mマスクレイヤをもって前記(k−1)個のデコンボリューションレイヤのうちで前記第mマスクレイヤに対応する第nデコンボリューションレイヤから出力された第nテスト用基本デコード済み特徴マップからテスト用エッジ部分を抽出して第mテスト用エッジ特徴マップを生成するようにし、
前記(b3)段階で、
前記テスト装置は、(i)第m要素別プロダクトレイヤをもって前記第mテスト用エッジ特徴マップと、前記第mマスクレイヤに対応する第m中間レイヤから出力された第mテスト用中間特徴マップとを要素ごとに掛け合わせて、第mテスト用要素別プロダクトを生成するようにし、(ii)第m要素別合算レイヤをもって前記第mテスト用要素ごとのプロダクトと前記第nテスト用基本デコード済み特徴マップとを要素ごとに合算するようにして、第nテスト用デコード済み特徴マップを生成することを特徴とする請求項13に記載のテスト方法。 - (i)少なくとも一つのトレーニングイメージに対応する少なくとも一つの特徴マップに一つ以上のコンボリューション演算を適用して、第1ないし第kエンコード済み特徴マップをそれぞれ出力する第1ないし第kコンボリューションレイヤ;(ii)前記第kエンコード済み特徴マップに一つ以上のデコンボリューション演算を適用して第(k−1)ないし第1デコード済み特徴マップをそれぞれ出力する第(k−1)ないし第1デコンボリューションレイヤ;(iii)前記(k−1)個のデコンボリューションレイヤのうちでh個のデコンボリューションレイヤ(前記hは1から(k−1)までの整数である)にそれぞれ対応する第1ないし第hマスクレイヤ;及び(iv)前記第1ないし前記第hマスクレイヤにそれぞれ対応する第1ないし第hエッジロスレイヤ;を含む、セグメンテーションの性能向上のための学習装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
(I)前記第1ないし前記第kコンボリューションレイヤをもって前記第1ないし前記第kエンコード済み特徴マップを生成させるプロセス、(II)前記第(k−1)ないし前記第1デコンボリューションレイヤをもって順次に前記第(k−1)ないし前記第1デコード済み特徴マップを生成させるものの、前記学習装置は、前記第hないし前記第1マスクレイヤをもって、(i)前記第hないし前記第1マスクレイヤそれぞれに対応する前記h個のデコンボリューションレイヤそれぞれから出力されたそれぞれのh個の基本デコード済み特徴マップからエッジ部分を抽出して第hないし第1エッジ特徴マップを生成するようにし、(ii)前記h個の基本デコード済み特徴マップ及び前記第hないし前記第1エッジ特徴マップを参照して前記第(k−1)ないし前記第1デコード済み特徴マップのうち少なくとも一部として機能するh個のエッジ強化デコード済み特徴マップを生成させるプロセス、及び(III)前記第1ないし前記第hエッジロスレイヤをもって前記エッジ部分及びこれに対応するGTを参照して第1ないし第hエッジロスを生成するようにして、前記第1ないし前記第hエッジロスを利用したバックプロパゲーションを通じて前記第1ないし前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の一つ以上のパラメータを調整するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とする学習装置。 - 前記第1ないし前記第hエッジロスレイヤは、前記エッジ部分と、これに対応するGTの差を計算して前記第1ないし前記第hエッジロスを生成するものの、前記GTは前記第1ないし前記第hエッジ特徴マップの大きさにそれぞれ対応する大きさを有した第1ないし第hGTイメージからそれぞれ抽出されることを特徴とする請求項16に記載の学習装置。
- 前記(II)プロセスで、
前記第(k−1)ないし前記第1デコンボリューションレイヤは、(i)それぞれの前記第hないし前記第1エッジ特徴マップと前記第hないし前記第1マスクレイヤに対応する前記h個のデコンボリューションレイヤから出力されたそれぞれの前記h個の基本デコード済み特徴マップの要素ごとの和(Element−wise Sum)を利用して、(ii)前記第hないし前記第1マスクレイヤに対応しない(k−h)個のデコンボリューションレイヤそれぞれの以前のレイヤそれぞれから出力された特徴マップに前記デコンボリューション演算を適用して前記(k−1)個のデコード済み特徴マップの少なくとも一部として機能する(k−h)個の基本デコード済み特徴マップを生成して、順次に前記第(k−1)ないし前記第1デコード済み特徴マップを生成することを特徴とする請求項16に記載の学習装置。 - 前記学習装置は、(v)前記第1ないし前記第(k−1)デコンボリューションレイヤのうちでr個のデコンボリューションレイヤに対応して配置される第1ないし第rロスレイヤをさらに含み、
前記(III)プロセスは、
(III−1)前記プロセッサが前記第1ないし前記第rロスレイヤをもって前記第1ないし前記第rロスレイヤに対応する前記r個のデコンボリューションレイヤから出力された各r個のデコード済み特徴マップ及びこれに対応するGTイメージを参照して第1ないし第rロスをそれぞれ生成するようにして、前記第1ないし前記第rロスを利用したバックプロパゲーションを通じて前記第1ないし前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の前記パラメータを調整するプロセス;を含むことを特徴とする請求項18に記載の学習装置。 - 前記第1ないし前記第rロスレイヤは、それぞれの前記r個のデコード済み特徴マップにそれぞれ補助コンボリューション演算を適用して出力されたそれぞれのr個の変換済み特徴マップと、これに対応するGTイメージとを参照して前記第1ないし前記第rロスをそれぞれ算出することを特徴とする請求項19に記載の学習装置。
- 前記学習装置は、(vi)前記第1ないし前記第hマスクレイヤそれぞれの出力端と前記第1ないし前記第hマスクレイヤに対応するコンボリューションレイヤそれぞれの出力端との間にそれぞれ位置する第1ないし第h中間レイヤをさらに含み、
前記(II)プロセスは、
(II−1)前記プロセッサが、前記第1ないし前記第h中間レイヤをもって前記第1ないし前記第hマスクレイヤに対応するh個のコンボリューションレイヤから出力されたh個のエンコード済み特徴マップが入力されて第1ないし第h中間特徴マップを生成させるプロセス;(II−2)前記プロセッサは前記第1ないし前記第hマスクレイヤをもってそれぞれの前記第1ないし前記第hマスクレイヤに対応するそれぞれの前記h個のデコンボリューションレイヤからそれぞれ出力された前記h個の基本デコード済み特徴マップから前記エッジ部分を抽出して前記第1ないし前記第hエッジ特徴マップを生成させるプロセス;及び(III−3)前記プロセッサは(i)第1ないし第h要素ごとのプロダクトレイヤをもってそれぞれの前記第1ないし前記第h中間特徴マップと、これに対応するエッジ特徴マップとを要素ごとに掛け合わせて(Element−wise Product)、それぞれの第1ないし第h要素ごとのプロダクトを生成するようにし、(ii)第1ないし第h要素ごとの合算レイヤをもってそれぞれの前記第1ないし前記第h要素ごとのプロダクトと、前記h個の基本デコード済み特徴マップのうちでそれぞれの前記第1ないし前記第h要素ごとのプロダクトに対応する基本デコード済み特徴マップとを要素ごとに合算するようにすることで、前記第1ないし前記第(k−1)デコード済み特徴マップのうちでh個のデコード済み特徴マップを生成するプロセス;を含むことをを特徴とする請求項18に記載の学習装置。 - 前記学習装置が前記第kコンボリューションレイヤの出力端と前記第(k−1)デコンボリューションレイヤの入力端との間に位置したさらなる第(h+1)中間レイヤをさらに含むものの、前記さらなる第(h+1)中間レイヤは、前記第kエンコード済み特徴マップに一つ以上の中間演算を適用して第(h+1)中間特徴マップを生成し、前記第(h+1)中間特徴マップを前記第(k−1)デコンボリューションレイヤに伝達することを特徴とする請求項21に記載の学習装置。
- 前記第1ないし前記第h中間レイヤのうち少なくとも一つは一つ以上の膨張コンボリューション演算を遂行することを特徴とする請求項21に記載の学習装置。
- 前記(II−2)プロセスで、
前記プロセッサは前記第1ないし前記第hマスクレイヤのうちで少なくとも第mマスクレイヤをもって前記(k−1)個のデコンボリューションレイヤのうちで前記第mマスクレイヤに対応する第nデコンボリューションレイヤから出力された第n基本デコード済み特徴マップからエッジ部分を抽出して第mエッジ特徴マップを生成するようにし、
前記(II−3)プロセスで、
前記プロセッサは、(i)第m要素別プロダクトレイヤをもって前記第mエッジ特徴マップと前記第mマスクレイヤに対応する第m中間レイヤから出力された第m中間特徴マップを要素別に掛け合わせて、第m要素別プロダクトを生成するようにし、(ii)第m要素別合算レイヤをもって前記第m要素別プロダクトと前記第n基本デコード特徴マップとを要素ごとに合算するようにして、第nデコード特徴マップを生成することを特徴とする請求項21に記載の学習装置。 - 前記学習装置は、(v)前記第1ないし前記第(k−1)デコンボリューションレイヤのうちでr個のデコンボリューションレイヤに対応して配置される第1ないし第rロスレイヤをさらに含み、
前記学習装置は、前記第1デコード済み特徴マップを受けて前記第1ロスレイヤに入力される調整された第1デコード済み特徴マップを出力することができるさらなるデコンボリューションレイヤをさらに含み、
前記(III)プロセスは、(III−1)前記プロセッサが前記第1ないし前記第rロスレイヤをもって前記第1ないし前記第rロスレイヤに対応する前記r個のデコンボリューションレイヤから出力された各r個のデコード済み特徴マップ及びこれに対応するGTイメージを参照して第1ないし第rロスをそれぞれ生成するようにして、前記第1ないし前記第rロスを利用したバックプロパゲーションを通じて前記第1ないし前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の前記パラメータを調整するようにするプロセス;を含むことを特徴とする請求項24に記載の学習装置。 - 少なくとも一つのテストイメージに対するセグメンテーションをするためのテスト装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
学習装置が、(i)少なくとも一つのトレーニングイメージに対応する少なくとも一つの学習用特徴マップに一つ以上のコンボリューション演算を適用して第1ないし第k学習用エンコード済み特徴マップをそれぞれ出力する第1ないし第kコンボリューションレイヤ、(ii)前記第k学習用エンコード済み特徴マップに一つ以上のデコンボリューション演算を適用して第(k−1)ないし第1学習用デコード済み特徴マップをそれぞれ出力する第(k−1)ないし第1デコンボリューションレイヤ、(iii)前記(k−1)個のデコンボリューションレイヤのうちでh個のデコンボリューションレイヤ(前記hは1から(k−1)までの整数である)にそれぞれ対応する第1ないし第hマスクレイヤ、及び(iv)前記第1ないし前記第hマスクレイヤにそれぞれ対応する第1ないし第hエッジロスレイヤを含むとするとき、前記学習装置が(1)前記第1ないし前記第kコンボリューションレイヤをもって前記第1ないし前記第k学習用エンコード済み特徴マップを生成するようにし、(2)前記第(k−1)ないし前記第1デコンボリューションレイヤをもって順次に前記第(k−1)ないし前記第1学習用デコード済み特徴マップを生成させるものの、前記学習装置は、前記第hないし前記第1マスクレイヤをもって、(i)前記第hないし前記第1マスクレイヤそれぞれに対応する前記h個のデコンボリューションレイヤそれぞれから出力されたそれぞれのh個の学習用基本デコード済み特徴マップから学習用エッジ部分を抽出して第hないし第1学習用エッジ特徴マップを生成するようにし、(ii)前記h個の学習用基本デコード済み特徴マップ及び前記第hないし前記第1学習用エッジ特徴マップを参照して前記第(k−1)ないし前記第1学習用デコード済み特徴マップのうち少なくとも一部として機能するh個の学習用エッジ強化デコード済み特徴マップを生成するようにし、(3)前記第1ないし前記第hエッジロスレイヤをもって前記学習用エッジ部分及びこれに対応するGTを参照して第1ないし第hエッジロスを生成するようにして、前記第1ないし前記第hエッジロスを利用したバックプロパゲーションを通じて前記第1乃至前記第(k−1)デコンボリューションレイヤ及び前記第kないし前記第1コンボリューションレイヤのうち少なくとも一部の一つ以上のパラメータを調整した状態で、(I)前記第1ないし前記第kコンボリューションレイヤをもって第1ないし第kテスト用エンコード済み特徴マップを出力するようにするプロセス;及び(II)前記第(k−1)ないし前記第1デコンボリューションレイヤをもって順次に第(k−1)ないし第1テスト用デコード済み特徴マップを生成させるものの、前記テスト装置は、前記第hないし前記第1マスクレイヤをもって、(i)前記第hないし前記第1マスクレイヤそれぞれに対応する前記h個のデコンボリューションレイヤそれぞれから出力されたそれぞれのh個のテスト用基本デコード済み特徴マップからテスト用エッジ部分を抽出して第hないし第1テスト用エッジ特徴マップを生成するようにし、(ii)前記h個のテスト用基本デコード済み特徴マップ及び前記第hないし前記第1テスト用エッジ特徴マップを参照して前記第(k−1)ないし前記第1テスト用デコード済み特徴マップのうち少なくとも一部として機能するh個のテスト用エッジ強化デコード済み特徴マップを生成させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とするテスト装置。 - 前記(II)プロセスで、
前記第(k−1)ないし前記第1デコンボリューションレイヤは、(i)それぞれの前記第hないし前記第1テスト用エッジ特徴マップと前記第hないし前記第1マスクレイヤに対応する前記h個のデコンボリューションレイヤから出力されたそれぞれの前記h個のテスト用基本デコード済み特徴マップの要素ごとの和(Element−wise Sum)を利用し、(ii)前記第hないし前記第1マスクレイヤに対応しない(k−h)個のデコンボリューションレイヤそれぞれの以前のレイヤそれぞれから出力されたテスト用特徴マップに前記デコンボリューション演算を適用して前記(k−1)個のテスト用デコード済み特徴マップの少なくとも一部として機能する(k−h)個のテスト用基本デコード済み特徴マップを生成して、順次に前記第(k−1)ないし前記第1テスト用デコード済み特徴マップを生成することを特徴とする請求項26に記載のテスト装置。 - 前記テスト装置は、(v)前記第1ないし前記第hマスクレイヤそれぞれの出力端と前記第1ないし前記第hマスクレイヤに対応するコンボリューションレイヤそれぞれの出力端との間にそれぞれ位置する第1ないし第h中間レイヤをさらに含み、
前記(II)プロセスは、
(II−1)前記プロセッサは前記第1ないし前記第h中間レイヤをもって前記第1ないし前記第hマスクレイヤに対応するh個のコンボリューションレイヤから出力されたh個のテスト用エンコード済み特徴マップが入力されて第1ないし第hテスト用中間特徴マップを生成させるプロセス;(II−2)前記プロセッサは前記第1ないし前記第hマスクレイヤをもってそれぞれの前記第1ないし前記第hマスクレイヤに対応するそれぞれの前記h個のデコンボリューションレイヤからそれぞれ出力された前記第hテスト用基本デコード済み特徴マップから前記テスト用エッジ部分を抽出して前記第1ないし前記第hテスト用エッジ特徴マップを生成させるプロセス;及び(II−3)前記プロセッサは、(i)第1ないし第h要素ごとのプロダクトレイヤをもってそれぞれの前記第1ないし前記第hテスト用中間特徴マップと、これに対応するテスト用エッジ特徴マップとを要素ごとに掛け合わせて(Element−wise Product)、それぞれの第1ないし第hテスト用要素ごとのプロダクトを生成するようにし、(ii)第1ないし第h要素ごとの合算レイヤをもってそれぞれの前記第1ないし前記第hテスト用要素ごとのプロダクトと、前記h個のテスト用基本デコード済み特徴マップのうちでそれぞれの前記第1ないし前記第hテスト用要素ごとのプロダクトに対応するテスト用基本デコード済み特徴マップとを要素ごとに合算するようにすることで、前記第1ないし前記第(k−1)テスト用デコード済み特徴マップのうちでh個のテスト用デコード済み特徴マップを生成するプロセス;を含むことを特徴とする請求項27に記載のテスト装置。 - 前記テスト装置が前記第kコンボリューションレイヤの出力端と前記第(k−1)デコンボリューションレイヤの入力端との間に位置したさらなる第(h+1)中間レイヤをさらに含むものの、前記さらなる第(h+1)中間レイヤは、前記第kテスト用エンコード済み特徴マップに一つ以上の中間演算を適用して第(h+1)テスト用中間特徴マップを生成し、前記第(h+1)テスト用中間特徴マップを前記第(k−1)デコンボリューションレイヤに伝達することを特徴とする請求項28に記載のテスト装置。
- 前記(II−2)プロセスで、
前記プロセッサは、前記第1ないし前記第hマスクレイヤのうちで少なくとも第mマスクレイヤをもって前記(k−1)個のデコンボリューションレイヤのうちで前記第mマスクレイヤに対応する第nデコンボリューションレイヤから出力された第nテスト用基本デコード済み特徴マップからテスト用エッジ部分を抽出して第mテスト用エッジ特徴マップを生成するようにし、
前記(II−3)プロセスで、
前記プロセッサは(i)第m要素ごとのプロダクトレイヤをもって前記第mテスト用エッジ特徴マップと前記第mマスクレイヤに対応する第m中間レイヤから出力された第mテスト用中間特徴マップとを要素ごとに掛け合わせて第mテスト用要素ごとのプロダクトを生成するようにし、(ii)第m要素ごとの合算レイヤをもって前記第mテスト用要素ごとのプロダクトと、前記第nテスト用基本デコード済み特徴マップとを要素ごとに合算するようにして、第nテスト用デコード済み特徴マップを生成することを特徴とする請求項28に記載のテスト装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/257,832 US10410352B1 (en) | 2019-01-25 | 2019-01-25 | Learning method and learning device for improving segmentation performance to be used for detecting events including pedestrian event, vehicle event, falling event and fallen event using edge loss and test method and test device using the same |
US16/257,832 | 2019-01-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020119501A true JP2020119501A (ja) | 2020-08-06 |
JP6865364B2 JP6865364B2 (ja) | 2021-04-28 |
Family
ID=67845092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019202412A Active JP6865364B2 (ja) | 2019-01-25 | 2019-11-07 | エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10410352B1 (ja) |
EP (1) | EP3686795B1 (ja) |
JP (1) | JP6865364B2 (ja) |
KR (1) | KR102241595B1 (ja) |
CN (1) | CN111488880B (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11003920B2 (en) * | 2018-11-13 | 2021-05-11 | GM Global Technology Operations LLC | Detection and planar representation of three dimensional lanes in a road scene |
US11255693B2 (en) * | 2019-03-30 | 2022-02-22 | Intel Corporation | Technologies for intelligent traffic optimization with high-definition maps |
KR20210061839A (ko) * | 2019-11-20 | 2021-05-28 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
KR102302476B1 (ko) * | 2019-12-09 | 2021-09-15 | 숭실대학교산학협력단 | 실시간 철도 장애물 감지 시스템 |
US11731662B2 (en) | 2020-10-08 | 2023-08-22 | Ford Global Technologies, Llc | Autonomous vehicle system for detecting pedestrian presence |
US11361201B2 (en) | 2020-10-08 | 2022-06-14 | Argo AI, LLC | Systems and methods for determining an object type and an attribute for an observation based on fused sensor data |
CN112949486B (zh) * | 2021-03-01 | 2022-05-17 | 八维通科技有限公司 | 基于神经网络的智能交通数据处理方法及装置 |
CN113205051B (zh) * | 2021-05-10 | 2022-01-25 | 中国科学院空天信息创新研究院 | 基于高空间分辨率遥感影像的储油罐提取方法 |
CN113963060B (zh) * | 2021-09-22 | 2022-03-18 | 腾讯科技(深圳)有限公司 | 基于人工智能的车信图像处理方法、装置及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002008004A (ja) * | 2000-06-20 | 2002-01-11 | Japan Radio Co Ltd | デコンボリューション処理装置 |
JP2010054356A (ja) * | 2008-08-28 | 2010-03-11 | Anritsu Sanki System Co Ltd | 画像処理装置及びそれを備えたx線異物検出装置並びに画像処理方法 |
US20120082396A1 (en) * | 2010-09-30 | 2012-04-05 | Crandall Richard E | Digital Image Resampling |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5506274B2 (ja) * | 2009-07-31 | 2014-05-28 | 富士フイルム株式会社 | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム |
EP4187486A1 (en) * | 2014-12-30 | 2023-05-31 | Ventana Medical Systems, Inc. | Method for co-expression analysis |
WO2016197303A1 (en) * | 2015-06-08 | 2016-12-15 | Microsoft Technology Licensing, Llc. | Image semantic segmentation |
US9547908B1 (en) * | 2015-09-28 | 2017-01-17 | Google Inc. | Feature mask determination for images |
US10871536B2 (en) * | 2015-11-29 | 2020-12-22 | Arterys Inc. | Automated cardiac volume segmentation |
US20170206434A1 (en) * | 2016-01-14 | 2017-07-20 | Ford Global Technologies, Llc | Low- and high-fidelity classifiers applied to road-scene images |
US9972092B2 (en) * | 2016-03-31 | 2018-05-15 | Adobe Systems Incorporated | Utilizing deep learning for boundary-aware image segmentation |
US11144889B2 (en) * | 2016-04-06 | 2021-10-12 | American International Group, Inc. | Automatic assessment of damage and repair costs in vehicles |
WO2018033156A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 视频图像的处理方法、装置和电子设备 |
US10424064B2 (en) * | 2016-10-18 | 2019-09-24 | Adobe Inc. | Instance-level semantic segmentation system |
WO2018076212A1 (zh) * | 2016-10-26 | 2018-05-03 | 中国科学院自动化研究所 | 基于反卷积神经网络的场景语义分割方法 |
US10582907B2 (en) * | 2016-10-31 | 2020-03-10 | Siemens Healthcare Gmbh | Deep learning based bone removal in computed tomography angiography |
US10157441B2 (en) * | 2016-12-27 | 2018-12-18 | Automotive Research & Testing Center | Hierarchical system for detecting object with parallel architecture and hierarchical method thereof |
US20190205758A1 (en) * | 2016-12-30 | 2019-07-04 | Konica Minolta Laboratory U.S.A., Inc. | Gland segmentation with deeply-supervised multi-level deconvolution networks |
WO2018138603A1 (en) * | 2017-01-26 | 2018-08-02 | Semiconductor Energy Laboratory Co., Ltd. | Semiconductor device and electronic device including the semiconductor device |
CN108229455B (zh) * | 2017-02-23 | 2020-10-16 | 北京市商汤科技开发有限公司 | 物体检测方法、神经网络的训练方法、装置和电子设备 |
US10133964B2 (en) * | 2017-03-28 | 2018-11-20 | Siemens Healthcare Gmbh | Magnetic resonance image reconstruction system and method |
US10325166B2 (en) * | 2017-04-13 | 2019-06-18 | Here Global B.V. | Method, apparatus, and system for a parametric representation of signs |
US11164071B2 (en) * | 2017-04-18 | 2021-11-02 | Samsung Electronics Co., Ltd. | Method and apparatus for reducing computational complexity of convolutional neural networks |
US10824938B2 (en) * | 2017-04-24 | 2020-11-03 | Intel Corporation | Specialized fixed function hardware for efficient convolution |
CN107180248A (zh) * | 2017-06-12 | 2017-09-19 | 桂林电子科技大学 | 基于联合损失增强网络的高光谱图像分类方法 |
US10733755B2 (en) * | 2017-07-18 | 2020-08-04 | Qualcomm Incorporated | Learning geometric differentials for matching 3D models to objects in a 2D image |
US10402995B2 (en) * | 2017-07-27 | 2019-09-03 | Here Global B.V. | Method, apparatus, and system for real-time object detection using a cursor recurrent neural network |
CN108022238B (zh) * | 2017-08-09 | 2020-07-03 | 深圳科亚医疗科技有限公司 | 对3d图像中对象进行检测的方法、计算机存储介质和系统 |
US10753997B2 (en) * | 2017-08-10 | 2020-08-25 | Siemens Healthcare Gmbh | Image standardization using generative adversarial networks |
US10282589B2 (en) * | 2017-08-29 | 2019-05-07 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for detection and classification of cells using convolutional neural networks |
US11227108B2 (en) * | 2017-09-11 | 2022-01-18 | Nec Corporation | Convolutional neural network architecture with adaptive filters |
CN110838124B (zh) * | 2017-09-12 | 2021-06-18 | 深圳科亚医疗科技有限公司 | 用于分割具有稀疏分布的对象的图像的方法、系统和介质 |
US10223610B1 (en) * | 2017-10-15 | 2019-03-05 | International Business Machines Corporation | System and method for detection and classification of findings in images |
US10896342B2 (en) * | 2017-11-14 | 2021-01-19 | Qualcomm Incorporated | Spatio-temporal action and actor localization |
CN108648197B (zh) * | 2018-04-12 | 2021-09-07 | 天津大学 | 一种基于图像背景掩膜的目标候选区域提取方法 |
US10304193B1 (en) * | 2018-08-17 | 2019-05-28 | 12 Sigma Technologies | Image segmentation and object detection using fully convolutional neural network |
US10229346B1 (en) * | 2018-09-04 | 2019-03-12 | StradVision, Inc. | Learning method, learning device for detecting object using edge image and testing method, testing device using the same |
-
2019
- 2019-01-25 US US16/257,832 patent/US10410352B1/en active Active
- 2019-09-27 KR KR1020190119500A patent/KR102241595B1/ko active IP Right Grant
- 2019-10-30 EP EP19206201.6A patent/EP3686795B1/en active Active
- 2019-10-31 CN CN201911055501.9A patent/CN111488880B/zh active Active
- 2019-11-07 JP JP2019202412A patent/JP6865364B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002008004A (ja) * | 2000-06-20 | 2002-01-11 | Japan Radio Co Ltd | デコンボリューション処理装置 |
JP2010054356A (ja) * | 2008-08-28 | 2010-03-11 | Anritsu Sanki System Co Ltd | 画像処理装置及びそれを備えたx線異物検出装置並びに画像処理方法 |
US20120082396A1 (en) * | 2010-09-30 | 2012-04-05 | Crandall Richard E | Digital Image Resampling |
Non-Patent Citations (2)
Title |
---|
SAINING XIE, 外1名: ""Holistically-Nested Edge Detection"", 2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV), JPN6021000673, 7 December 2015 (2015-12-07), US, pages 1395 - 1403, XP032866469, ISSN: 0004425811, DOI: 10.1109/ICCV.2015.164 * |
三輪卓矢, 外4名: ""骨格画像に基づく適応的フィルタを組み込んだブラインドデコンボリューションによる量子化ノイズ低減手法", 映像情報メディア学会技術報告, vol. 第39巻, 第7号, JPN6021000672, 16 February 2015 (2015-02-16), JP, pages 125 - 130, ISSN: 0004425810 * |
Also Published As
Publication number | Publication date |
---|---|
EP3686795C0 (en) | 2023-08-09 |
KR20200092840A (ko) | 2020-08-04 |
US10410352B1 (en) | 2019-09-10 |
CN111488880A (zh) | 2020-08-04 |
JP6865364B2 (ja) | 2021-04-28 |
EP3686795A1 (en) | 2020-07-29 |
EP3686795B1 (en) | 2023-08-09 |
CN111488880B (zh) | 2023-04-18 |
KR102241595B1 (ko) | 2021-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020119501A (ja) | エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 | |
JP6865363B2 (ja) | ラプラシアンピラミッドネットワークを利用して自律走行自動車レベル4及びレベル5を満足させるために要求される道路障害物検出におけるセグメンテーション性能向上のための学習方法及び学習装置、並びにこれを利用したテスト方法及びテスト装置 | |
KR102309711B1 (ko) | 유용한 학습 데이터를 취사 선별하기 위한 cnn 기반 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102263397B1 (ko) | 뉴럴 네트워크 학습에 이용될 오토 라벨링된 이미지 중에서 라벨 검수를 위한 샘플 이미지를 획득하는 방법 및 이를 이용한 샘플 이미지 획득 장치 | |
EP3690740B1 (en) | Method for optimizing hyperparameters of auto-labeling device which auto-labels training images for use in deep learning network to analyze images with high precision, and optimizing device using the same | |
KR102337376B1 (ko) | 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
US10579907B1 (en) | Method for automatically evaluating labeling reliability of training images for use in deep learning network to analyze images, and reliability-evaluating device using the same | |
KR102362744B1 (ko) | 딥 뉴럴 네트워크(deep neural network) 기반의 다중 패치 조합(multiple patch combination)을 이용하여 얼굴을 인식하고, 극도의 상황에서 결함 허용 능력 및 흔들림에 강인한 성질을 향상시키는 방법 | |
JP6912835B2 (ja) | 自律走行自動車のレベル4を満たすために要求されるhdマップアップデートに利用される、少なくとも一つのアダプティブロス重み付け値マップを利用したアテンションドリブン・イメージセグメンテーション学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
CN111488978B (zh) | 为了元学习用于调整残差网络的方法及装置 | |
CN110910395A (zh) | 图像编码方法和装置、利用它们的测试方法和测试装置 | |
US11113574B1 (en) | Methods for performing self-supervised learning of deep-learning based detection network by using deep Q-network and devices using the same | |
US10872297B2 (en) | Learning method and learning device for generating training data from virtual data on virtual world by using generative adversarial network, to thereby reduce annotation cost required in training processes of neural network for autonomous driving, and a testing method and a testing device using the same | |
KR102313604B1 (ko) | 멀티 피딩을 적용한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
EP3686800A1 (en) | Learning method and learning device for object detector based on cnn using 1xh convolution to be used for hardware optimization, and testing method and testing device using the same | |
KR102320995B1 (ko) | 객체의 스케일에 따라 모드 전환이 가능한 cnn 기반의 감시용 객체 검출기의 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치 | |
CN117636183A (zh) | 一种基于自监督预训练的小样本遥感图像分类方法 | |
JP2020068015A (ja) | リグレッションロス(Regression loss)を利用した学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE USING REGRESSION LOSS AND TESTING METHOD, TESTING DEVICE USING THE SAME} | |
KR20220134428A (ko) | 서로 다른 스펙을 가지는 영상 장치들로부터 획득된 이미지들을 이용하여 퍼셉션 네트워크를 학습 및 테스트하는 방법 및 이를 이용한 학습 및 테스트 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210310 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6865364 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |