JP6935939B2 - マルチフィーディングを適用した学習方法及び学習装置並びにそれを利用したテスト方法及びテスト装置 - Google Patents
マルチフィーディングを適用した学習方法及び学習装置並びにそれを利用したテスト方法及びテスト装置 Download PDFInfo
- Publication number
- JP6935939B2 JP6935939B2 JP2019163897A JP2019163897A JP6935939B2 JP 6935939 B2 JP6935939 B2 JP 6935939B2 JP 2019163897 A JP2019163897 A JP 2019163897A JP 2019163897 A JP2019163897 A JP 2019163897A JP 6935939 B2 JP6935939 B2 JP 6935939B2
- Authority
- JP
- Japan
- Prior art keywords
- feature map
- convolution
- test
- main feature
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Description
一実施例において、前記(b−3)段階で、前記第(k−1)メイン特徴マップ及び前記第mサブ特徴マップをピクセルごとに加え、前記第(k−1)統合特徴マップを生成することを特徴とする方法が提供される。
一実施例において、前記(b−3)段階で、前記第(k−1)メイン特徴マップ及び前記第mサブ特徴マップをコンカチネートして前記第(k−1)統合特徴マップを生成することを特徴とする方法が提供される。
一方、特定のメイン特徴マップと特定のサブ特徴マップを統合する際、2つの特徴マップをピクセルごとに加えて生成することができる。この場合、特定のサブ特徴マップは、特定のメイン特徴マップ(201)とチャンネル数が同一でなければならないために、リサイズされた特定の入力イメージにコンボリューション演算を適用するとき、チャンネル数を特定のメイン特徴マップのチャンネル数に合わせるように1×1コンボリューション演算を適用することができる。他の例において、特定のメイン特徴マップと特定のサブ特徴マップを統合する際に2つの特徴マップをコンカチネートして生成することもできる。この場合は、特定のメイン特徴マップと特定のサブ特徴マップのチャンネル数が同一である必要はないであろう。
Claims (26)
- マルチフィーディングレイヤを使用して、少なくとも一つのトレーニングイメージをエンコードすることができるCNNの学習方法において、前記CNNは、前記トレーニングイメージについて少なくとも一回以上のコンボリューション演算を適用して第1乃至第nメイン特徴マップをそれぞれ生成する第1乃至第nコンボリューションレイヤを含み、前記n個のコンボリューションレイヤのうちh個のコンボリューションレイヤそれぞれに対応する第1乃至第hフィーディングレイヤを含み、前記hは1乃至(n−1)の整数であることを特徴とし、
(a)学習装置が、前記トレーニングイメージを取得する段階;及び
(b)前記学習装置が、前記それぞれのコンボリューションレイヤをもって、前記トレーニングイメージ、または以前のコンボリューションレイヤで取得されたメイン特徴マップに前記コンボリューション演算を適用して、前記第1乃至第nメイン特徴マップそれぞれを生成するものの、前記学習装置が、前記第1乃至第hフィーディングレイヤにそれぞれ対応する前記h個のコンボリューションレイヤ(前記h個のコンボリューションレイヤは前記第2乃至第nコンボリューションレイヤで選ばれる)のうちの一つである第kコンボリューションレイヤをもって、(i)第(k−1)コンボリューションレイヤから取得された第(k−1)メイン特徴マップ及び前記第kコンボリューションレイヤに対応する第mフィーディングレイヤから前記トレーニングイメージが前記第(k−1)メイン特徴マップの大きさに合わせてリサイズされた第mサブ特徴マップを取得し、(ii)前記第mサブ特徴マップ及び前記第(k−1)メイン特徴マップを統合して第(k−1)統合特徴マップを生成し、(iii)前記第(k−1)統合特徴マップに前記コンボリューション演算を適用して第kメイン特徴マップを生成する段階;
を含み、前記(b)段階で、
(b−1)前記学習装置が、前記第mフィーディングレイヤをもって、前記第(k−1)メイン特徴マップの前記大きさに合うように前記トレーニングイメージをリサイジングしてリサイズされた第mトレーニングイメージを生成するようにする段階;
(b−2)前記学習装置が、前記第mフィーディングレイヤをもって、前記リサイズされた第mトレーニングイメージに前記コンボリューション演算を適用して前記第mサブ特徴マップを生成するようにする段階;
(b−3)前記学習装置が、前記第kコンボリューションレイヤをもって、前記第(k−1)メイン特徴マップ及び前記第mサブ特徴マップを統合して前記第(k−1)統合特徴マップを生成するようにする段階;及び
(b−4)前記学習装置が、前記第kコンボリューションレイヤをもって、前記第(k−1)統合特徴マップに前記コンボリューション演算を適用して、前記第kメイン特徴マップを生成するようにする段階;
を含むことを特徴とする方法。 - 前記(b−3)段階で、前記第(k−1)メイン特徴マップ及び前記第mサブ特徴マップをピクセルごとに加えて、前記第(k−1)統合特徴マップを生成することを特徴とする請求項1に記載の方法。
- 前記(b−3)段階で、前記第(k−1)メイン特徴マップ及び前記第mサブ特徴マップをコンカチネートして前記第(k−1)統合特徴マップを生成することを特徴とする請求項1に記載の方法。
- 前記(b−2)段階で、前記第mサブ特徴マップのチャンネル数が前記第(k−1)メイン特徴マップのチャンネル数に対応するように、前記リサイズされた第mトレーニングイメージに前記コンボリューション演算を適用して、前記第mサブ特徴マップを生成することを特徴とする請求項1に記載の方法。
- (c)前記学習装置が、少なくとも一つのFCレイヤをもって、前記第nメイン特徴マップに少なくとも一つのFC演算を適用して、前記トレーニングイメージ内の少なくとも一つの物体に対するディテクション結果を生成する段階;及び
(d)前記学習装置が、前記ディテクション結果及びそれに対応する原本正解(Ground Truth)を参照して一つ以上のロス値を出力し、前記ロス値をバックプロパゲーションして、前記CNNの一つ以上のパラメータを学習する段階;
をさらに含むことを特徴とする請求項1に記載の方法。 - (c)前記学習装置が、デコードレイヤをもって、前記第nメイン特徴マップを前記デコードレイヤに入力してセグメンテーション結果を生成する段階;及び、
(d)前記学習装置が、前記セグメンテーション結果及びそれに対応する原本正解を参照して一つ以上のロス値を出力し、前記ロス値をバックプロパゲーションして前記CNNの一つ以上のパラメータを学習する段階;
をさらに含むことを特徴とする請求項1に記載の方法。 - マルチフィーディングレイヤを使用して、少なくとも一つのトレーニングイメージをエンコードすることができるCNN(Convolutional Neural Network)の学習方法において、前記CNNは、前記トレーニングイメージについて少なくとも一回以上のコンボリューション演算を適用して第1乃至第nメイン特徴マップをそれぞれ生成する第1乃至第nコンボリューションレイヤを含み、前記n個のコンボリューションレイヤのうちh個のコンボリューションレイヤそれぞれに対応する第1乃至第hフィーディングレイヤを含み、前記hは1乃至(n−1)の整数であることを特徴とし、
(a)学習装置が、前記トレーニングイメージを取得する段階;及び
(b)前記学習装置が、前記それぞれのコンボリューションレイヤをもって、前記トレーニングイメージ、または以前のコンボリューションレイヤで取得されたメイン特徴マップに前記コンボリューション演算を適用して、前記第1乃至第nメイン特徴マップそれぞれを生成するものの、前記学習装置が、前記第1乃至第hフィーディングレイヤにそれぞれ対応する前記h個のコンボリューションレイヤ(前記h個のコンボリューションレイヤは前記第2乃至第nコンボリューションレイヤで選ばれる)のうちの一つである第kコンボリューションレイヤをもって、(i)第(k−1)コンボリューションレイヤから取得された第(k−1)メイン特徴マップ及び前記第kコンボリューションレイヤに対応する第mフィーディングレイヤから前記トレーニングイメージが前記第(k−1)メイン特徴マップの大きさに合わせてリサイズされた第mサブ特徴マップを取得し、(ii)前記第mサブ特徴マップ及び前記第(k−1)メイン特徴マップを統合して第(k−1)統合特徴マップを生成し、(iii)前記第(k−1)統合特徴マップに前記コンボリューション演算を適用して第kメイン特徴マップを生成する段階;
を含み、前記(b)段階で、
(b−1)前記学習装置が、前記第mフィーディングレイヤをもって、
前記トレーニングイメージをリサイズして取得されたリサイズされた第mトレーニングイメージに前記コンボリューション演算を適用して、前記第mサブ特徴マップを前記第(k−1)メイン特徴マップの大きさに対応する大きさを有するように生成させる段階;
(b−2)前記学習装置が、前記第kコンボリューションレイヤをもって、前記第(k−1)メイン特徴マップ及び前記第mサブ特徴マップを統合して、前記第(k−1)統合特徴マップを生成するようにする段階;及び
(b−3)前記学習装置が、前記第kコンボリューションレイヤをもって、前記第(k−1)統合特徴マップに前記コンボリューション演算を適用して、前記第kメイン特徴マップを生成するようにする段階;
を含むことを特徴とする方法。 - 前記(b−1)段階で、前記第mサブ特徴マップのサイズ及びチャンネルの数が前記第(k−1)メイン特徴マップの前記サイズ及び前記チャンネルの数に対応するように前記第mサブ特徴マップを生成することを特徴とする請求項7に記載の方法。
- マルチフィーディングレイヤを使用して、少なくとも一つのテストイメージをエンコードすることができるCNNのテスト方法において、前記CNNは前記テストイメージについて少なくとも一回以上のコンボリューション演算を適用して、テスト用第1乃至第nメイン特徴マップをそれぞれ生成する第1乃至第nコンボリューションレイヤを含み、前記n個のコンボリューションレイヤのうちh個のコンボリューションレイヤそれぞれに対応する第1乃至第hフィーディングレイヤを含み、前記hは1乃至(n−1)の整数であることを特徴とし、
(a)学習装置が、(1)前記それぞれのコンボリューションレイヤをもって、少なくとも一つのトレーニングイメージ、または以前のコンボリューションレイヤで取得された学習用メイン特徴マップに前記コンボリューション演算を適用して、前記学習用第1乃至第nメイン特徴マップそれぞれを生成するものの、前記学習装置が、前記第1乃至第hフィーディングレイヤにそれぞれ対応する前記h個のコンボリューションレイヤ(前記h個のコンボリューションレイヤは前記第2乃至第nコンボリューションレイヤで選択される)のうちの一つである第kコンボリューションレイヤをもって、(i)第(k−1)コンボリューションレイヤから取得された学習用第(k−1)メイン特徴マップ及び前記第kコンボリューションレイヤに対応する第mフィーディングレイヤから前記トレーニングイメージが前記学習用第(k−1)メイン特徴マップの大きさに合わせてリサイズされた学習用第mサブ特徴マップを取得し、(ii)前記第mサブ特徴マップ及び前記学習用第(k−1)メイン特徴マップを統合して学習用第(k−1)統合特徴マップを生成し、(iii)前記学習用第(k−1)統合特徴マップに前記コンボリューション演算を適用して学習用第kメイン特徴マップを生成するプロセス;及び(2)前記CNNの一つ以上のパラメータを学習するプロセス;を遂行した状態で、テスト装置が前記テストイメージを取得する段階;
(b)前記テスト装置が、前記それぞれのコンボリューションレイヤをもって、前記テストイメージ、または以前のコンボリューションレイヤから取得されたテスト用メイン特徴マップに前記コンボリューション演算を適用して前記テスト用第1乃至第nメイン特徴マップを生成するものの、前記テスト装置が、前記第1乃至第hフィーディングレイヤにそれぞれ対応する前記h個のコンボリューションレイヤ(前記h個のコンボリューションレイヤは前記第2乃至第nコンボリューションレイヤで選択される)のうちの一つである第kコンボリューションレイヤをもって、(i)第(k−1)コンボリューションレイヤから取得されたテスト用第(k−1)メイン特徴マップ及び前記第kコンボリューションレイヤに対応する第mフィーディングレイヤから前記テストイメージが前記テスト用第(k−1)メイン特徴マップの大きさに合わせてリサイズされたテスト用第mサブ特徴マップを取得し、(ii)前記第mサブ特徴マップ及び前記テスト用第(k−1)メイン特徴マップを統合してテスト用第(k−1)統合特徴マップを生成し、(iii)前記テスト用第(k−1)統合特徴マップに前記コンボリューション演算を適用して、テスト用第kメイン特徴マップを生成する段階;
を含み、前記(b)段階で、
(b−1)前記テスト装置が、前記第mフィーディングレイヤをもって、前記テスト用第(k−1)メイン特徴マップの前記大きさに合うように前記テストイメージをリサイジングしてリサイズされた第mテストイメージを生成するようにする段階;
(b−2)前記テスト装置が、前記第mフィーディングレイヤをもって、前記リサイズされた第mテストイメージに前記コンボリューション演算を適用して前記テスト用第mサブ特徴マップを生成するようにする段階;
(b−3)前記テスト装置が、前記第kコンボリューションレイヤをもって、前記テスト用第(k−1)メイン特徴マップ及び前記テスト用第mサブ特徴マップを統合して前記テスト用第(k−1)統合特徴マップを生成するようにする段階;及び
(b−4)前記テスト装置が、前記第kコンボリューションレイヤをもって、前記テスト用第(k−1)統合特徴マップに前記コンボリューション演算を適用して前記テスト用第kメイン特徴マップを生成するようにする段階;
を含むことを特徴とする方法。 - 前記(b−3)段階で、前記テスト用第(k−1)メイン特徴マップ及び前記テスト用第mサブ特徴マップをピクセルごとに加えて前記テスト用第(k−1)統合特徴マップを生成することを特徴とする請求項9に記載の方法。
- 前記(b−3)段階で、前記テスト用第(k−1)メイン特徴マップ及び前記テスト用第mサブ特徴マップをコンカチネートして前記テスト用第(k−1)統合特徴マップを生成することを特徴とする請求項9に記載の方法。
- マルチフィーディングレイヤを使用して、少なくとも一つのテストイメージをエンコードすることができるCNNのテスト方法において、前記CNNは前記テストイメージについて少なくとも一回以上のコンボリューション演算を適用して、テスト用第1乃至第nメイン特徴マップをそれぞれ生成する第1乃至第nコンボリューションレイヤを含み、前記n個のコンボリューションレイヤのうちh個のコンボリューションレイヤそれぞれに対応する第1乃至第hフィーディングレイヤを含み、前記hは1乃至(n−1)の整数であることを特徴とし、
(a)学習装置が、(1)前記それぞれのコンボリューションレイヤをもって、少なくとも一つのトレーニングイメージ、または以前のコンボリューションレイヤで取得された学習用メイン特徴マップに前記コンボリューション演算を適用して、前記学習用第1乃至第nメイン特徴マップそれぞれを生成するものの、前記学習装置が、前記第1乃至第hフィーディングレイヤにそれぞれ対応する前記h個のコンボリューションレイヤ(前記h個のコンボリューションレイヤは前記第2乃至第nコンボリューションレイヤで選択される)のうちの一つである第kコンボリューションレイヤをもって、(i)第(k−1)コンボリューションレイヤから取得された学習用第(k−1)メイン特徴マップ及び前記第kコンボリューションレイヤに対応する第mフィーディングレイヤから前記トレーニングイメージが前記学習用第(k−1)メイン特徴マップの大きさに合わせてリサイズされた学習用第mサブ特徴マップを取得し、(ii)前記第mサブ特徴マップ及び前記学習用第(k−1)メイン特徴マップを統合して学習用第(k−1)統合特徴マップを生成し、(iii)前記学習用第(k−1)統合特徴マップに前記コンボリューション演算を適用して学習用第kメイン特徴マップを生成するプロセス;及び(2)前記CNNの一つ以上のパラメータを学習するプロセス;を遂行した状態で、テスト装置が前記テストイメージを取得する段階;
(b)前記テスト装置が、前記それぞれのコンボリューションレイヤをもって、前記テストイメージ、または以前のコンボリューションレイヤから取得されたテスト用メイン特徴マップに前記コンボリューション演算を適用して前記テスト用第1乃至第nメイン特徴マップを生成するものの、前記テスト装置が、前記第1乃至第hフィーディングレイヤにそれぞれ対応する前記h個のコンボリューションレイヤ(前記h個のコンボリューションレイヤは前記第2乃至第nコンボリューションレイヤで選択される)のうちの一つである第kコンボリューションレイヤをもって、(i)第(k−1)コンボリューションレイヤから取得されたテスト用第(k−1)メイン特徴マップ及び前記第kコンボリューションレイヤに対応する第mフィーディングレイヤから前記テストイメージが前記テスト用第(k−1)メイン特徴マップの大きさに合わせてリサイズされたテスト用第mサブ特徴マップを取得し、(ii)前記第mサブ特徴マップ及び前記テスト用第(k−1)メイン特徴マップを統合してテスト用第(k−1)統合特徴マップを生成し、(iii)前記テスト用第(k−1)統合特徴マップに前記コンボリューション演算を適用して、テスト用第kメイン特徴マップを生成する段階;
を含み、前記(b)段階において、
(b−1)前記テスト装置が、前記第mフィーディングレイヤをもって、前記テストイメージをリサイズして取得されたリサイズされた第mテストイメージに前記コンボリューション演算を適用して、前記テスト用第mサブ特徴マップを前記テスト用第(k−1)メイン特徴マップの大きさに対応する大きさを有するように生成させる段階;
(b−2)前記テスト装置が、前記第kコンボリューションレイヤをもって、前記テスト用第(k−1)メイン特徴マップ及び前記テスト用第mサブ特徴マップを統合して前記テスト用第(k−1)統合特徴マップを生成するようにする段階;及び
(b−3)前記テスト装置が、前記第kコンボリューションレイヤをもって、前記テスト用第(k−1)統合特徴マップに前記コンボリューション演算を適用して前記テスト用第kメイン特徴マップを生成するようにする段階;
を含むことを特徴とする請求項9に記載の方法。 - 前記(b−1)段階で、前記第mサブ特徴マップのサイズ及びチャンネルの数が前記テスト用第(k−1)メイン特徴マップの前記サイズ及び前記チャンネルの数に対応するように前記テスト用第mサブ特徴マップを生成することを特徴とする請求項12に記載の方法。
- マルチフィーディングレイヤを使用して、少なくとも一つのトレーニングイメージをエンコードすることができるCNNの学習装置において、前記CNNは、前記トレーニングイメージについて少なくとも一回以上のコンボリューション演算を適用して第1乃至第nメイン特徴マップをそれぞれ生成する第1乃至第nコンボリューションレイヤを含み、前記n個のコンボリューションレイヤのうちh個のコンボリューションレイヤそれぞれに対応する第1乃至第hフィーディングレイヤを含み、前記hは1乃至(n−1)の整数であることを特徴とし、
前記トレーニングイメージを取得する通信部;及び
(I)前記それぞれのコンボリューションレイヤをもって、前記トレーニングイメージ、または以前のコンボリューションレイヤで取得されたメイン特徴マップに前記コンボリューション演算を適用して、前記第1乃至第nメイン特徴マップそれぞれを生成するものの、前記第1乃至第hフィーディングレイヤにそれぞれ対応する前記h個のコンボリューションレイヤ(前記h個のコンボリューションレイヤは前記第2乃至第nコンボリューションレイヤで選択される)のうちの一つである第kコンボリューションレイヤをもって、(i)第(k−1)コンボリューションレイヤから取得された第(k−1)メイン特徴マップ及び前記第kコンボリューションレイヤに対応する第mフィーディングレイヤから前記トレーニングイメージが前記第(k−1)メイン特徴マップの大きさに合わせてリサイズされた第mサブ特徴マップを取得し、(ii)第mサブ特徴マップ及び前記第(k−1)メイン特徴マップを統合して第(k−1)統合特徴マップを生成し、(iii)前記第(k−1)統合特徴マップに前記コンボリューション演算を適用して第kメイン特徴マップを生成するプロセスを遂行するプロセッサ;
を含み、前記(I)プロセスにおいて前記プロセッサは、
(I−1)前記第mフィーディングレイヤをもって、前記第(k−1)メイン特徴マップの前記大きさに合うように前記トレーニングイメージをリサイジングしてリサイズされた第mトレーニングイメージを生成するようにするプロセス;
(I−2)前記第mフィーディングレイヤをもって、前記リサイズされた第mトレーニングイメージに前記コンボリューション演算を適用して、前記第mサブ特徴マップを生成するようにするプロセス;
(I−3)前記第kコンボリューションレイヤをもって、前記第(k−1)メイン特徴マップ及び前記第mサブ特徴マップを統合して、前記第(k−1)統合特徴マップを生成するようにするプロセス;及び
(I−4)前記第kコンボリューションレイヤをもって、前記第(k−1)統合特徴マップに前記コンボリューション演算を適用して、前記第kメイン特徴マップを生成するようにするプロセス;
を遂行することを特徴とする装置。 - 前記(I−3)プロセスにおいて、前記第(k−1)メイン特徴マップ及び前記第mサブ特徴マップをピクセルごとに加え、前記第(k−1)統合特徴マップを生成することを特徴とする請求項14に記載の装置。
- 前記(I−3)プロセスにおいて、前記第(k−1)メイン特徴マップ及び前記第mサブ特徴マップをコンカチネートして第(k−1)統合特徴マップを生成することを特徴とする請求項14に記載の装置。
- 前記(I−2)プロセスにおいて、前記第mサブ特徴マップのチャンネル数が前記第(k−1)メイン特徴マップのチャンネル数に対応するように、前記リサイズされた第mトレーニングイメージに前記コンボリューション演算を適用して、前記第mサブ特徴マップを生成することを特徴とする請求項14に記載の装置。
- 前記プロセッサは、
(II)少なくとも一つのFCレイヤをもって、前記第nメイン特徴マップに少なくとも一つのFC演算を適用して、前記トレーニングイメージ内の少なくとも一つの物体に対するディテクション結果を生成するプロセス;及び、
(III)前記ディテクション結果及びそれに対応する原本正解(Ground Truth)を参照して一つ以上のロス値を出力し、前記ロス値をバックプロパゲーションして、前記CNNの一つ以上のパラメータを学習するプロセス;
をさらに遂行することを特徴とする請求項14に記載の装置。 - 前記プロセッサは、
(II)デコードレイヤをもって、前記第nメイン特徴マップを前記デコードレイヤに入力してセグメンテーション結果を生成するプロセス;及び
(III)前記セグメンテーション結果及びそれに対応する原本正解を参照して一つ以上のロス値を出力し、前記ロス値をバックプロパゲーションして、前記CNNの一つ以上のパラメータを学習するプロセス;
をさらに遂行することを特徴とする請求項14に記載の装置。 - マルチフィーディングレイヤを使用して、少なくとも一つのトレーニングイメージをエンコードすることができるCNNの学習装置において、前記CNNは、前記トレーニングイメージについて少なくとも一回以上のコンボリューション演算を適用して第1乃至第nメイン特徴マップをそれぞれ生成する第1乃至第nコンボリューションレイヤを含み、前記n個のコンボリューションレイヤのうちh個のコンボリューションレイヤそれぞれに対応する第1乃至第hフィーディングレイヤを含み、前記hは1乃至(n−1)の整数であることを特徴とし、
前記トレーニングイメージを取得する通信部;及び
(I)前記それぞれのコンボリューションレイヤをもって、前記トレーニングイメージ、または以前のコンボリューションレイヤで取得されたメイン特徴マップに前記コンボリューション演算を適用して、前記第1乃至第nメイン特徴マップそれぞれを生成するものの、前記第1乃至第hフィーディングレイヤにそれぞれ対応する前記h個のコンボリューションレイヤ(前記h個のコンボリューションレイヤは前記第2乃至第nコンボリューションレイヤで選択される)のうちの一つである第kコンボリューションレイヤをもって、(i)第(k−1)コンボリューションレイヤから取得された第(k−1)メイン特徴マップ及び前記第kコンボリューションレイヤに対応する第mフィーディングレイヤから前記トレーニングイメージが前記第(k−1)メイン特徴マップの大きさに合わせてリサイズされた第mサブ特徴マップを取得し、(ii)第mサブ特徴マップ及び前記第(k−1)メイン特徴マップを統合して第(k−1)統合特徴マップを生成し、(iii)前記第(k−1)統合特徴マップに前記コンボリューション演算を適用して第kメイン特徴マップを生成するプロセスを遂行するプロセッサ;
を含み、前記(I)プロセスにおいて前記プロセッサは、
(I−1)前記第mフィーディングレイヤをもって、前記トレーニングイメージをリサイズして取得されたリサイズされた第mトレーニングイメージに前記コンボリューション演算を適用して、前記第mサブ特徴マップを前記第(k−1)メイン特徴マップの大きさに対応する大きさを有するように生成させるプロセス;
(I−2)前記第kコンボリューションレイヤをもって、前記第(k−1)メイン特徴マップ及び前記第mサブ特徴マップを統合して、前記第(k−1)統合特徴マップを生成するようにするプロセス;及び
(I−3)前記第kコンボリューションレイヤをもって、前記第(k−1)統合特徴マップに前記コンボリューション演算を適用して、前記第kメイン特徴マップを生成するようにするプロセス;
を含むことを特徴とする装置。 - 前記(I−1)プロセスにおいて、前記第mサブ特徴マップのサイズ及びチャンネルの数が前記第(k−1)メイン特徴マップの前記サイズ及び前記チャンネルの数に対応するように前記第mサブ特徴マップを生成することを特徴とする請求項20に記載の装置。
- マルチフィーディングレイヤを使用して、少なくとも一つのテストイメージをエンコードすることができるCNNのテスト装置において、前記CNNは前記テストイメージについて少なくとも一回以上のコンボリューション演算を適用して、テスト用第1乃至第nメイン特徴マップをそれぞれ生成する第1乃至第nコンボリューションレイヤを含み、前記n個のコンボリューションレイヤのうちh個のコンボリューションレイヤそれぞれに対応する第1乃至第hフィーディングレイヤを含み、前記hは1乃至(n−1)の整数であることを特徴とし、
学習装置が(1)前記それぞれのコンボリューションレイヤをもって、少なくとも一つのトレーニングイメージ、または以前のコンボリューションレイヤで取得された学習用メイン特徴マップに前記コンボリューション演算を適用して、前記学習用第1乃至第nメイン特徴マップそれぞれを生成するものの、前記学習装置が、前記第1乃至第hフィーディングレイヤにそれぞれ対応する前記h個のコンボリューションレイヤ(前記h個のコンボリューションレイヤは前記第2乃至第nコンボリューションレイヤで選択される)のうちの一つである第kコンボリューションレイヤをもって、(i)第(k−1)コンボリューションレイヤから取得された学習用第(k−1)メイン特徴マップ及び前記第kコンボリューションレイヤに対応する第mフィーディングレイヤから前記トレーニングイメージが前記学習用第(k−1)メイン特徴マップの大きさに合わせてリサイズされた学習用第mサブ特徴マップを取得し、(ii)前記第mサブ特徴マップ及び前記学習用第(k−1)メイン特徴マップを統合して学習用第(k−1)統合特徴マップを生成し、(iii)前記学習用第(k−1)統合特徴マップに前記コンボリューション演算を適用して学習用第kメイン特徴マップを生成するプロセス;及び(2)前記CNNの一つ以上のパラメータを学習するプロセス;を遂行した状態で、前記テストイメージを取得する通信部;及び
(I)前記それぞれのコンボリューションレイヤをもって、前記テストイメージ、または以前のコンボリューションレイヤで取得されたテスト用メイン特徴マップに前記コンボリューション演算を適用して前記テスト用第1乃至第nメイン特徴マップを生成するものの、前記第1乃至第hフィーディングレイヤにそれぞれ対応する前記h個のコンボリューションレイヤ(前記h個のコンボリューションレイヤは前記第2乃至第nコンボリューションレイヤで選択される)のうちの一つである第kコンボリューションレイヤをもって、(i)第(k−1)コンボリューションレイヤから取得されたテスト用第(k−1)メイン特徴マップ及び前記第kコンボリューションレイヤに対応する第mフィーディングレイヤから前記テストイメージが前記テスト用第(k−1)メイン特徴マップの大きさに合わせてリサイズされたテスト用第mサブ特徴マップを取得し、(ii)前記第mサブ特徴マップ及び前記テスト用第(k−1)メイン特徴マップを統合してテスト用第(k−1)統合特徴マップを生成し、(iii)前記テスト用第(k−1)統合特徴マップに前記コンボリューション演算を適用して、テスト用第kメイン特徴マップを生成するプロセス;を遂行するプロセッサ
を含み、前記プロセッサは、
(I−1)前記第mフィーディングレイヤをもって、前記テスト用第(k−1)メイン特徴マップの前記大きさに合うように前記テストイメージをリサイジングしてリサイズされた第mテストイメージを生成するようにするプロセス;
(I−2)前記第mフィーディングレイヤをもって、前記リサイズされた第mテストイメージに前記コンボリューション演算を適用して前記テスト用第mサブ特徴マップを生成するようにするプロセス;
(I−3)前記第kコンボリューションレイヤをもって、前記テスト用第(k−1)メイン特徴マップ及び前記テスト用第mサブ特徴マップを統合して前記テスト用第(k−1)統合特徴マップを生成するようにするプロセス;及び
(I−4)前記第kコンボリューションレイヤをもって、前記テスト用第(k−1)統合特徴マップに前記コンボリューション演算を適用して前記テスト用第kメイン特徴マップを生成するようにするプロセス;
を遂行することを特徴とする装置。 - 前記(I−3)プロセスにおいて、前記テスト用第(k−1)メイン特徴マップ及び前記テスト用第mサブ特徴マップをピクセルごとに加えて前記テスト用第(k−1)統合特徴マップを生成することを特徴とする請求項22に記載の装置。
- 前記(I−3)プロセスにおいて、前記テスト用第(k−1)メイン特徴マップ及び前記テスト用第mサブ特徴マップをコンカチネートして前記テスト用第(k−1)統合特徴マップを生成することを特徴とする請求項22に記載の装置。
- マルチフィーディングレイヤを使用して、少なくとも一つのテストイメージをエンコードすることができるCNNのテスト装置において、前記CNNは前記テストイメージについて少なくとも一回以上のコンボリューション演算を適用して、テスト用第1乃至第nメイン特徴マップをそれぞれ生成する第1乃至第nコンボリューションレイヤを含み、前記n個のコンボリューションレイヤのうちh個のコンボリューションレイヤそれぞれに対応する第1乃至第hフィーディングレイヤを含み、前記hは1乃至(n−1)の整数であることを特徴とし、
学習装置が(1)前記それぞれのコンボリューションレイヤをもって、少なくとも一つのトレーニングイメージ、または以前のコンボリューションレイヤで取得された学習用メイン特徴マップに前記コンボリューション演算を適用して、前記学習用第1乃至第nメイン特徴マップそれぞれを生成するものの、前記学習装置が、前記第1乃至第hフィーディングレイヤにそれぞれ対応する前記h個のコンボリューションレイヤ(前記h個のコンボリューションレイヤは前記第2乃至第nコンボリューションレイヤで選択される)のうちの一つである第kコンボリューションレイヤをもって、(i)第(k−1)コンボリューションレイヤから取得された学習用第(k−1)メイン特徴マップ及び前記第kコンボリューションレイヤに対応する第mフィーディングレイヤから前記トレーニングイメージが前記学習用第(k−1)メイン特徴マップの大きさに合わせてリサイズされた学習用第mサブ特徴マップを取得し、(ii)前記第mサブ特徴マップ及び前記学習用第(k−1)メイン特徴マップを統合して学習用第(k−1)統合特徴マップを生成し、(iii)前記学習用第(k−1)統合特徴マップに前記コンボリューション演算を適用して学習用第kメイン特徴マップを生成するプロセス;及び(2)前記CNNの一つ以上のパラメータを学習するプロセス;を遂行した状態で、前記テストイメージを取得する通信部;及び
(I)前記それぞれのコンボリューションレイヤをもって、前記テストイメージ、または以前のコンボリューションレイヤで取得されたテスト用メイン特徴マップに前記コンボリューション演算を適用して前記テスト用第1乃至第nメイン特徴マップを生成するものの、前記第1乃至第hフィーディングレイヤにそれぞれ対応する前記h個のコンボリューションレイヤ(前記h個のコンボリューションレイヤは前記第2乃至第nコンボリューションレイヤで選択される)のうちの一つである第kコンボリューションレイヤをもって、(i)第(k−1)コンボリューションレイヤから取得されたテスト用第(k−1)メイン特徴マップ及び前記第kコンボリューションレイヤに対応する第mフィーディングレイヤから前記テストイメージが前記テスト用第(k−1)メイン特徴マップの大きさに合わせてリサイズされたテスト用第mサブ特徴マップを取得し、(ii)前記第mサブ特徴マップ及び前記テスト用第(k−1)メイン特徴マップを統合してテスト用第(k−1)統合特徴マップを生成し、(iii)前記テスト用第(k−1)統合特徴マップに前記コンボリューション演算を適用して、テスト用第kメイン特徴マップを生成するプロセス;を遂行するプロセッサ
を含み、前記プロセッサは、
(I−1)前記第mフィーディングレイヤをもって、前記テストイメージをリサイズして取得されたリサイズされた第mテストイメージに前記コンボリューション演算を適用して前記テスト用第mサブ特徴マップを前記テスト用第(k−1)メイン特徴マップの大きさに対応する大きさを有するように生成させるプロセス;
(I−2)前記第kコンボリューションレイヤをもって、前記テスト用第(k−1)メイン特徴マップ及び前記テスト用第mサブ特徴マップを統合して前記テスト用第(k−1)統合特徴マップを生成するようにするプロセス;及び
(I−3)前記第kコンボリューションレイヤをもって、前記テスト用第(k−1)統合特徴マップに前記コンボリューション演算を適用して前記テスト用第kメイン特徴マップを生成するようにするプロセス;
を遂行することを特徴とする装置。 - 前記プロセッサは、
(I−1)プロセスにおいて、前記第mサブ特徴マップのサイズ及びチャンネルの数が前記テスト用第(k−1)メイン特徴マップの前記サイズ及び前記チャンネルの数に対応するように前記テスト用第mサブ特徴マップを生成することを特徴とする請求項25に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/132,479 US10579924B1 (en) | 2018-09-17 | 2018-09-17 | Learning method, learning device with multi-feeding layers and testing method, testing device using the same |
US16/132,479 | 2018-09-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020047270A JP2020047270A (ja) | 2020-03-26 |
JP6935939B2 true JP6935939B2 (ja) | 2021-09-15 |
Family
ID=66439913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019163897A Active JP6935939B2 (ja) | 2018-09-17 | 2019-09-09 | マルチフィーディングを適用した学習方法及び学習装置並びにそれを利用したテスト方法及びテスト装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10579924B1 (ja) |
EP (1) | EP3624015A1 (ja) |
JP (1) | JP6935939B2 (ja) |
KR (1) | KR102313604B1 (ja) |
CN (1) | CN110909748B (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180027887A (ko) * | 2016-09-07 | 2018-03-15 | 삼성전자주식회사 | 뉴럴 네트워크에 기초한 인식 장치 및 뉴럴 네트워크의 트레이닝 방법 |
TWI717655B (zh) * | 2018-11-09 | 2021-02-01 | 財團法人資訊工業策進會 | 適應多物件尺寸之特徵決定裝置及方法 |
KR20210061839A (ko) * | 2019-11-20 | 2021-05-28 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US11657279B2 (en) * | 2020-06-16 | 2023-05-23 | National Taiwan University Of Science And Technology | Electronic device and method for document segmentation |
CN116686001A (zh) * | 2020-12-25 | 2023-09-01 | 三菱电机株式会社 | 物体检测装置、监视装置、学习装置以及模型生成方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101976048B1 (ko) * | 2011-08-25 | 2019-05-09 | 코넬 유니버시티 | 머신 비전용 망막 인코더 |
CN106462940A (zh) * | 2014-10-09 | 2017-02-22 | 微软技术许可有限责任公司 | 图像中通用对象检测 |
US10762894B2 (en) * | 2015-03-27 | 2020-09-01 | Google Llc | Convolutional neural networks |
KR102592076B1 (ko) * | 2015-12-14 | 2023-10-19 | 삼성전자주식회사 | 딥러닝 기반 영상 처리 장치 및 방법, 학습 장치 |
US9858496B2 (en) * | 2016-01-20 | 2018-01-02 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
JP6729046B2 (ja) * | 2016-06-20 | 2020-07-22 | 大日本印刷株式会社 | 配線基板およびその製造方法、ならびに半導体装置の製造方法 |
CN106651887A (zh) * | 2017-01-13 | 2017-05-10 | 深圳市唯特视科技有限公司 | 一种基于卷积神经网络的图像像素分类方法 |
JP6740920B2 (ja) * | 2017-02-01 | 2020-08-19 | 株式会社デンソー | 演算処理装置 |
US9947103B1 (en) * | 2017-10-03 | 2018-04-17 | StradVision, Inc. | Learning method and learning device for improving image segmentation and testing method and testing device using the same |
US10043113B1 (en) * | 2017-10-04 | 2018-08-07 | StradVision, Inc. | Method and device for generating feature maps by using feature upsampling networks |
CN107944443A (zh) * | 2017-11-16 | 2018-04-20 | 深圳市唯特视科技有限公司 | 一种基于端到端深度学习进行对象一致性检测方法 |
JP6830742B2 (ja) * | 2017-11-29 | 2021-02-17 | Kddi株式会社 | 画素に基づく画像セグメンテーション用のプログラム |
CN108021923B (zh) * | 2017-12-07 | 2020-10-23 | 上海为森车载传感技术有限公司 | 一种用于深度神经网络的图像特征提取方法 |
CN107958246A (zh) * | 2018-01-17 | 2018-04-24 | 深圳市唯特视科技有限公司 | 一种基于新型端到端人脸超分辨率网络的图像对齐方法 |
CN108346145B (zh) | 2018-01-31 | 2020-08-04 | 浙江大学 | 一种病理切片中非常规细胞的识别方法 |
-
2018
- 2018-09-17 US US16/132,479 patent/US10579924B1/en active Active
-
2019
- 2019-05-06 EP EP19172862.5A patent/EP3624015A1/en active Pending
- 2019-08-27 KR KR1020190105475A patent/KR102313604B1/ko active IP Right Grant
- 2019-08-29 CN CN201910808499.1A patent/CN110909748B/zh active Active
- 2019-09-09 JP JP2019163897A patent/JP6935939B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US20200090047A1 (en) | 2020-03-19 |
CN110909748B (zh) | 2023-09-19 |
JP2020047270A (ja) | 2020-03-26 |
EP3624015A1 (en) | 2020-03-18 |
CN110909748A (zh) | 2020-03-24 |
KR102313604B1 (ko) | 2021-10-19 |
US10579924B1 (en) | 2020-03-03 |
KR20200031992A (ko) | 2020-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6935939B2 (ja) | マルチフィーディングを適用した学習方法及び学習装置並びにそれを利用したテスト方法及びテスト装置 | |
JP6856851B2 (ja) | イメージエンコーディングのための方法及び装置そしてこれを利用したテスト方法及びテスト装置 | |
JP6847464B2 (ja) | 車線候補ピクセルを分類して車線を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane through classifying lane candidate pixels and test method, test device using the same} | |
JP6865363B2 (ja) | ラプラシアンピラミッドネットワークを利用して自律走行自動車レベル4及びレベル5を満足させるために要求される道路障害物検出におけるセグメンテーション性能向上のための学習方法及び学習装置、並びにこれを利用したテスト方法及びテスト装置 | |
US10496899B1 (en) | Learning method and learning device for adjusting parameters of CNN in which residual networks are provided for meta learning, and testing method and testing device using the same | |
JP6875021B2 (ja) | 有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
EP3686795B1 (en) | Learning method and learning device for improving segmentation performance to be used for detecting events including pedestrian event, vehicle event, falling event and fallen event using edge loss and test method and test device using the same | |
JP6857370B2 (ja) | ターゲット物体予測ネットワーク及びターゲット物体統合ネットワークを利用して、重要業績評価指標のようなユーザー要求事項に係る最適化のための再構成可能なネットワーク基盤の物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置 | |
JP6908939B2 (ja) | 障害物の下段ラインを基準にroiを検出する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting roi on the basis of bottom lines of obstacles and testing method,testing device using the same} | |
JP6869559B2 (ja) | 障害物を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting obstacles and testing method, testing device using the same} | |
JP6869565B2 (ja) | 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} | |
JP6868298B2 (ja) | R−cnn基盤の物体検出器を学習する方法及びテストする方法、それを利用した学習装置及びテスト装置 | |
JP6867054B2 (ja) | マルチカメラシステム内のダブルエンベディング構成を利用して、道路利用者イベントを検出するために用いられるセグメンテーション性能向上のための学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置。{learning method and learning device for improving segmentation performance to be used for detecting road user events using double embedding configuration in multi−camera system and testing method and testing device using the same} | |
JP6957050B2 (ja) | モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same} | |
JP6856952B2 (ja) | 複数のビデオフレームを利用してcnnのパラメータを最適化するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP2020038664A (ja) | コンボリューションニューラルネットワークから複数の出力のアンサンブルを利用して統合された特徴マップを提供するための方法及び装置{method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network} | |
US10872297B2 (en) | Learning method and learning device for generating training data from virtual data on virtual world by using generative adversarial network, to thereby reduce annotation cost required in training processes of neural network for autonomous driving, and a testing method and a testing device using the same | |
US11461653B2 (en) | Learning method and learning device for CNN using 1xK or Kx1 convolution to be used for hardware optimization, and testing method and testing device using the same | |
KR20200092847A (ko) | 핵심 성능 지수를 만족시킬 수 있는 하드웨어 최적화가 이루어지도록, cnn에서 복수의 블록 내의 입력 이미지로부터 특징을 추출하는 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치 | |
US10635938B1 (en) | Learning method and learning device for allowing CNN having trained in virtual world to be used in real world by runtime input transformation using photo style transformation, and testing method and testing device using the same | |
JP2020068015A (ja) | リグレッションロス(Regression loss)を利用した学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE USING REGRESSION LOSS AND TESTING METHOD, TESTING DEVICE USING THE SAME} |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210316 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210819 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6935939 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |