JP6856851B2 - イメージエンコーディングのための方法及び装置そしてこれを利用したテスト方法及びテスト装置 - Google Patents
イメージエンコーディングのための方法及び装置そしてこれを利用したテスト方法及びテスト装置 Download PDFInfo
- Publication number
- JP6856851B2 JP6856851B2 JP2019163898A JP2019163898A JP6856851B2 JP 6856851 B2 JP6856851 B2 JP 6856851B2 JP 2019163898 A JP2019163898 A JP 2019163898A JP 2019163898 A JP2019163898 A JP 2019163898A JP 6856851 B2 JP6856851 B2 JP 6856851B2
- Authority
- JP
- Japan
- Prior art keywords
- test
- feature map
- group
- convolution
- inception
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012360 testing method Methods 0.000 title claims description 276
- 238000000034 method Methods 0.000 title claims description 124
- 238000010998 test method Methods 0.000 title description 2
- 230000008569 process Effects 0.000 claims description 76
- 238000011176 pooling Methods 0.000 claims description 29
- 230000005945 translocation Effects 0.000 claims description 29
- 230000011218 segmentation Effects 0.000 claims description 13
- 230000017105 transposition Effects 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 description 25
- 238000004364 calculation method Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 4
- 241000282472 Canis lupus familiaris Species 0.000 description 3
- 238000007792 addition Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Description
前記(I)プロセスは、(I−1)前記第kコンボリューションレイヤをもって、前記入力イメージまたは第k−1コンボリューションレイヤから獲得した第k−1特徴マップに対して、第1ないし第m転置コンボリューション演算(mは2以上の自然数)を適用するようにして、第1ないし第mサイズを有する第1ないし第m転置特徴マップを生成するプロセス;(I−2)(i)前記第k−1特徴マップのサイズと前記第1ないし前記第m転置特徴マップ各々のサイズの割合を各々参照にして第1ないし第mストライドのサイズを決定し、(ii)前記第1ないし前記第m転置特徴マップに対して、前記第1ないし前記第mストライドサイズ及び第1ないし第mカーネルサイズを有する第1ないし第mコンボリューションフィルタを各々適用して、第1ないし第mインセプション特徴マップを前記第1グループとして生成するプロセス;及び(I−3)前記入力イメージまたは前記第k−1コンボリューションレイヤから獲得した前記第k−1特徴マップに対して、第m+1ないし第m+nカーネルサイズを有する第m+1ないし第m+nコンボリューションフィルタを適用して、第m+1ないし第m+nインセプション特徴マップを前記第2グループとして生成するプロセス;を含むことを特徴とする。
Claims (28)
- CNN基盤イメージエンコーディング方法において、
(a)第1ないし第nコンボリューションレイヤを含む学習装置が、少なくとも一つの入力イメージを獲得する段階;
(b)前記学習装置が、前記コンボリューションレイヤの少なくとも一部各々をもって、(i)前記入力イメージまたは以前コンボリューションレイヤから獲得された入力特徴マップに対して、転置コンボリューション演算を少なくとも二度適用して各々異なるサイズを有する少なくとも二つの転置特徴マップを生成し、(ii)異なるストライドと異なるカーネルサイズとを有するコンボリューション演算を、これに対応される各々の転置特徴マップに少なくとも一度適用して、少なくとも二つのインセプション特徴マップを第1グループとして生成する段階;及び
(c)前記学習装置が、前記第1グループに含まれた前記インセプション特徴マップをコンカチネートするか、要素ごとの加算をして、これに対応する出力特徴マップを生成する段階;
を含むことを特徴とする方法。 - 前記第1グループに含まれた前記インセプション特徴マップはサイズが同一だが、各々互いに異なる特性を有することを特徴とする請求項1に記載の方法。
- 少なくとも一つの前記コンボリューションレイヤが第kコンボリューションレイヤである場合、
前記(b)段階は、
(b−1)前記学習装置が、前記第kコンボリューションレイヤをもって、前記入力イメージまたは第k−1コンボリューションレイヤで獲得した第k−1特徴マップに対して、第1ないし第m転置コンボリューション演算(mは、2以上の自然数)を適用するようにし、第1ないし第mサイズを有する第1ないし第m転置特徴マップを生成する段階;
(b−2)前記学習装置が、(i)前記第k−1特徴マップのサイズと前記第1ないし前記第m転置特徴マップ各々のサイズの比率を各々参照にして第1ないし第mストライドサイズを決定して、(ii)前記第1ないし前記第m転置特徴マップに対して、前記第1ないし前記第mストライドサイズ及び第1ないし第mカーネルサイズを有する第1ないし第mコンボリューションフィルタを各々適用し、第1ないし第mインセプション特徴マップを前記第1グループとして生成する段階;
を含むことを特徴とする請求項1に記載の方法。 - 前記(b)段階で、
前記学習装置は、前記入力イメージまたは以前コンボリューションレイヤから獲得した前記入力特徴マップに対して、前記コンボリューション演算を適用して少なくとも一つのインセプション特徴マップを第2グループとして生成し、
前記(c)段階で、
前記学習装置は、前記第1グループの前記インセプション特徴マップ及び前記第2グループの前記インセプション特徴マップをコンカチネートするか、要素ごとの加算をして、前記出力特徴マップを生成することを特徴とする請求項1に記載の方法。 - 少なくとも一つの前記コンボリューションレイヤが第kコンボリューションレイヤである場合、
前記(b)段階は、
(b−1)前記学習装置が、前記第kコンボリューションレイヤをもって、前記入力イメージまたは第k−1コンボリューションレイヤから獲得した第k−1特徴マップに対して、第1ないし第m転置コンボリューション演算(mは2以上の自然数)を適用するようにして、第1ないし第mサイズを有する第1ないし第m転置特徴マップを生成する段階;
(b−2)前記学習装置が、(i)前記第k−1特徴マップのサイズと前記第1ないし前記第m転置特徴マップ各々のサイズの割合を各々参照にして第1ないし第mストライドのサイズを決定して、(ii)前記第1ないし前記第m転置特徴マップに対し、前記第1ないし前記第mストライドサイズ及び第1ないし第mカーネルサイズを有する第1ないし第mコンボリューションフィルタを各々適用して、第1ないし第mインセプション特徴マップを前記第1グループとして生成する段階;及び
(b−3)前記学習装置が、前記入力イメージまたは前記第k−1コンボリューションレイヤから獲得した前記第k−1特徴マップに対して、第m+1ないし第m+nカーネルサイズを有する第m+1ないし第m+nコンボリューションフィルタを適用して、第m+1ないし第m+nインセプション特徴マップを前記第2グループとして生成する段階;
を含むことを特徴とする請求項4に記載の方法。 - 前記(b)段階で、
前記学習装置は、前記入力イメージまたは以前コンボリューションレイヤから獲得した前記入力特徴マップに対して、互いに異なるサイズのマックスプーリング(Max Pooling)演算を少なくとも一度適用し、少なくとも一つのマックスプーリング特徴マップを第3グループとして生成し、
前記(c)段階で、
前記学習装置は、前記第1グループの前記インセプション特徴マップ、前記第2グループの前記インセプション特徴マップ及び前記第3グループの前記マックスプーリング特徴マップをコンカチネートするか、要素ごとの加算をして、前記出力特徴マップを生成することを特徴とする請求項4に記載の方法。 - 前記(b)段階で、
前記学習装置は、前記第1コンボリューションレイヤをもって(i)前記入力イメージに対して転置コンボリューション演算を少なくとも二度適用し、各々異なるサイズを有する少なくとも二つの転置特徴マップを生成し、(ii)異なるストライドと異なるカーネルサイズとを有するコンボリューション演算を、これに対応される各々の転置特徴マップに少なくとも一度適用し、少なくとも二つのインセプション特徴マップを前記第1グループとして生成することを特徴とする請求項1に記載の方法。 - 前記方法は、
(d)前記学習装置が、前記第nコンボリューションレイヤから出力された前記出力特徴マップを基にCNN出力を獲得し、前記CNN出力とこれに対応する原本正解を参照に獲得したセグメンテーションロスのバックプロパゲーションを遂行する段階;
をさらに含むことを特徴とする請求項1に記載の方法。 - CNN基盤イメージエンコーディング方法において、
(a)(i)第1ないし第nコンボリューションレイヤを含む学習装置が、前記コンボリューションレイヤの少なくとも一部各々をもって、入力イメージまたは以前コンボリューションレイヤから獲得された学習用入力特徴マップに対して、転置コンボリューション演算を少なくとも二度適用して各々異なるサイズを有する少なくとも二つの学習用転置特徴マップを生成するプロセス、(ii)前記学習装置が、前記学習用転置特徴マップに対し、これに対応して異なるストライドと異なるカーネルサイズとを有するコンボリューション演算を少なくとも一度適用して、少なくとも二つの学習用インセプション特徴マップを学習用第1グループとして生成するプロセス、(iii)前記学習装置が、前記学習用第1グループに含まれた前記学習用インセプション特徴マップをコンカチネートするか、要素ごとの加算をして、これに対応する学習用出力特徴マップを生成するプロセス及び(iv)前記学習装置が、前記学習用出力特徴マップを基に学習用CNN出力を獲得し、前記学習用CNN出力とこれに対応する原本正解を参照に獲得したセグメンテーションロスのバックプロパゲーションを遂行するプロセスを遂行した状態で、テスト装置が、少なくとも一つのテストイメージを獲得する段階;
(b)前記テスト装置が、前記コンボリューションレイヤの少なくとも一部各々をもって、(i)前記テストイメージまたは以前コンボリューションレイヤから獲得されたテスト用入力特徴マップに対して、前記転置コンボリューション演算を少なくとも二度適用して各々異なるサイズを有する少なくとも二つのテスト用転置特徴マップを生成し、(ii)前記テスト用転置特徴マップ対し、これに対応して異なるストライドと異なるカーネルサイズとを有するコンボリューション演算を少なくとも一度適用して、少なくとの二つのテスト用インセプション特徴マップをテスト用第1グループとして生成する段階;及び
(c)前記テスト装置が、前記テスト用第1グループに含まれた前記テスト用インセプション特徴マップをコンカチネートするか、要素ごとの加算をして、これに対応するテスト用出力特徴マップを生成する段階;
を含むことを特徴とする方法。 - 前記テスト用第1グループに含まれた前記テスト用インセプション特徴マップはサイズが同一だが、各々互いに異なる特性を有することを特徴とする請求項9に記載の方法。
- 少なくとも一つの前記コンボリューションレイヤが第kコンボリューションレイヤである場合、
前記(b)段階は、
(b−1)前記テスト装置が、前記第kコンボリューションレイヤをもって、前記テストイメージまたは第k−1コンボリューションレイヤで獲得したテスト第k−1特徴マップに対して、第1ないし第m転置コンボリューション演算(mは、2以上の自然数)を適用するようにし、第1ないし第mサイズを有するテスト用第1ないし第m転置特徴マップを生成する段階;
(b−2)前記テスト装置が、(i)前記テスト用第k−1特徴マップのサイズと前記テスト用第1ないし前記テスト用第m転置特徴マップ各々のサイズの比率を各々参照にして第1ないし第mストライドのサイズを決定して、(ii)前記テスト用第1ないし前記テスト用第m転置特徴マップに対して、前記第1ないし前記第mストライドサイズ及び第1ないし第mカーネルサイズを有する第1ないし第mコンボリューションフィルタを各々適用し、テスト用第1ないしテスト用第mインセプション特徴マップを前記テスト用第1グループとして生成する段階;
を含むことを特徴とする請求項9に記載の方法。 - 前記(b)段階で、
前記テスト装置は、前記テストイメージまたは以前コンボリューションレイヤから獲得した前記テスト用入力特徴マップに対して、前記コンボリューション演算を適用して少なくとも一つのインセプション特徴マップをテスト用第2グループとして生成し、
前記(c)段階で、
前記テスト装置は、前記テスト用第1グループの前記テスト用インセプション特徴マップ及び前記テスト用第2グループの前記テスト用インセプション特徴マップをコンカチネートするか、要素ごとの加算をして、前記テスト用出力特徴マップを生成することを特徴とする請求項9に記載の方法。 - 少なくとも一つの前記コンボリューションレイヤが第kコンボリューションレイヤである場合、
前記(b)段階は、
(b−1)前記テスト装置が、前記第kコンボリューションレイヤをもって、前記テストイメージまたは第k−1コンボリューションレイヤから獲得したテスト用第k−1特徴マップに対して、第1ないし第m転置コンボリューション演算(mは2以上の自然数)を適用するようにして、第1ないし第mサイズを有するテスト用第1ないしテスト用第m転置特徴マップを生成する段階;
(b−2)前記テスト装置が、(i)前記テスト用第k−1特徴マップのサイズと前記テスト用第1ないし前記テスト用第m転置特徴マップ各々のサイズの割合を各々参照にして第1ないし第mストライドのサイズを決定し、(ii)前記テスト用第1ないし前記テスト用第m転置特徴マップに対して、前記第1ないし前記第mストライドサイズ及び第1ないし第mカーネルサイズを有する第1ないし第mコンボリューションフィルタを各々適用して、テスト用第1ないしテスト用第mインセプション特徴マップを前記テスト用第1グループとして生成する段階;及び
(b−3)前記テスト装置が、前記テストイメージまたは前記第k−1コンボリューションレイヤから獲得した前記テスト用第k−1特徴マップに対して、第m+1ないし第m+nカーネルサイズを有する第m+1ないし第m+nコンボリューションフィルタを適用して、テスト用第m+1ないしテスト用第m+nインセプション特徴マップを前記テスト用第2グループとして生成する段階;
を含むことを特徴とする請求項12に記載の方法。 - 前記(b)段階で、
前記テスト装置は、前記テストイメージまたは以前コンボリューションレイヤから獲得した前記テスト用特徴マップに対して、互いに異なるサイズのマックスプーリング(Max Pooling)演算を少なくとも一度適用し、少なくとも一つのテスト用マックスプーリング特徴マップをテスト用第3グループとして生成し、
前記(c)段階で、
前記テスト装置は、前記テスト用第1グループの前記テスト用インセプション特徴マップ、前記テスト用第2グループの前記テスト用インセプション特徴マップ及び前記テスト用第3グループの前記テスト用マックスプーリング特徴マップをコンカチネートするか、要素ごとの加算をして、前記テスト用出力特徴マップを生成することを特徴とする請求項12に記載の方法。 - 第1ないし第nコンボリューションレイヤを含む、CNN基盤イメージエンコーディングのための学習装置において、
少なくとも一つのトレーニングイメージを入力イメージとして獲得するための通信部;及び
(I)前記コンボリューションレイヤの少なくとも一部各々をもって、(i)入力イメージまたは以前コンボリューションレイヤから獲得された入力特徴マップに対して、転置コンボリューション演算を少なくとも二度適用して各々異なるサイズを有する少なくとも二つの転置特徴マップを生成し、(ii)異なるストライドと異なるカーネルサイズとを有するコンボリューション演算を、これに対応する各々の転置特徴マップに少なくとも一度適用して、少なくとも二つのインセプション特徴マップを第1グループとして生成するプロセス、及び、(II)前記第1グループに含まれた前記インセプション特徴マップをコンカチネートするか、要素ごとの加算をして、これに対応する出力特徴マップを生成するプロセスを遂行するプロセッサ;
を含むことを特徴とする装置。 - 前記第1グループに含まれた前記インセプション特徴マップはサイズが同一だが、各々互いに異なる特性を有することを特徴とする請求項15に記載の装置。
- 少なくとも一つの前記コンボリューションレイヤが第kコンボリューションレイヤである場合、
前記(I)プロセスは、
(I−1)前記第kコンボリューションレイヤをもって、前記入力イメージまたは第k−1コンボリューションレイヤで獲得した第k−1特徴マップに対して、第1ないし第m転置コンボリューション演算(mは、2以上の自然数)を適用するようにし、第1ないし第mサイズを有する第1ないし第m転置特徴マップを生成するプロセス;
(I−2)(i)前記第k−1特徴マップのサイズと前記第1ないし前記第m転置特徴マップ各々のサイズの割合を各々参照にして第1ないし第mストライドのサイズを決定し、(ii)前記第1ないし前記第m転置特徴マップに対して、前記第1ないし前記第mストライドサイズ及び第1ないし第mカーネルサイズを有する第1ないし第mコンボリューションフィルタを各々適用して、第1ないし第mインセプション特徴マップを前記第1グループとして生成するプロセス;
を含むことを特徴とする請求項15に記載の装置。 - 前記(I)プロセスで、
前記プロセッサは、前記入力イメージまたは以前コンボリューションレイヤから獲得した前記入力特徴マップに対して、前記コンボリューション演算を適用して少なくとも一つのインセプション特徴マップを第2グループとして生成し、
前記(II)プロセスで、
前記プロセッサは、前記第1グループの前記インセプション特徴マップ及び前記第2グループの前記インセプション特徴マップをコンカチネートするか、要素ごとの加算をして、前記出力特徴マップを生成することを特徴とする請求項15に記載の装置。 - 少なくとも一つの前記コンボリューションレイヤが第kコンボリューションレイヤである場合、
前記(I)プロセスは、
(I−1)前記第kコンボリューションレイヤをもって、前記入力イメージまたは第k−1コンボリューションレイヤから獲得した第k−1特徴マップに対して、第1ないし第m転置コンボリューション演算(mは2以上の自然数)を適用するようにして、第1ないし第mサイズを有する第1ないし第m転置特徴マップを生成するプロセス;
(I−2)(i)前記第k−1特徴マップのサイズと前記第1ないし前記第m転置特徴マップ各々のサイズの割合を各々参照にして第1ないし第mストライドのサイズを決定し、(ii)前記第1ないし前記第m転置特徴マップに対して、前記第1ないし前記第mストライドサイズ及び第1ないし第mカーネルサイズを有する第1ないし第mコンボリューションフィルタを各々適用して、第1ないし第mインセプション特徴マップを前記第1グループとして生成するプロセス;及び
(I−3)前記入力イメージまたは前記第k−1コンボリューションレイヤから獲得した前記第k−1特徴マップに対して、第m+1ないし第m+nカーネルサイズを有する第m+1ないし第m+nコンボリューションフィルタを適用して、第m+1ないし第m+nインセプション特徴マップを前記第2グループとして生成するプロセス;
を含むことを特徴とする請求項18に記載の装置。 - 前記(I)プロセスで、
前記プロセッサは、前記入力イメージまたは以前コンボリューションレイヤから獲得した前記入力特徴マップに対して、互いに異なるサイズのマックスプーリング(Max Pooling)演算を少なくとも一度適用し、少なくとも一つのマックスプーリング特徴マップを第3グループとして生成して、
前記(II)プロセスで、
前記プロセッサは、前記第1グループの前記インセプション特徴マップ、前記第2グループの前記インセプション特徴マップ及び前記第3グループの前記マックスプーリング特徴マップをコンカチネートするか、要素ごとの加算をして、前記出力特徴マップを生成することを特徴とする請求項18に記載の装置。 - 前記(I)プロセスで、
前記プロセッサは、前記第1コンボリューションレイヤをもって(i)前記入力イメージに対して転置コンボリューション演算を少なくとも二度適用し、各々異なるサイズを有する少なくとも二つの転置特徴マップを生成し、(ii)前記転置特徴マップに対し、異なるストライドと異なるカーネルサイズとを有するコンボリューション演算を少なくとも一度適用して、少なくとも二つのインセプション特徴マップを前記第1グループとして生成することを特徴とする請求項15に記載の装置。 - 前記プロセッサは、
(III)前記第nコンボリューションレイヤから出力された前記出力特徴マップを基にCNN出力を獲得し、前記CNN出力とこれに対応する原本正解を参照に獲得したセグメンテーションロスのバックプロパゲーションを遂行するプロセス;
をさらに遂行することを特徴とする請求項15に記載の装置。 - CNN基盤イメージエンコーディングのためのテスト装置において、
(i)第1ないし第nコンボリューションレイヤを含む学習装置が、前記コンボリューションレイヤの少なくとも一部各々をもって、入力イメージまたは以前コンボリューションレイヤから獲得された学習用入力特徴マップに対して、転置コンボリューション演算を少なくとも二度適用して各々異なるサイズを有する少なくとも二つの学習用転置特徴マップを生成するプロセス、(ii)前記学習装置が、異なるストライドと異なるカーネルサイズとを有するコンボリューション演算を、これに対応する前記学習用転置特徴マップに対して少なくとも一度適用して、少なくとも二つの学習用インセプション特徴マップ(Inception Feature Maps For Training)を学習用第1グループとして生成するプロセス、(iii)前記学習装置が、前記学習用第1グループに含まれた前記学習用インセプション特徴マップをコンカチネートするか、要素ごとの加算をして、これに対応する学習用出力特徴マップを生成するプロセス及び(iv)前記学習装置が、前記学習用出力特徴マップを基に学習用CNN出力を獲得し、前記学習用CNN出力とこれに対応する原本正解を参照に獲得したセグメンテーションロスのバックプロパゲーションを遂行するプロセスを遂行した状態で、少なくとも一つのテストイメージを獲得する通信部;及び
(I)前記コンボリューションレイヤの少なくとも一部各々をもって、(i)前記テストイメージまたは以前コンボリューションレイヤから獲得された前記テスト用入力特徴マップに対して、前記転置コンボリューション演算を少なくとも二度適用して各々異なるサイズを有する少なくとも二つのテスト用転置特徴マップを生成し、(ii)前記テスト用転置特徴マップ対し、これに対応して異なるストライドと異なるカーネルサイズとを有するコンボリューション演算を少なくとも一度適用して、少なくとも二つのテスト用インセプション特徴マップ(Inception Feature Maps)をテスト用第1グループとして生成するプロセス;及び(II)前記テスト用第1グループに含まれた前記テスト用インセプション特徴マップをコンカチネートするか、要素ごとの加算をして、これに対応するテスト用出力特徴マップを生成するプロセス;を遂行するプロセッサ;
を含むことを特徴とする装置。 - 前記テスト用第1グループに含まれた前記テスト用インセプション特徴マップはサイズが同一だが、各々互いに異なる特性を有することを特徴とする請求項23に記載の装置。
- 少なくとも一つの前記コンボリューションレイヤが第kコンボリューションレイヤである場合、
前記(I)プロセスは、
(I−1)前記第kコンボリューションレイヤをもって、前記テストイメージまたは第k−1コンボリューションレイヤで獲得したテスト用第k−1特徴マップに対して、第1ないし第m転置コンボリューション演算(mは、2以上の自然数)を適用するようにし、第1ないし第mサイズを有するテスト用第1ないし第m転置特徴マップを生成するプロセス;
(I−2)(i)前記テスト用第k−1特徴マップのサイズと前記テスト用第1ないし前記第m転置特徴マップ各々のサイズの割合を各々参照にして第1ないし第mストライドのサイズを決定し、(ii)前記テスト用第1ないし前記テスト用第m転置特徴マップに対して、前記第1ないし前記第mストライドサイズ及び第1ないし第mカーネルサイズを有する第1ないし第mコンボリューションフィルタを各々適用して、テスト用第1ないしテスト用第mインセプション特徴マップを前記テスト用第1グループとして生成するプロセス;
を含むことを特徴とする請求項23に記載の装置。 - 前記(I)プロセスで、
前記プロセッサは、前記テストイメージまたは以前コンボリューションレイヤから獲得した前記テスト用入力特徴マップに対して、前記コンボリューション演算を適用して少なくとも一つのテスト用インセプション特徴マップを第2グループとして生成し、
前記(II)プロセスで、
前記プロセッサは、前記テスト用第1グループの前記テスト用インセプション特徴マップ及び前記テスト用第2グループの前記テスト用インセプション特徴マップをコンカチネートするか、要素ごとの加算をして、前記テスト用出力特徴マップを生成することを特徴とする請求項23に記載の装置。 - 少なくとも一つの前記コンボリューションレイヤが第kコンボリューションレイヤである場合、
前記(II)プロセスは、
(II−1)前記第kコンボリューションレイヤをもって、前記テストイメージまたは第k−1コンボリューションレイヤから獲得したテスト用第k−1特徴マップに対して、第1ないし第m転置コンボリューション演算(mは2以上の自然数)を適用するようにして、第1ないし第mサイズを有するテスト用第1ないしテスト用第m転置特徴マップを生成するプロセス;
(II−2)(i)前記テスト用第k−1特徴マップのサイズと前記テスト用第1ないし前記テスト用第m転置特徴マップ各々のサイズの割合を各々参照にして第1ないし第mストライドのサイズを決定し、(ii)前記テスト用第1ないし前記テスト用第m転置特徴マップに対して、前記第1ないし前記第mストライドサイズ及び第1ないし第mカーネルサイズを有する第1ないし第mコンボリューションフィルタを各々適用して、テスト用第1ないしテスト用第mインセプション特徴マップを前記テスト用第1グループとして生成するプロセス;及び
(II−3)前記テストイメージまたは前記第k−1コンボリューションレイヤから獲得した前記テスト用第k−1特徴マップに対して、第m+1ないし第m+nカーネルサイズを有する第m+1ないし第m+nコンボリューションフィルタを適用して、テスト用第m+1ないしテスト用第m+nインセプション特徴マップを前記テスト用第2グループとして生成するプロセス;
を含むことを特徴とする請求項26に記載の装置。 - 前記(I)プロセスで、
前記プロセッサは、前記テストイメージまたは以前コンボリューションレイヤから獲得した前記テスト用入力特徴マップに対して、互いに異なるサイズのマックスプーリング(Max Pooling)演算を少なくとも一度適用し、少なくとも一つのテスト用マックスプーリング特徴マップをテスト用第3グループとして生成して、
前記(II)プロセスで、
前記プロセッサは、前記テスト用第1グループの前記テスト用インセプション特徴マップ、前記テスト用第2グループの前記テスト用インセプション特徴マップ及び前記テスト用第3グループの前記テスト用マックスプーリング特徴マップをコンカチネートするか、要素ごとの加算をして、前記テスト用出力特徴マップを生成することを特徴とする請求項26に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/132,475 US10282864B1 (en) | 2018-09-17 | 2018-09-17 | Method and device for encoding image and testing method and testing device using the same |
US16/132,475 | 2018-09-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020047271A JP2020047271A (ja) | 2020-03-26 |
JP6856851B2 true JP6856851B2 (ja) | 2021-04-14 |
Family
ID=66333963
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019163898A Active JP6856851B2 (ja) | 2018-09-17 | 2019-09-09 | イメージエンコーディングのための方法及び装置そしてこれを利用したテスト方法及びテスト装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10282864B1 (ja) |
EP (1) | EP3624016A1 (ja) |
JP (1) | JP6856851B2 (ja) |
KR (1) | KR102309702B1 (ja) |
CN (1) | CN110910395B (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200053886A (ko) * | 2018-11-09 | 2020-05-19 | 삼성전자주식회사 | 뉴럴 프로세싱 유닛, 뉴럴 프로세싱 시스템, 및 어플리케이션 시스템 |
US11556778B2 (en) * | 2018-12-07 | 2023-01-17 | Microsoft Technology Licensing, Llc | Automated generation of machine learning models |
US10733511B1 (en) * | 2019-01-30 | 2020-08-04 | StradVision, Inc. | Learning method and learning device for updating HD map by reconstructing 3D space by using depth estimation information and class information on each object, which have been acquired through V2X information integration technique, and testing method and testing device using the same |
KR102420104B1 (ko) * | 2019-05-16 | 2022-07-12 | 삼성전자주식회사 | 영상 처리 장치 및 그 동작방법 |
US20220245927A1 (en) * | 2019-06-17 | 2022-08-04 | Nippon Telegraph And Telephone Corporation | Identification result explanation device, identification result explanation method, and identification result explanation program |
CN110415171B (zh) * | 2019-07-08 | 2021-06-25 | 北京三快在线科技有限公司 | 图像处理方法、装置及存储介质、电子设备 |
CN111179283A (zh) * | 2019-12-30 | 2020-05-19 | 深圳市商汤科技有限公司 | 图像语义分割方法及装置、存储介质 |
US20220226994A1 (en) * | 2020-07-20 | 2022-07-21 | Georgia Tech Research Corporation | Heterogeneous graph attention networks for scalable multi-robot scheduling |
KR20220030084A (ko) * | 2020-09-02 | 2022-03-10 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
CN116648716A (zh) * | 2020-12-24 | 2023-08-25 | 华为技术有限公司 | 通过指示特征图数据进行解码 |
US11823490B2 (en) * | 2021-06-08 | 2023-11-21 | Adobe, Inc. | Non-linear latent to latent model for multi-attribute face editing |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8872869B2 (en) * | 2004-11-23 | 2014-10-28 | Hewlett-Packard Development Company, L.P. | System and method for correcting defective pixels of a display device |
US9633282B2 (en) * | 2015-07-30 | 2017-04-25 | Xerox Corporation | Cross-trained convolutional neural networks using multimodal images |
US9785919B2 (en) * | 2015-12-10 | 2017-10-10 | General Electric Company | Automatic classification of aircraft component distress |
EP3471623B1 (en) * | 2016-06-20 | 2023-01-25 | Butterfly Network, Inc. | Automated image acquisition for assisting a user to operate an ultrasound device |
JP2018005520A (ja) * | 2016-06-30 | 2018-01-11 | クラリオン株式会社 | 物体検出装置及び物体検出方法 |
EP3523751A4 (en) * | 2016-10-04 | 2020-05-06 | Magic Leap, Inc. | EFFICIENT DATA ARRANGEMENTS FOR CONVOLUTIONAL NEURAL NETWORKS |
KR101879207B1 (ko) * | 2016-11-22 | 2018-07-17 | 주식회사 루닛 | 약한 지도 학습 방식의 객체 인식 방법 및 장치 |
JP6929047B2 (ja) * | 2016-11-24 | 2021-09-01 | キヤノン株式会社 | 画像処理装置、情報処理方法及びプログラム |
US20180225554A1 (en) * | 2017-02-06 | 2018-08-09 | Honda Motor Co., Ltd. | Systems and methods of a computational framework for a driver's visual attention using a fully convolutional architecture |
US10019788B1 (en) * | 2017-02-14 | 2018-07-10 | Cogniac, Corp. | Machine-learning measurements of quantitative feature attributes |
US10685429B2 (en) * | 2017-02-22 | 2020-06-16 | Siemens Healthcare Gmbh | Denoising medical images by learning sparse image representations with a deep unfolding approach |
US10580131B2 (en) * | 2017-02-23 | 2020-03-03 | Zebra Medical Vision Ltd. | Convolutional neural network for segmentation of medical anatomical images |
US10713540B2 (en) * | 2017-03-07 | 2020-07-14 | Board Of Trustees Of Michigan State University | Deep learning system for recognizing pills in images |
CN108509978B (zh) * | 2018-02-28 | 2022-06-07 | 中南大学 | 基于cnn的多级特征融合的多类目标检测方法及模型 |
-
2018
- 2018-09-17 US US16/132,475 patent/US10282864B1/en active Active
-
2019
- 2019-05-06 EP EP19172863.3A patent/EP3624016A1/en active Pending
- 2019-08-27 KR KR1020190105479A patent/KR102309702B1/ko active IP Right Grant
- 2019-08-29 CN CN201910808347.1A patent/CN110910395B/zh active Active
- 2019-09-09 JP JP2019163898A patent/JP6856851B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US10282864B1 (en) | 2019-05-07 |
KR20200031993A (ko) | 2020-03-25 |
CN110910395A (zh) | 2020-03-24 |
CN110910395B (zh) | 2023-07-28 |
EP3624016A1 (en) | 2020-03-18 |
KR102309702B1 (ko) | 2021-10-08 |
JP2020047271A (ja) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6856851B2 (ja) | イメージエンコーディングのための方法及び装置そしてこれを利用したテスト方法及びテスト装置 | |
JP6865363B2 (ja) | ラプラシアンピラミッドネットワークを利用して自律走行自動車レベル4及びレベル5を満足させるために要求される道路障害物検出におけるセグメンテーション性能向上のための学習方法及び学習装置、並びにこれを利用したテスト方法及びテスト装置 | |
JP6865364B2 (ja) | エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 | |
JP6957050B2 (ja) | モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same} | |
JP6863619B2 (ja) | コンボリューションニューラルネットワークから複数の出力のアンサンブルを利用して統合された特徴マップを提供するための方法及び装置{method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network} | |
JP6869565B2 (ja) | 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} | |
JP6924517B2 (ja) | ディープニューラルネットワーク基盤の多重パッチ組み合わせを利用して顔を認識し、極度の状況でフォールトトレランス及びフラクチュエーションロバスト性を向上させる方法 | |
JP6869559B2 (ja) | 障害物を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting obstacles and testing method, testing device using the same} | |
JP6935939B2 (ja) | マルチフィーディングを適用した学習方法及び学習装置並びにそれを利用したテスト方法及びテスト装置 | |
US10496899B1 (en) | Learning method and learning device for adjusting parameters of CNN in which residual networks are provided for meta learning, and testing method and testing device using the same | |
JP6857369B2 (ja) | Cnnを学習する方法及び学習装置、それを利用したテスト方法及びテスト装置 | |
CN111476341A (zh) | 转换cnn的卷积层的方法及装置 | |
JP6793411B2 (ja) | 自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置 | |
JP7252120B2 (ja) | 核心性能指数を満たすことができるハードウェア最適化が行われるように、cnnで複数のブロック内の入力イメージから特徴を抽出する学習方法及び学習装置、それを利用したテスト方法及びテスト装置 | |
CN111476262B (zh) | 利用1xH卷积的基于CNN的对象检测方法及装置 | |
JP6857368B2 (ja) | Cnn学習方法及び学習装置、これを利用したテスト方法及びテスト装置 | |
JP6916549B2 (ja) | 軍事的目的、ドローンまたはロボットに利用されるために一つ以上の以前のバッチをさらに参照してモバイル装置またはiot装置に適用可能なオンラインバッチ正規化、オンデバイス学習、及び連続学習を遂行する方法と装置、並びにそれを利用したテスト方法及びテスト装置 | |
EP3690718A1 (en) | Learning method and learning device for allowing cnn having trained in virtual world to be used in real world by runtime input transformation using photo style transformation, and testing method and testing device using the same | |
JP6970461B2 (ja) | スマートフォン、ドローン、船舶または軍事的目的のための、トレーニングイメージの最適化サンプリングにより入力データを分析するニューラルネットワークのオンデバイス継続学習方法及び装置、そして、これを利用したテスト方法及び装置 | |
JP6856852B2 (ja) | 横フィルタマスクを利用して自律走行車の走行経路を計画するために車線要素を検出する方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6856851 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |