JP6853592B2 - ハードウェア最適化に使用される1x1コンボリューションを利用したCNN基盤の物体検出器を学習する方法及び学習装置、これを利用したテスト方法及びテスト装置{LEARNING METHOD AND LEARNING DEVICE FOR OBJECT DETECTOR BASED ON CNN USING 1×1 CONVOLUTION TO BE USED FOR HARDWARE OPTIMIZATION, AND TESTING METHOD AND TESTING DEVICE USING THE SAME} - Google Patents

ハードウェア最適化に使用される1x1コンボリューションを利用したCNN基盤の物体検出器を学習する方法及び学習装置、これを利用したテスト方法及びテスト装置{LEARNING METHOD AND LEARNING DEVICE FOR OBJECT DETECTOR BASED ON CNN USING 1×1 CONVOLUTION TO BE USED FOR HARDWARE OPTIMIZATION, AND TESTING METHOD AND TESTING DEVICE USING THE SAME} Download PDF

Info

Publication number
JP6853592B2
JP6853592B2 JP2020002334A JP2020002334A JP6853592B2 JP 6853592 B2 JP6853592 B2 JP 6853592B2 JP 2020002334 A JP2020002334 A JP 2020002334A JP 2020002334 A JP2020002334 A JP 2020002334A JP 6853592 B2 JP6853592 B2 JP 6853592B2
Authority
JP
Japan
Prior art keywords
feature map
test
learning
layer
proposal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020002334A
Other languages
English (en)
Other versions
JP2020119541A (ja
Inventor
金桂賢
金鎔重
金寅洙
金鶴京
南雲鉉
夫碩▲くん▼
成明哲
呂東勳
柳宇宙
張泰雄
鄭景中
諸泓模
趙浩辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020119541A publication Critical patent/JP2020119541A/ja
Application granted granted Critical
Publication of JP6853592B2 publication Critical patent/JP6853592B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Description

本発明は、ハードウェア最適化に使用される1x1コンボリューションを利用したCNN基盤の物体検出器のパラメータを学習する方法及び学習装置、これを利用したテスト方法及びテスト装置に関し、より詳細には、前記CNN基盤の前記物体検出器の前記パラメータを学習する方法において、(a)少なくとも一つのトレーニングイメージが入力されると、学習装置が、(i)少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つの初期特徴マップ(Initial Feature Map)を生成させ、(ii)RPNをもって、前記初期特徴マップを利用して前記トレーニングイメージ内に位置する少なくとも一つの物体に対応する少なくとも一つのプロポーザルを生成させ、(iii)(iii−1)プーリングレイヤをもって、前記初期特徴マップ上で前記プロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を適用させて前記プロポーザルごとのプーリング済み特徴マップを生成させ、第1トランスポーズレイヤ(Transposing Layer)をもって、前記プロポーザルごとの前記プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記プロポーザルごとにコンカチネート(Concatenating)して統合特徴マップ(Integrated Feature Map)を生成させるか、(iii−2)前記プーリングレイヤをもって、前記初期特徴マップ上で前記プロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させて前記プロポーザルごとの前記プーリング済み特徴マップを生成し、前記プーリングレイヤをもって、前記プロポーザルごとの前記プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記プロポーザルごとにコンカチネートして前記統合特徴マップを生成させる段階:(b)前記学習装置が、第1の1x1コンボリューションレイヤをもって、前記統合特徴マップに対して1x1コンボリューション演算を適用させてボリューム(Volume)が調整された第1調整特徴マップを生成させ、第2の1x1コンボリューションレイヤをもって、前記第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整された第2調整特徴マップを生成させる段階;及び(c)前記学習装置が、(c1)(i)第2トランスポーズレイヤをもって、前記第2調整特徴マップをピクセルごとに分離して前記プロポーザルごとのピクセル別特徴マップ(Pixel−Wise Feature Map)を生成させ、分類レイヤをもって、前記プロポーザルごとの前記ピクセル別特徴マップを利用して前記プロポーザルそれぞれに関する物体クラス情報を生成させるか、(ii)前記分類レイヤをもって、前記第2調整特徴マップを前記ピクセルごとに分離して前記プロポーザルごとの前記ピクセル別特徴マップを生成し、前記プロポーザルごとの前記ピクセル別特徴マップを利用して前記プロポーザルそれぞれに対する前記物体クラス情報を生成させた後、(c2)検出レイヤ(Detecting Layer)をもって、前記物体クラス情報と、前記プロポーザルごとの前記ピクセル別特徴マップとを参照して前記トレーニングイメージ内に位置する前記物体に対応する物体検出情報を生成させ、(c3)検出ロスレイヤをもって、前記物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つの物体検出ロスを算出させることで、前記物体検出ロスを利用したバックプロパゲーションを通じて前記第2の1x1コンボリューションレイヤ、前記第1の1x1コンボリューションレイヤ、及び前記コンボリューションレイヤのうち少なくとも一部のパラメータを学習する段階;を含む学習方法、これを利用してテストする方法と、これを利用した学習装置及びテスト装置に関する。
ディープコンボリューションニューラルネットワーク(Deep Convolution Neural Networks;Deep CNN)は、ディープラーニング分野で起きた驚くべき発展の核心である。CNNは、文字の認識問題を解決するために90年代にすでに使用されていたが、現在のように広く使われるようになったのは最近の研究結果の賜物である。このようなディープCNNは、2012年ImageNetイメージ分類コンテストで他の競争相手に勝って優勝を収めた。そして、コンボリューションニューラルネットワークは機械学習(Machine Learning)分野で非常に有用なツールとなった。
このようなCNNは、イメージから特徴を抽出する特徴抽出器と、特徴抽出器から抽出された特徴を参照してイメージを認識するか、イメージ内の物体を検出する特徴分類器とで構成される。
そして、CNNは、イメージで特徴を抽出する特徴抽出器(Feature Extractor)及びイメージ内の物体を検出したり特徴抽出器が抽出した特徴を参照してイメージを認識する特徴分類器(Feature Classifier)で構成される。
そして、CNNの特徴抽出器はコンボリューションレイヤで構成され、特徴分類器は、特徴抽出器が抽出した特徴に対してFC演算(Fully Connected Operation)を適用することができるFCレイヤで構成される。
しかしながら、このようなFCレイヤは入力された全ての特徴に対して重み付け値を生成しなければならない不便さがあり、入力されたすべての特徴に対してFC演算を遂行しなければならないため、コンピューティング演算量が多くなる短所がある。
また、FCレイヤではFCレイヤに入力されるイメージのサイズがFCレイヤモデルの所定サイズと一致しなければならない。そのため、このようなFCレイヤを含むCNNに予め設定されたサイズと異なるトレーニングイメージまたはテストイメージが入力される場合、コンボリューションレイヤがトレーニングイメージやテストイメージに対して当該演算を適用することができるが、FCレイヤでは前記所定サイズと異なるサイズの入力イメージが入力されるため、トレーニングイメージやテストイメージに該当演算を適用することができない。
したがって、本発明の発明者は、前記のようなFCレイヤの問題点を克服することができるようにするCNN基盤の物体検出器を提案することにする。
本発明は、上述した問題点を全て解決することをその目的とする。
本発明は、入力イメージのサイズと関係なしに少なくとも一つの入力イメージ内に位置する物体を検出することができるようにするCNN基盤の物体検出器を提供することを他の目的とする。
本発明は、特徴分類のための重み付け値の個数を最小化することができるようにするCNN基盤の物体検出器を提供することをまた他の目的とする。
本発明は、特徴分類のためのコンピューティング演算量を減少させることができるようにするCNN基盤の物体検出器を提供することをまた他の目的とする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は以下の通りである。
本発明の一態様によると、CNN基盤の物体検出器のパラメータを学習する方法において、(a)少なくとも一つのトレーニングイメージが入力されると、学習装置が、(i)少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つの初期特徴マップ(Initial Feature Map)を生成させ、(ii)RPNをもって、前記初期特徴マップを利用して前記トレーニングイメージ内に位置する少なくとも一つの物体に対応する少なくとも一つのプロポーザルを生成させ、(iii)(iii−1)プーリングレイヤをもって、前記初期特徴マップ上で前記プロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を適用させて前記プロポーザルごとのプーリング済み特徴マップを生成させ、第1トランスポーズレイヤ(Transposing Layer)をもって、前記プロポーザルごとの前記プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記プロポーザルごとにコンカチネート(Concatenating)して統合特徴マップ(Integrated Feature Map)を生成させるか、(iii−2)前記プーリングレイヤをもって、前記初期特徴マップ上で前記プロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させて前記プロポーザルごとの前記プーリング済み特徴マップを生成し、前記プーリングレイヤをもって、前記プロポーザルごとの前記プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記プロポーザルごとにコンカチネートして前記統合特徴マップを生成させる段階;(b)前記学習装置が、第1の1x1コンボリューションレイヤをもって、前記統合特徴マップに対して1x1コンボリューション演算を適用させてボリューム(Volume)が調整された第1調整特徴マップを生成させ、第2の1x1コンボリューションレイヤをもって、前記第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整された第2調整特徴マップを生成させる段階;及び(c)前記学習装置が、(c1)(i)第2トランスポーズレイヤをもって、前記第2調整特徴マップをピクセルごとに分離して前記プロポーザルごとのピクセル別特徴マップ(Pixel−Wise Feature Map)を生成させ、分類レイヤをもって、前記プロポーザルごとの前記ピクセル別特徴マップを利用して前記プロポーザルそれぞれに関する物体クラス情報を生成させるか、(ii)前記分類レイヤをもって、前記第2調整特徴マップを前記ピクセルごとに分離して前記プロポーザルごとの前記ピクセル別特徴マップを生成し、前記プロポーザルごとの前記ピクセル別特徴マップを利用して前記プロポーザルそれぞれに対する前記物体クラス情報を生成させた後、(c2)検出レイヤ(Detecting Layer)をもって、前記物体クラス情報と前記プロポーザルごとの前記ピクセル別特徴マップとを参照して前記トレーニングイメージ内に位置する前記物体に対応する物体検出情報を生成させ、(c3)検出ロスレイヤをもって、前記物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つの物体検出ロスを算出させることで、前記物体検出ロスを利用したバックプロパゲーションを通じて前記第2の1x1コンボリューションレイヤ、前記第1の1x1コンボリューションレイヤ、及び前記コンボリューションレイヤのうち少なくとも一部のパラメータを学習する段階;を含むことを特徴とする。
一実施例において、前記(a)段階以後、前記学習装置は、RPNロスレイヤをもって、前記プロポーザルとこれに対応する原本正解とを参照して少なくとも一つのRPNロスを算出させることにより、前記RPNロスをバックプロパゲーションして前記RPNのパラメータの少なくとも一部を学習することを特徴とする。
一実施例において、前記プロポーザルの個数をNとし、前記プロポーザルごとの前記プーリング済み特徴マップの幅をM1、高さをM2とし、前記プロポーザルごとの前記プーリング済み特徴マップのチャンネル個数をJとする場合、前記(a)段階で、前記学習装置は、(i)前記第1トランスポーズレイヤをもって、前記プロポーザルごとの前記プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記統合特徴マップに変換させるようにするか、(ii)前記プーリングレイヤをもって、前記プロポーザルごとの前記プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記統合特徴マップに変換させるようにすることを特徴とする。
一実施例において、前記第1の1x1コンボリューションレイヤ内のフィルタの個数をKとし、前記第2の1x1コンボリューションレイヤ内のフィルタの個数をLとする場合、前記(b)段階で、前記学習装置は、前記第1の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がKであるNx1xKのボリュームを有する前記第1調整特徴マップ(Adjusted Feature Map)を生成させ、前記第2の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がLであるNx1xLのボリュームを有する前記第2調整特徴マップを生成させることを特徴とする。
一実施例において、前記(c)段階で、前記学習装置は、(i)前記第2トランスポーズレイヤをもって、前記第2調整特徴マップを、N個のプロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記プロポーザルごとの前記ピクセル別特徴マップに変換させるか、(ii)前記分類レイヤをもって、前記第2調整特徴マップを、前記N個のプロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記プロポーザルごとの前記ピクセル別特徴マップに変換させることを特徴とする。
一実施例において、前記分類レイヤは、少なくとも一つのソフトマックス(Softmax)アルゴリズムを使用することを特徴とする。
一実施例において、前記検出レイヤは、少なくとも一つのNMS(Non−Maximum Suppression)アルゴリズムを使用することを特徴とする。
本発明の一態様によると、CNN基盤の物体検出器をテストする方法において、(a)学習装置は、(1)(i)少なくとも一つのコンボリューションレイヤをもって、少なくとも一つのトレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つの学習用初期特徴マップ(Initial Feature Map)を生成させ、(ii)RPNをもって、前記学習用初期特徴マップを利用して前記トレーニングイメージ内に位置する少なくとも一つの学習用物体に対応する少なくとも一つの学習用プロポーザルを生成させ、(iii)(iii−1)プーリングレイヤをもって、前記学習用初期特徴マップ上で前記学習用プロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を適用させて前記学習用プロポーザルごとの学習用プーリング済み特徴マップを生成させ、第1トランスポーズレイヤ(Transposing Layer)をもって、前記学習用プロポーザルごとの前記学習用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記学習用プロポーザルごとにコンカチネート(Concatenating)して学習用統合特徴マップ(Integrated Feature Map)を生成させるか、(iii−2)前記プーリングレイヤをもって、前記学習用初期特徴マップ上で前記学習用プロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させて前記学習用プロポーザルごとの前記学習用プーリング済み特徴マップを生成し、前記プーリングレイヤをもって、前記学習用プロポーザルごとの前記学習用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記学習用プロポーザルごとにコンカチネートして前記学習用統合特徴マップを生成させ、(2)第1の1x1コンボリューションレイヤをもって、前記学習用統合特徴マップに対して1x1コンボリューション演算を適用させてボリューム(Volume)が調整された学習用第1調整特徴マップを生成させ、第2の1x1コンボリューションレイヤをもって、前記学習用第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整された学習用第2調整特徴マップを生成させ、(3)(3−1)(i)第2トランスポーズレイヤをもって、前記学習用第2調整特徴マップをピクセルごとに分離して前記学習用プロポーザルごとの学習用ピクセル別特徴マップ(Pixel−Wise Feature Map)を生成させ、分類レイヤをもって、前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップを利用して前記学習用プロポーザルそれぞれに対する学習用物体クラス情報を生成させるか、(ii)前記分類レイヤをもって、前記学習用第2調整特徴マップを前記ピクセルごとに分離して前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップを生成し、前記分類レイヤをもって、前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップを利用して前記学習用プロポーザルそれぞれに対する前記学習用物体クラス情報を生成させた後、(3−2)検出レイヤ(Detecting Layer)をもって、前記学習用物体クラス情報と、前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップとを参照して前記トレーニングイメージ内に位置する前記学習用物体に対応する学習用物体検出情報を生成させ、(3−3)検出ロスレイヤをもって、前記学習用物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つの物体検出ロスを算出させることで、前記物体検出ロスをバックプロパゲーションして前記第2の1x1コンボリューションレイヤ、前記第1の1x1コンボリューションレイヤ、及び前記コンボリューションレイヤのうち少なくとも一部のパラメータを学習した状態で、少なくとも一つのテストイメージが入力されると、テスト装置が、(i)前記コンボリューションレイヤをもって、前記テストイメージに対してコンボリューション演算を適用させて少なくとも一つのテスト用初期特徴マップを生成させ、(ii)前記RPNをもって、前記テスト用初期特徴マップを利用して前記テストイメージ内に位置する少なくとも一つのテスト用物体に対応する少なくとも一つのテスト用プロポーザルを生成させ、(iii)(iii−1)前記プーリングレイヤをもって、前記テスト用初期特徴マップ上で前記テスト用プロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を適用させて前記テスト用プロポーザルごとのテスト用プーリング済み特徴マップを生成させ、前記第1トランスポーズレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記テスト用プロポーザルごとにコンカチネートしてテスト用統合特徴マップを生成させるか、(iii−2)前記プーリングレイヤをもって、前記テスト用初期特徴マップ上で前記テスト用プロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させて前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップを生成し、前記プーリングレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記テスト用プロポーザルごとにコンカチネートして前記テスト用統合特徴マップを生成させる段階;(b)前記テスト装置が、前記第1の1x1コンボリューションレイヤをもって、前記テスト用統合特徴マップに対して1x1コンボリューション演算を適用させてボリューム(Volume)が調整されたテスト用第1調整特徴マップを生成させ、前記第2の1x1コンボリューションレイヤをもって、前記テスト用第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整されたテスト用第2調整特徴マップを生成させる段階;及び(c)前記テスト装置が、(c1)(i)前記第2トランスポーズレイヤをもって、前記テスト用第2調整特徴マップをピクセルごとに分離して前記テスト用プロポーザルごとのテスト用ピクセル別特徴マップを生成させ、前記分類レイヤをもって、前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップを利用して前記テスト用プロポーザルそれぞれに関するテスト用物体クラス情報を生成させるか、(ii)前記分類レイヤをもって、前記テスト用第2調整特徴マップを前記ピクセルごとに分離して前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップを生成し、前記分類レイヤをもって、前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップを利用して前記テスト用プロポーザルそれぞれに対する前記テスト用物体クラス情報を生成させた後、(c2)前記検出レイヤをもって、前記テスト用物体クラス情報と前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップとを参照して前記テストイメージ内に位置する前記テスト用物体に対応するテスト用物体検出情報を生成させる段階;を含むことを特徴とする。
一実施例において、前記(1)プロセス以後、前記学習装置は、RPNロスレイヤをもって、前記学習用プロポーザルとこれに対応する原本正解とを参照して少なくとも一つのRPNロスを算出させることで、前記RPNロスをバックプロパゲーションして前記RPNのパラメータの少なくとも一部を学習することを特徴とする。
一実施例において、前記テスト用プロポーザルの個数をNとし、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップの幅をM1、高さをM2とし、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップのチャンネル個数をJとする場合、前記(a)段階で、前記テスト装置は、(i)前記第1トランスポーズレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記テスト用統合特徴マップに変換させるようにするか、(ii)前記プーリングレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記テスト用統合特徴マップに変換させるようにすることを特徴とする。
一実施例において、前記第1の1x1コンボリューションレイヤ内のフィルタの個数をKとし、前記第2の1x1コンボリューションレイヤ内のフィルタの個数をLとする場合、前記(b)段階で、前記テスト装置は、前記第1の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がKであるNx1xKのボリュームを有する前記テスト用第1調整特徴マップ(Adjusted Feature Map)を生成させ、前記第2の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がLであるNx1xLのボリュームを有する前記テスト用第2調整特徴マップを生成させることを特徴とする。
一実施例において、前記(c)段階で、前記テスト装置は、(i)前記第2トランスポーズレイヤをもって、前記テスト用第2調整特徴マップを、N個のテスト用プロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップに変換させるか、(ii)前記分類レイヤをもって、前記テスト用第2調整特徴マップを、前記N個のテスト用プロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップに変換させることを特徴とする。
一実施例において、前記分類レイヤは、少なくとも一つのソフトマックス(Softmax)アルゴリズムを使用することを特徴とする。
一実施例において、前記検出レイヤは、少なくとも一つのNMS(Non−Maximum Suppression)アルゴリズムを使用することを特徴とする。
本発明のまた他の態様によると、CNN基盤の物体検出器のパラメータを学習する学習装置において、インストラクションを格納する少なくとも一つのメモリと、(I)(i)少なくとも一つのコンボリューションレイヤをもって、少なくとも一つのトレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つの初期特徴マップ(Initial Feature Map)を生成させ、(ii)RPNをもって、前記初期特徴マップを利用して前記トレーニングイメージ内に位置する少なくとも一つの物体に対応する少なくとも一つのプロポーザルを生成させ、(iii)(iii−1)プーリングレイヤをもって、前記初期特徴マップ上で前記プロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を少なくとも一回適用させて前記プロポーザルごとのプーリング済み特徴マップを生成させ、第1トランスポーズレイヤ(Transposing Layer)をもって、前記プロポーザルごとの前記プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記プロポーザルごとにコンカチネート(Concatenating)して統合特徴マップ(Integrated Feature Map)を生成させるか、(iii−2)前記プーリングレイヤをもって、前記初期特徴マップ上で前記プロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させて前記プロポーザルごとの前記プーリング済み特徴マップを生成し、前記プーリングレイヤをもって、前記プロポーザルごとの前記プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記プロポーザルごとにコンカチネートして前記統合特徴マップを生成させるプロセス、(II)第1の1x1コンボリューションレイヤをもって、前記統合特徴マップに対して1x1コンボリューション演算を適用させてボリューム(Volume)が調整された第1調整特徴マップを生成させ、第2の1x1コンボリューションレイヤをもって、前記第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整された第2調整特徴マップを生成させるプロセス、及び(III)(III−1)(i)第2トランスポーズレイヤをもって、前記第2調整特徴マップをピクセルごとに分離して前記プロポーザルごとのピクセル別特徴マップ(Pixel−Wise Feature Map)を生成させ、分類レイヤをもって、前記プロポーザルごとの前記ピクセル別特徴マップを利用して前記プロポーザルそれぞれに関する物体クラス情報を生成させるか、(ii)前記分類レイヤをもって、前記第2調整特徴マップを前記ピクセルごとに分離して前記プロポーザルごとの前記ピクセル別特徴マップを生成し、前記プロポーザルごとの前記ピクセル別特徴マップを利用して前記プロポーザルそれぞれに対する前記物体クラス情報を生成させた後、(III−2)検出レイヤ(Detecting Layer)をもって、前記物体クラス情報と、前記プロポーザルごとの前記ピクセル別特徴マップとを参照して前記トレーニングイメージ内に位置する前記物体に対応する物体検出情報を生成させ、(III−3)検出ロスレイヤをもって、前記物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つの物体検出ロスを算出させることで、前記物体検出ロスを利用したバックプロパゲーションを通じて前記第2の1x1コンボリューションレイヤ、前記第1の1x1コンボリューションレイヤ、及び前記コンボリューションレイヤのうち少なくとも一部のパラメータを学習するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とする。
一実施例において、前記(I)プロセス以後、前記プロセッサは、RPNロスレイヤをもって、前記プロポーザルとこれに対応する原本正解とを参照して少なくとも一つのRPNロスを算出させることにより、前記RPNロスをバックプロパゲーションして前記RPNのパラメータの少なくとも一部を学習することを特徴とする。
一実施例において、前記プロポーザルの個数をNとし、前記プロポーザルごとの前記プーリング済み特徴マップの幅をM1、高さをM2とし、前記プロポーザルごとの前記プーリング済み特徴マップのチャンネル個数をJとする場合、前記(I)プロセスで、前記プロセッサは、(i)前記第1トランスポーズレイヤをもって、前記プロポーザルごとの前記プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記統合特徴マップに変換させるようにするか、(ii)前記プーリングレイヤをもって、前記プロポーザルごとの前記プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記統合特徴マップに変換させるようにすることを特徴とする。
一実施例において、前記第1の1x1コンボリューションレイヤ内のフィルタの個数をKとし、前記第2の1x1コンボリューションレイヤ内のフィルタの個数をLとする場合、前記(II)プロセスにおいて、前記プロセッサは、前記第1の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がKであるNx1xKのボリュームを有する前記第1調整特徴マップ(Adjusted Feature Map)を生成させ、前記第2の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がLであるNx1xLのボリュームを有する前記第2調整特徴マップを生成させることを特徴とする。
一実施例において、前記(III)プロセスにおいて、前記プロセッサは、(i)前記第2トランスポーズレイヤをもって、前記第2調整特徴マップを、N個のプロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記プロポーザルごとの前記ピクセル別特徴マップに変換させるか、(ii)前記分類レイヤをもって、前記第2調整特徴マップを、前記N個のプロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記プロポーザルごとの前記ピクセル別特徴マップに変換させることを特徴とする。
一実施例において、前記分類レイヤは、少なくとも一つのソフトマックス(Softmax)アルゴリズムを使用することを特徴とする。
一実施例において、前記検出レイヤは、少なくとも一つのNMS(Non−Maximum Suppression)アルゴリズムを使用することを特徴とする。
本発明のまた他の態様によると、CNN基盤の物体検出器をテストするテスト装置において、インストラクションを格納する少なくとも一つのメモリと、学習装置は、(1)(i)少なくとも一つのコンボリューションレイヤをもって、少なくとも一つのトレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つの学習用初期特徴マップ(Initial Feature Map)を生成させ、(ii)RPNをもって、前記学習用初期特徴マップを利用して前記トレーニングイメージ内に位置する少なくとも一つの学習用物体に対応する少なくとも一つの学習用プロポーザルを生成させ、(iii)(iii−1)プーリングレイヤをもって、前記学習用初期特徴マップ上で前記学習用プロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を適用させて前記学習用プロポーザルごとの学習用プーリング済み特徴マップを生成させ、第1トランスポーズレイヤ(Transposing Layer)をもって、前記学習用プロポーザルごとの前記学習用プーリング済み特徴マップ上の対応する同一の各位置それぞれのピクセルを前記学習用プロポーザルごとにコンカチネート(Concatenating)して学習用統合特徴マップ(Integrated Feature Map)を生成させるか、(iii−2)前記プーリングレイヤをもって、前記学習用初期特徴マップ上で前記学習用プロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させて前記学習用プロポーザルごとの前記学習用プーリング済み特徴マップを生成し、前記プーリングレイヤをもって、前記学習用プロポーザルごとの前記学習用プーリング済み特徴マップ上の対応する同一の各位置それぞれのピクセルを前記学習用プロポーザルごとにコンカチネートして前記学習用統合特徴マップを生成させ、(2)第1の1x1コンボリューションレイヤをもって、前記学習用統合特徴マップに対して1x1コンボリューション演算を適用させてボリューム(Volume)が調整された学習用第1調整特徴マップを生成させ、第2の1x1コンボリューションレイヤをもって、前記学習用第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整された学習用第2調整特徴マップを生成させ、(3)(3−1)(i)第2トランスポーズレイヤをもって、前記学習用第2調整特徴マップをピクセルごとに分離して前記学習用プロポーザルごとの学習用ピクセル別特徴マップ(Pixel−Wise Feature Map)を生成させ、分類レイヤをもって、前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップを利用して前記学習用プロポーザルそれぞれに対する学習用物体クラス情報を生成させるか、(ii)前記分類レイヤをもって、前記学習用第2調整特徴マップを前記ピクセルごとに分離して前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップを生成し、前記分類レイヤをもって、前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップを利用して前記学習用プロポーザルそれぞれに対する前記学習用物体クラス情報を生成させた後、(3−2)検出レイヤ(Detecting Layer)をもって、前記学習用物体クラス情報と、前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップとを参照して前記トレーニングイメージ内に位置する前記学習用物体に対応する学習用物体検出情報を生成させ、(3−3)検出ロスレイヤをもって、前記学習用物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つの物体検出ロスを算出させることで、前記物体検出ロスをバックプロパゲーションして前記第2の1x1コンボリューションレイヤ、前記第1の1x1コンボリューションレイヤ、及び前記コンボリューションレイヤのうち少なくとも一部のパラメータを学習した状態で、(I)(i)前記コンボリューションレイヤをもって、少なくとも一つのテストイメージに対してコンボリューション演算を適用させて少なくとも一つのテスト用初期特徴マップを生成させ、(ii)前記RPNをもって、前記テスト用初期特徴マップを利用して前記テストイメージ内に位置する少なくとも一つのテスト用物体に対応する少なくとも一つのテスト用プロポーザルを生成させ、(iii)(iii−1)前記プーリングレイヤをもって、前記テスト用初期特徴マップ上で前記テスト用プロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を適用させて前記テスト用プロポーザルごとのテスト用プーリング済み特徴マップを生成させ、前記第1トランスポーズレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記テスト用プロポーザルごとにコンカチネートしてテスト用統合特徴マップを生成させるか、(iii−2)前記プーリングレイヤをもって、前記テスト用初期特徴マップ上で前記テスト用プロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させて前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップを生成し、前記プーリングレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記テスト用プロポーザルごとにコンカチネートして前記テスト用統合特徴マップを生成させるプロセス、(II)前記第1の1x1コンボリューションレイヤをもって、前記テスト用統合特徴マップに対して1x1コンボリューション演算を適用させてボリューム(Volume)が調整されたテスト用第1調整特徴マップを生成させ、前記第2の1x1コンボリューションレイヤをもって、前記テスト用第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整されたテスト用第2調整特徴マップを生成させるプロセス、及び(III)(III−1)(i)前記第2トランスポーズレイヤをもって、前記テスト用第2調整特徴マップをピクセルごとに分離して前記テスト用プロポーザルごとのテスト用ピクセル別特徴マップを生成させ、前記分類レイヤをもって、前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップを利用して前記テスト用プロポーザルそれぞれに関するテスト用物体クラス情報を生成させるか、(ii)前記分類レイヤをもって、前記テスト用第2調整特徴マップを前記ピクセルごとに分離して前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップを生成し、前記分類レイヤをもって、前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップを利用して前記テスト用プロポーザルそれぞれに対する前記テスト用物体クラス情報を生成させた後、(III−2)前記検出レイヤをもって、前記テスト用物体クラス情報と前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップとを参照して前記テストイメージ内に位置する前記テスト用物体に対応するテスト用物体検出情報を生成させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とする。
一実施例において、前記(1)プロセス以後、前記学習装置は、RPNロスレイヤをもって、前記学習用プロポーザルとこれに対応する原本正解とを参照して少なくとも一つのRPNロスを算出させることで、前記RPNロスをバックプロパゲーションして前記RPNのパラメータの少なくとも一部を学習することを特徴とする。
一実施例において、前記テスト用プロポーザルの個数をNとし、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップの幅をM1、高さをM2とし、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップのチャンネル個数をJとする場合、前記(I)プロセスで、前記プロセッサは、(i)前記第1トランスポーズレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記テスト用統合特徴マップに変換させるようにするか、(ii)前記プーリングレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記テスト用統合特徴マップに変換させるようにすることを特徴とする。
一実施例において、前記第1の1x1コンボリューションレイヤ内のフィルタの個数をKとし、前記第2の1x1コンボリューションレイヤ内のフィルタの個数をLとする場合、前記(II)プロセスにおいて、前記プロセッサは、前記第1の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がKであるNx1xKのボリュームを有する前記テスト用第1調整特徴マップ(Adjusted Feature Map)を生成させ、前記第2の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がLであるNx1xLのボリュームを有する前記テスト用第2調整特徴マップを生成させることを特徴とする。
一実施例において、前記(III)プロセスにおいて、前記プロセッサは、(i)前記第2トランスポーズレイヤをもって、前記テスト用第2調整特徴マップを、N個のテスト用プロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップに変換させるか、(ii)前記分類レイヤをもって、前記テスト用第2調整特徴マップを、前記N個のテスト用プロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップに変換させることを特徴とする。
一実施例において、前記分類レイヤは、少なくとも一つのソフトマックス(Softmax)アルゴリズムを使用することを特徴とする。
一実施例において、前記検出レイヤは、少なくとも一つのNMS(Non−Maximum Suppression)アルゴリズムを使用することを特徴とする。
その他にも、本発明の方法を実行するためのコンピュータプログラムを記録するためのコンピュータ読取り可能な記録媒体がさらに提供される。
本発明は、コンボリューションレイヤのみでCNN基盤の物体検出器を具現することにより、入力イメージのサイズに関係なく入力イメージ内に位置する物体を検出することができる効果がある。
また、本発明は、コンボリューションレイヤのみでCNN基盤の物体検出器を具現することにより、FCレイヤを利用する場合に比べて特徴分類のための重み付け値の個数を最小化することができる他の効果がある。
また、本発明は、コンボリューションレイヤのみでCNN基盤の物体検出器を具現することにより、FCレイヤを利用する場合に比べて特徴分類のためのコンピューティング演算量を減少させ得るまた他の効果がある。
本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうちの一部に過ぎず、本発明が属する技術分野でおいて通常の知識を有する者(以下「通常の技術者」)にとっては、発明的作業が行われることなくこの図面に基づいて他の図面が得られ得る。
本発明の一実施例によるCNN基盤の物体検出器を学習する学習装置を簡略に示したものである。 本発明の一実施例によるCNN基盤の物体検出器を学習する方法を簡略に示したものである。 本発明の一実施例によるCNN基盤の物体検出器を学習する方法においてプーリングレイヤによって生成されたプロポーザルごとのプーリング済み特徴マップを簡略に示したものである。 本発明の一実施例によるCNN基盤の物体検出器を学習する方法において、プロポーザルごとのプーリング済み特徴マップを利用して生成された統合特徴マップを簡略に示したものである。 本発明の一実施例による、第1の1x1コンボリューションレイヤをもって、統合特徴マップに対してコンボリューション演算を少なくとも一回適用させて生成された第1調整特徴マップを簡略に示したものである。 本発明の一実施例による、第2の1x1コンボリューションレイヤをもって、第1調整特徴マップに対してコンボリューション演算を適用させて生成された第2調整特徴マップを簡略に示したものである。 本発明の一実施例によるCNN基盤の物体検出器を学習する方法において、第2調整特徴マップを利用して生成されたプロポーザルごとのピクセル別特徴マップを簡略に示したものである。 本発明の一実施例によるCNN基盤の物体検出器をテストするテスト装置を簡略に示したものである。 本発明の一実施例によるCNN基盤の物体検出器をテストする方法を簡略に示したものである。
後述する本発明に関する詳細な説明は、本発明の各目的、各技術的解法、及び各長所を明らかにするために本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、通常の技術者が本発明を実施することができるように十分詳細に説明される。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
さらに、本発明は、本明細書に示された実施例のすべての可能な組合せを網羅する。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施例に関連して本発明の精神及び範囲を逸脱せず、かつ他の実施例で具現され得る。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の精神及び範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述の詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は適切に説明されるのであれば、その請求項が主張することと均等な全ての範囲とともに添付された請求項によってのみ限定される。図面において類似の参照符号は、様々な側面にわたって同一であるか、又は類似の機能を指す。
以下、本発明の属する技術分野において通常の知識を有する者が本発明を容易に実施するようにするために、本発明の好ましい実施例について、添付された図面を参照して詳細に説明することとする。
図1は、本発明の一実施例によるCNN基盤の物体検出器を学習する学習装置100を簡略に示したものであって、図1を参照すると、学習装置100は通信部110とプロセッサ120とを含むことができる。
先ず、通信部110は、少なくとも一つのトレーニングイメージを受信することができる。
この際、トレーニングイメージはデータベース130に格納されていてもよく、データベース130にはトレーニングイメージにそれぞれ対応する少なくとも一つの物体それぞれに対するクラス情報の少なくとも一つの原本正解(Ground Truth)及び前記物体に対する位置情報の少なくとも一つの原本正解が 格納されていてもよい。
また、学習装置は、次のプロセスを遂行するためのコンピュータ読取り可能ななインストラクション(Instruction)を格納することができるメモリ115をさらに含むことができる。一実施例によると、プロセッサ、メモリ、媒体等は統合プロセッサ(Integrated Processor)として統合され得る。
次に、プロセッサ120は、(i)少なくとも一つのコンボリューションレイヤをもって、トレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つの初期特徴マップ(Initial Feature Map)を生成させるプロセス、(ii)RPNをもって、初期特徴マップを利用してトレーニングイメージ内に位置する物体それぞれに対応する少なくとも一つのプロポーザルを生成させるプロセス、及び(iii)(iii−1)プーリングレイヤをもって、初期特徴マップ上でプロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を適用させてプロポーザルごとのプーリング済み特徴マップを生成させ、第1トランスポーズレイヤ(Transposing Layer)をもって、プロポーザルごとのプーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれをプロポーザルごとにコンカチネート(Concatenating)して統合特徴マップ(Integrated Feature Map)を生成させるか、(iii−2)プーリングレイヤをもって、初期特徴マップ上でプロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させてプロポーザルごとのプーリング済み特徴マップを生成し、プーリングレイヤをもって、プロポーザルごとのプーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれをプロポーザルごとにコンカチネートして統合特徴マップを生成させるプロセスを遂行することができる。
また、プロセッサ120は、第1の1x1コンボリューションレイヤをもって、統合特徴マップに対して1x1コンボリューション演算を適用させてボリューム(Volume)が調整された第1調整特徴マップを生成させ、第2の1x1コンボリューションレイヤをもって、第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整された第2調整特徴マップ500Bを生成させるプロセスを遂行することができる。その後、プロセッサ120は(i)第2トランスポーズレイヤをもって、第2調整特徴マップ500Bをピクセルごとに分離してプロポーザルごとのピクセル別特徴マップ(Pixel−Wise Feature Map)を生成させ、分類レイヤをもって、プロポーザルごとのピクセル別特徴マップを利用してプロポーザルそれぞれに関する物体クラス情報を生成させるか、(ii)分類レイヤをもって、第2調整特徴マップ500Bをピクセルごとに分離してプロポーザルごとのピクセル別特徴マップを生成し、プロポーザルごとのピクセル別特徴マップを利用してプロポーザルそれぞれに関する物体クラス情報を生成させるプロセスを遂行することができる。
そして、プロセッサ120は、検出レイヤ(Detecting Layer)をもって、物体クラス情報とプロポーザルごとのピクセル別特徴マップとを参照してトレーニングイメージ内に位置する物体に対応する物体検出情報を生成させ、検出ロスレイヤをもって、物体検出情報とこれに対応する原本正解とを参照して少なくとも一つの物体検出ロスを算出させることにより、物体検出ロスをバックプロパゲーションして第2の1x1コンボリューションレイヤ、第1の1x1コンボリューションレイヤ、及びコンボリューションレイヤのうち少なくとも一部のパラメータを学習するプロセスを遂行することができる。
また、プロセッサ120は、RPNロスレイヤをもって、前記プロポーザルとこれに対応する原本正解とを参照して少なくとも一つのRPNロスを算出させることにより、RPNロスをバックプロパゲーションしてRPNのパラメータの少なくとも一部を学習することができる。
ここで、物体検出ロス及びRPNロスによるバックプロパゲーションの時間的順序には制限がないであろう。
この際、本発明の一実施例による学習装置100は、コンピューティング装置であって、プロセッサを搭載して演算能力を備えた装置であればいくらでも本発明に係る学習装置100として採択され得る。また、図1では一つの学習装置100のみを示したが、これに限定されず、学習装置は複数個に分けて役割を遂行することもできる。
このように構成された本発明の一実施例による学習装置100を利用してCNN基盤の物体検出器のパラメータを学習する方法を、図2を参照して説明すると以下のとおりである。
まず、トレーニングイメージが入力されると、学習装置100が、コンボリューションレイヤ121をもって、トレーニングイメージをコンボリューションに対してコンボリューション演算を適用させて初期特徴マップを出力させる。この際、コンボリューションレイヤ121は、トレーニングイメージ上に順次コンボリューション演算を適用するために単一コンボリューションレイヤ又は複数個のコンボリューションレイヤを含むことができる。
そして、学習装置100は、RPN122をもって、初期特徴マップを利用してトレーニングイメージ内に位置する物体に対応する少なくとも一つのプロポーザルを生成させることができる。この際、RPN122は、トレーニングイメージ内に物体が位置するものと推定される候補領域に対応するROI候補を生成することができ、ROI候補のうち物体が位置するものと判断される確率が高い特定のROI候補をプロポーザルとして出力することができる。
次に、学習装置100は、プーリングレイヤ123をもって、初期特徴マップ上でプロポーザルそれぞれに対応するそれぞれの領域をプーリングしてプロポーザルごとのプーリング済み特徴マップを生成させることができる。
一実施例として、図3を参照すると、プロポーザルの個数をNとし、プロポーザルごとのプーリング済み特徴マップの幅をM1、高さをM2とし、プロポーザルごとのプーリング済み特徴マップのチャンネル個数をJとする場合、プロポーザルごとのプーリング済み特徴マップP1、P2、…、PNはそれぞれM1xM2xJのボリュームサイズを有することができる。
次に、学習装置100は、第1トランスポーズレイヤ124をもって、プーリングレイヤ123から出力されたプロポーザルごとのプーリング済み特徴マップ上の対応する同一の各位置それぞれのピクセルをプロポーザルごとにコンカチネートしてピクセル別特徴マップを生成させることができる。
一例として、図3と図4を参照すると、図3におけるプロポーザルごとのそれぞれのプーリング済み特徴マップP1、P2、…、PN上における最も左側上端のピクセルをそれぞれP1F11、P2F11、…、PNF11とする場合、P1F11、P2F11、…、PNF11をコンカチネートして、図4ですべてのチャンネルのうち最初のチャンネルに対応する最も前面にあるラインのように幅N、高さ1である統合特徴マップ400の第1部分が生成されるようにし、この過程をピクセルの残りの部分にも繰り返し実行する。そして、プロポーザルごとのプーリング済み特徴マップP1、P2、…、PNそれぞれにおけるピクセル個数と同一にチャンネル個数がM1xM2xJである統合特徴マップ400を生成することができる。
先に説明したように、学習装置100が、第1トランスポーズレイヤ124をもって、プーリングレイヤ123から出力されたプロポーザルごとのプーリング済み特徴マップP1、P2、…、PNを利用して統合特徴マップ400を生成させることができる。他の例として、学習装置100が第1トランスポーズレイヤ124を使用せずに、プーリングレイヤ123をもって統合特徴マップを生成させることができる。つまり、学習装置100は、プーリングレイヤ123をもって、初期特徴マップ上でプロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を適用させてプロポーザルごとのプーリング済み特徴マップP1、P2、…、PNを生成させ、プロポーザルごとのプーリング済み特徴マップP1、P2、…、PN上の対応する同一の各位置それぞれのピクセルをプロポーザルごとにコンカチネートさせて統合特徴マップ400を生成させることができる。
次に、学習装置100は、第1の1x1コンボリューションレイヤ125をもって、統合特徴マップ400に対して1x1コンボリューション演算を適用させてボリューム(Volume)が調整された第1調整特徴マップ500Aを生成させ、第2の1x1コンボリューションレイヤ126をもって、第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整された第2調整特徴マップ500Bを生成させるプロセスを遂行することができる。
一例として、図5aと図5bを参照すると、第1の1x1コンボリューションレイヤ125のフィルタの個数をKとし、第2の1x1コンボリューションレイヤ126のフィルタの個数をLとする場合、学習装置100は第1の1x1コンボリューションレイヤ125をもって、図4の統合特徴マップ400に対して1x1コンボリューション演算を適用させて図5aのように幅N、高さ1、チャンネル個数KであるNx1xKのボリューム(Volume)を有する第1調整特徴マップ500Aを生成させ、第2の1x1コンボリューションレイヤ126をもって、第1調整特徴マップ500Aに対して1x1コンボリューション演算を適用させて図5bのように幅N、高さ1、チャンネル個数LであるNx1xLのボリュームを有する第2調整特徴マップ500Bを生成させることができる。
次に、学習装置100は、第2トランスポーズレイヤ127をもって、第2調整特徴マップ500Bをピクセルごとに分離してプロポーザルごとのピクセル別特徴マップPW1、PW2、…及びPWNを生成させることができる。
一例として、図6を参照すると、学習装置100は第2トランスポーズレイヤ127をもって、図5bのように幅N、高さ1、チャンネル個数Lであるボリュームを有する第2調整特徴マップ500Bをピクセルごとに分離してプロポーザルごとに幅1、高さ1、チャンネル個数Lであるピクセル別特徴マップPW1、PW2、…及びPWNを生成する。
次に、学習装置100は、分類レイヤ128をもって、プロポーザルごとのピクセル別特徴マップPW1、PW2、…、及びPWNを利用してプロポーザルそれぞれに関する物体クラス情報を生成させることができる。この際、分類レイヤ128は、少なくとも一つのソフトマックス(Softmax)アルゴリズムを使用することができ、それぞれのプロポーザルが検出しようとするそれぞれの物体と一致するものと判断される確率情報を生成させることができる。
先に説明したように、第2トランスポーズレイヤ127は、第2調整特徴マップ500Bを利用してプロポーザルごとのピクセル別特徴マップPW1、PW2、…、及びPWNを生成することができる。他の例として、分類レイヤ128は第2トランスポーズレイヤ127を使用せずに、第2調整特徴マップ500Bを利用してプロポーザルごとのピクセル別特徴マップを生成することができる。つまり、学習装置100は、分類レイヤ128をもって、第2調整特徴マップ500Bをピクセルごとに分離してプロポーザルごとのピクセル別特徴マップPW1、PW2、…、及びPWNを生成させ、分類レイヤ128をもって、プロポーザルごとのピクセル別特徴マップPW1、PW2、…及びPWNを利用してプロポーザルそれぞれに関する物体クラス情報を生成させることができる。
次に、学習装置100は、検出レイヤ129をもって、物体クラス情報とプロポーザルごとのピクセル別特徴マップPW1、PW2、…及びPWNを参照してトレーニングイメージ内に位置する物体に対応する物体検出情報を生成させることができる。この際、検出レイヤ129は、NMS(Non−Maximum Suppression)アルゴリズムを使用することができ、単一の物体に複数のプロポーザルがタグ付けされた場合、そのうち確率の高い少なくとも一つの特定プロポーザルを選択して単一の物体に対応する物体検出情報として出力することができる。
次に、学習装置100は、検出ロスレイヤ132をもって、物体検出情報とこれに対応する原本正解とを参照して少なくとも一つの物体検出ロスを生成させることにより、物体検出ロスをバックプロパゲーションして第2の1x1コンボリューションレイヤ126、第1の1x1コンボリューションレイヤ125、及びコンボリューションレイヤ121のうち少なくとも一部のパラメータを調整することができる。
また、学習装置100は、RPN122に対応する少なくとも一つのRPNロスレイヤ131をもって、前記プロポーザルとこれに対応する原本正解とを参照して少なくとも一つのRPNロスを算出させることにより、RPNロスをバックプロパゲーションしてRPN122の少なくとも一部のパラメータを調整することができる。
前記のように、本発明の一実施例によるCNN基盤の物体検出器は、コンボリューションレイヤのみで構成されているので、従来のFCレイヤ(Fully Connected Layer)を利用したものとは異なって、FCレイヤに入力されるイメージのサイズに関係なしに入力イメージ内の物体を検出することができる。また、本発明の一実施例によるCNN基盤の物体検出器は、1x1コンボリューションのLC演算(Locally Connected Operation)を適用することにより、従来のFCレイヤのFC演算に比べてコンピューティング演算量を減少させ得るようになる。
図7は、本発明の一実施例によるCNN基盤の物体検出器をテストするテスト装置200を簡略に示したものであって、図7を参照すると、テスト装置200は通信部210とプロセッサ220とを含むことができる。
また、テスト装置は、次のプロセスを遂行するためのコンピュータ読取り可能なインストラクション(Instruction)を格納することができるメモリ215をさらに含むことができる。一実施例によると、プロセッサ、メモリ、媒体等は、統合プロセッサ(Integrated Processor)として統合され得る。
参考までに、以下の説明で混同を避けるために、「学習用」という文句は前述の学習プロセスに関する用語について追加され、「テスト用」という文句はテストプロセスに関する用語について追加される。
先ず、通信部210は、少なくとも一つのテストイメージを取得することができる。
この際、本発明の一実施例によるCNN基盤の物体検出器は、図1ないし図6を参照して説明した学習方法によって学習された状態であり得る。
つまり、少なくとも一つのトレーニングイメージが取得されると、学習装置は(a)(1)(i)少なくとも一つのコンボリューションレイヤをもって、トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つの学習用初期特徴マップ(Initial Feature Map)を生成させ、(ii)RPNをもって、学習用初期特徴マップを利用してトレーニングイメージ内に位置する少なくとも一つの学習用物体それぞれに対応する少なくとも一つの学習用プロポーザルを生成させ、(iii)(iii−1)プーリングレイヤをもって、学習用初期特徴マップ上で学習用プロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を適用させて学習用プロポーザルごとの学習用プーリング済み特徴マップを生成させ、第1トランスポーズレイヤ(Transposing Layer)をもって、学習用プロポーザルごとの学習用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを学習用プロポーザルごとにコンカチネート(Concatenating)して学習用統合特徴マップ(Integrated Feature Map)を生成させるか、(iii−2)プーリングレイヤをもって、学習用初期特徴マップ上で学習用プロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させて学習用プロポーザルごとの学習用プーリング済み特徴マップを生成し、プーリングレイヤをもって、学習用プロポーザルごとの学習用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを学習用プロポーザルごとにコンカチネートして学習用統合特徴マップを生成させるプロセス;(b)第1の1x1コンボリューションレイヤをもって、学習用統合特徴マップに対して1x1コンボリューション演算を適用してボリューム(Volume)が調整された学習用第1調整特徴マップを生成させ、第2の1x1コンボリューションレイヤをもって、学習用第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整された学習用第2調整特徴マップを生成させるプロセス;(c)(c1)(i)第2トランスポーズレイヤをもって、学習用第2調整特徴マップをピクセルごとに分離して学習用プロポーザルごとの学習用ピクセル別特徴マップ(Pixel−Wise Feature Map)を生成させ、分類レイヤをもって、学習用プロポーザルごとの学習用ピクセル別特徴マップを利用して学習用プロポーザルそれぞれに対する学習用物体クラス情報を生成させるか、(ii)分類レイヤをもって、学習用第2調整特徴マップをピクセルごとに分離して学習用プロポーザルごとの学習用ピクセル別特徴マップを生成し、分類レイヤをもって、学習用プロポーザルごとの学習用ピクセル別特徴マップを利用して学習用プロポーザルそれぞれに対する学習用物体クラス情報を生成させ、(c2)検出レイヤ(Detecting Layer)をもって、学習用物体クラス情報と学習用プロポーザルごとの学習用ピクセル別特徴マップとを参照してトレーニングイメージ内に位置する学習用物体に対応する学習用物体検出情報を生成させ、(c3)検出ロスレイヤをもって、学習用物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つの物体検出ロスを算出させることにより、物体検出ロスをバックプロパゲーションして第2の1x1コンボリューションレイヤ、第1の1x1コンボリューションレイヤ、及びコンボリューションレイヤのうち少なくとも一部のパラメータを学習するプロセスを遂行した状態であり得る。
また、学習装置は、RPNロスレイヤをもって、学習用プロポーザルとこれに対応する原本正解とを参照して少なくとも一つのRPNロスを算出させることにより、RPNロスをバックプロパゲーションしてRPNのパラメータの少なくとも一部を学習した状態であり得る。
次に、プロセッサ220は、(i)コンボリューションレイヤをもって、少なくとも一つのテストイメージに対してコンボリューション演算を適用させて少なくとも一つのテスト用初期特徴マップ(Initial Feature Map)を生成させ、(ii)RPNをもって、テスト用初期特徴マップを利用してテストイメージ内に位置する少なくとも一つのテスト用物体に対応する少なくとも一つのテスト用プロポーザルを生成させ、(iii)(iii−1)プーリングレイヤをもって、テスト用初期特徴マップ上でテスト用プロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を適用させてテスト用プロポーザルごとのテスト用プーリング済み特徴マップを生成するようにし、第1トランスポーズレイヤ(Transposing Layer)をもって、テスト用プロポーザルごとのテスト用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれをテスト用プロポーザルごとにコンカチネート(Concatenating)してテスト用統合特徴マップ(Integrated Feature Map)を生成させるか、(iii−2)プーリングレイヤをもって、テスト用初期特徴マップ上でテスト用プロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させてテスト用プロポーザルごとのテスト用プーリング済み特徴マップを生成し、プーリングレイヤをもって、テスト用プロポーザルごとのテスト用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれをテスト用プロポーザルごとにコンカチネートしてテスト用統合特徴マップを生成させるプロセスを遂行することができる。そして、プロセッサ220は、第1の1x1コンボリューションレイヤをもって、テスト用統合特徴マップに対して1x1コンボリューション演算を適用してボリューム(Volume)が調整されたテスト用第1調整特徴マップを生成させ、第2の1x1コンボリューションレイヤをもって、テスト用第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整されたテスト用第2調整特徴マップを生成させるプロセスを遂行することができる。以後、プロセッサ220は、(i)第2トランスポーズレイヤをもって、テスト用第2調整特徴マップをピクセルごとに分離してテスト用プロポーザルごとのテスト用ピクセル別特徴マップ(Pixel−Wise Feature Map)を生成させ、分類レイヤをもって、テスト用プロポーザルごとのテスト用ピクセル別特徴マップを利用してテスト用プロポーザルそれぞれに関するテスト用物体クラス情報を生成させるか、(ii)分類レイヤをもって、テスト用第2調整特徴マップをピクセルごとに分離してテスト用プロポーザルごとのテスト用ピクセル別特徴マップを生成し、分類レイヤをもって、テスト用プロポーザルごとのテスト用ピクセル別特徴マップを利用してテスト用プロポーザルそれぞれに関するテスト用物体クラス情報を生成させるプロセスを遂行することができる。そして、プロセッサ220は、検出レイヤ(Detecting Layer)をもって、テスト用物体クラス情報とテスト用プロポーザルごとのテスト用ピクセル別特徴マップとを参照してテストイメージ内に位置するテスト用物体に対応するテスト用物体検出情報を生成させることができる。
この際、本発明の一実施例によるテスト装置200は、コンピューティング装置であって、プロセッサを搭載して演算能力を備えた装置であればいくらでも本発明によるテスト装置200として採択され得る。また、図7では一つのテスト装置200のみを示したが、これに限定されず、テスト装置は複数個に分けて役割を遂行することもできる。
このように構成された本発明の一実施例によるテスト装置200を利用してCNN基盤の物体検出器のパラメータをテストする方法を、図8を参照して説明すると以下のとおりである。以下の説明において、図1ないし図6を参照して説明した学習方法から容易に理解可能な部分については詳細な説明を省略することとする。
まず、図1ないし図6を参照して説明した学習方法によってコンボリューションレイヤ221、RPN222、第1の1x1コンボリューションレイヤ225、及び第2の1x1コンボリューションレイヤ226の少なくとも一部のパラメータが学習された状態で、テストイメージが入力されると、テスト装置200がコンボリューションレイヤ221をもって、テストイメージに対してコンボリューション演算を適用させてテスト用初期特徴マップを生成させる。この際、コンボリューションレイヤ221は、テストイメージに対して順次にコンボリューション演算を適用するために単一のコンボリューションレイヤまたは複数個のコンボリューションレイヤであり得る。
そして、テスト装置200は、RPN222をもって、テスト用初期特徴マップを利用してテストイメージ内に位置するテスト用物体それぞれに対応する少なくとも一つのテスト用プロポーザルを生成させることができる。この際、RPN222は、テストイメージ内にテスト用物体が位置するものと推定されるテスト用候補領域に対応するテスト用ROI候補を生成させ、テスト用ROI候補のうちテスト用物体が位置するものと判断される確率が高い特定のテスト用ROI候補をテスト用プロポーザルとして出力することができる。
次に、テスト装置200は、プーリングレイヤ223をもって、テスト用初期特徴マップ上でテスト用プロポーザルそれぞれに対応する領域それぞれをプーリングさせてテスト用プロポーザルごとのテスト用プーリング済み特徴マップを生成させることができる。
次に、テスト装置200は、第1トランスポーズレイヤ224をもって、プーリングレイヤ223から出力されたテスト用プロポーザルごとのテスト用プーリング済み特徴マップ上の対応する同一の各位置それぞれのピクセルをテスト用プロポーザルごとにコンカチネートしてテスト用統合特徴マップを出力させることができる。
一方、前記では、テスト装置200が第1トランスポーズレイヤ224をもって、プーリングレイヤ223から出力されたテスト用プロポーザルごとのテスト用プーリング済み特徴マップを利用してテスト用統合特徴マップを生成させた。その他の例として、テスト装置200は、第1トランスポーズレイヤ224を使用せずに、プーリングレイヤ223をもってテスト用統合特徴マップを生成させることができる。つまり、テスト装置200は、プーリングレイヤ223をもって、テスト用初期特徴マップ上でテスト用プロポーザルそれぞれに対応する領域それぞれをプーリングしてテスト用プロポーザルごとのテスト用プーリング済み特徴マップを生成させ、テスト用プロポーザルごとのテスト用プーリング済み特徴マップ上の対応する同一の各位置それぞれのピクセルをテスト用プロポーザルごとにコンカチネートしてテスト用統合特徴マップを生成させることができる。
次に、テスト装置200は、第1の1x1コンボリューションレイヤ225をもって、テスト用統合特徴マップに対して1x1コンボリューション演算を適用してボリューム(Volume)が調整されたテスト用第1調整特徴マップを生成させ、第2の1x1コンボリューションレイヤ226をもって、テスト用第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整されたテスト用第2調整特徴マップを生成させるプロセスを遂行することができる。
次に、テスト装置200は、第2トランスポーズレイヤ227をもって、テスト用第2調整特徴マップをピクセルごとに分離してテスト用プロポーザルごとのテスト用ピクセル別特徴マップを生成させることができる。
次に、テスト装置200は、分類レイヤ228をもって、テスト用プロポーザルごとのテスト用ピクセル別特徴マップを利用してテスト用プロポーザルそれぞれに対するテスト用物体クラス情報を生成させることができる。この際、分類レイヤ228は、ソフトマックスアルゴリズムを使用することができ、それぞれのテスト用プロポーザルが検出しようとするテスト用物体に対応するのかに関する確率情報を生成させることができる。
一方、前記においては、第2トランスポーズレイヤ227はテスト用第2調整特徴マップを利用してテスト用プロポーザルごとのピクセル別特徴マップを生成することができる。その他の例として、第2トランスポーズレイヤ227を使用せずに、分類レイヤ228がテスト用第2調整特徴マップを利用してテスト用プロポーザルごとのテスト用ピクセル別特徴マップを生成させることができる。つまり、テスト装置200は、分類レイヤ228をもって、テスト用第2調整特徴マップをピクセルごとに分離してテスト用プロポーザルごとのテスト用ピクセル別特徴マップを生成させ、分類レイヤをもって、テスト用プロポーザルごとのテスト用ピクセル別特徴マップを利用してテスト用プロポーザルそれぞれに対するテスト用物体クラス情報を生成させることができる。
次に、テスト装置200は、検出レイヤ229をもって、テスト用物体クラス情報とテスト用プロポーザルごとのテスト用ピクセル別特徴マップとを参照してテストイメージ内に位置するテスト用物体に対応するテスト用物体検出情報を生成させることができる。この際、検出レイヤ229は、NMS(Non−Maximum Suppression)アルゴリズムを使用することができ、単一のテスト用物体に複数のテスト用プロポーザルがタグ付けされた場合、そのうち確率が高い特定のテスト用プロポーザルを単一のテスト用物体に対応するテスト用物体検出情報として選択することができる。
本方法において、同一のプロセッサがコンボリューション演算及びFC演算を遂行するため、チップ(Chip)のサイズを小さくしてハードウェアを最適化してKPI(Key Performance Index、重要業績評価指標)を満たすことができる。したがって、半導体製作の過程において追加のラインを設置する必要がなく、電力節減、半導体ダイ(Die)内でFCモジュールの代わりに他のモジュールを設置するスペースが広くなるなどの長所がある。
また、以上にて説明された本発明による実施例は、多様なコンピュータの構成要素を通じて遂行することができるプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体はプログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計され、構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカル・ディスク(Floptical Disk)のような磁気−光メディア(Magneto−Optical Media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行される高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を実行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
以上にて本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば、係る記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。
100:学習装置
200:テスト装置
110、210:通信部
120、220:プロセッサ
130:データベース

Claims (28)

  1. CNN基盤の物体検出器のパラメータを学習する方法において、
    (a)少なくとも一つのトレーニングイメージが入力されると、学習装置が、(i)少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つの初期特徴マップ(Initial Feature Map)を生成させ、(ii)RPNをもって、前記初期特徴マップを利用して前記トレーニングイメージ内に位置する少なくとも一つの物体に対応する少なくとも一つのプロポーザルを生成させ、(iii)(iii−1)プーリングレイヤをもって、前記初期特徴マップ上で前記プロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を適用させて前記プロポーザルごとのプーリング済み特徴マップを生成させ、第1トランスポーズレイヤ(Transposing Layer)をもって、前記プロポーザルごとの前記プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記プロポーザルごとにコンカチネート(Concatenating)して統合特徴マップ(Integrated Feature Map)を生成させるか、(iii−2)前記プーリングレイヤをもって、前記初期特徴マップ上で前記プロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させて前記プロポーザルごとの前記プーリング済み特徴マップを生成し、前記プーリングレイヤをもって、前記プロポーザルごとの前記プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記プロポーザルごとにコンカチネートして前記統合特徴マップを生成させる段階;
    (b)前記学習装置が、第1の1x1コンボリューションレイヤをもって、前記統合特徴マップに対して1x1コンボリューション演算を適用させてボリューム(Volume)が調整された第1調整特徴マップを生成させ、第2の1x1コンボリューションレイヤをもって、前記第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整された第2調整特徴マップを生成させる段階;及び
    (c)前記学習装置が、(c1)(i)第2トランスポーズレイヤをもって、前記第2調整特徴マップをピクセルごとに分離して前記プロポーザルごとのピクセル別特徴マップ(Pixel−Wise Feature Map)を生成させ、分類レイヤをもって、前記プロポーザルごとの前記ピクセル別特徴マップを利用して前記プロポーザルそれぞれに関する物体クラス情報を生成させるか、(ii)前記分類レイヤをもって、前記第2調整特徴マップを前記ピクセルごとに分離して前記プロポーザルごとの前記ピクセル別特徴マップを生成し、前記プロポーザルごとの前記ピクセル別特徴マップを利用して前記プロポーザルそれぞれに対する前記物体クラス情報を生成させた後、(c2)検出レイヤ(Detecting Layer)をもって、前記物体クラス情報と前記プロポーザルごとの前記ピクセル別特徴マップとを参照して前記トレーニングイメージ内に位置する前記物体に対応する物体検出情報を生成させ、(c3)検出ロスレイヤをもって、前記物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つの物体検出ロスを算出させることで、前記物体検出ロスを利用したバックプロパゲーションを通じて前記第2の1x1コンボリューションレイヤ、前記第1の1x1コンボリューションレイヤ、及び前記コンボリューションレイヤのうち少なくとも一部のパラメータを学習する段階;
    を含むことを特徴とする学習方法。
  2. 前記(a)段階以後、
    前記学習装置は、RPNロスレイヤをもって、前記プロポーザルとこれに対応する原本正解とを参照して少なくとも一つのRPNロスを算出させることにより、前記RPNロスをバックプロパゲーションして前記RPNのパラメータの少なくとも一部を学習することを特徴とする請求項1に記載の学習方法。
  3. 前記プロポーザルの個数をNとし、前記プロポーザルごとの前記プーリング済み特徴マップの幅をM1、高さをM2とし、前記プロポーザルごとの前記プーリング済み特徴マップのチャンネル個数をJとする場合、
    前記(a)段階で、
    前記学習装置は、(i)前記第1トランスポーズレイヤをもって、前記プロポーザルごとの前記プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記統合特徴マップに変換させるようにするか、(ii)前記プーリングレイヤをもって、前記プロポーザルごとの前記プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記統合特徴マップに変換させるようにすることを特徴とする請求項1に記載の学習方法。
  4. 前記第1の1x1コンボリューションレイヤ内のフィルタの個数をKとし、前記第2の1x1コンボリューションレイヤ内のフィルタの個数をLとする場合、
    前記(b)段階で、
    前記学習装置は、
    前記第1の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がKであるNx1xKのボリュームを有する前記第1調整特徴マップ(Adjusted Feature Map)を生成させ、前記第2の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がLであるNx1xLのボリュームを有する前記第2調整特徴マップを生成させることを特徴とする請求項3に記載の学習方法。
  5. 前記(c)段階で、
    前記学習装置は、(i)前記第2トランスポーズレイヤをもって、前記第2調整特徴マップを、N個のプロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記プロポーザルごとの前記ピクセル別特徴マップに変換させるか、(ii)前記分類レイヤをもって、前記第2調整特徴マップを、前記N個のプロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記プロポーザルごとの前記ピクセル別特徴マップに変換させることを特徴とする請求項4に記載の学習方法。
  6. 前記分類レイヤは、少なくとも一つのソフトマックス(Softmax)アルゴリズムを使用することを特徴とする請求項1に記載の学習方法。
  7. 前記検出レイヤは、少なくとも一つのNMS(Non−Maximum Suppression)アルゴリズムを使用することを特徴とする請求項1に記載の学習方法。
  8. CNN基盤の物体検出器をテストする方法において、
    (a)学習装置は、(1)(i)少なくとも一つのコンボリューションレイヤをもって、少なくとも一つのトレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つの学習用初期特徴マップ(Initial Feature Map)を生成させ、(ii)RPNをもって、前記学習用初期特徴マップを利用して前記トレーニングイメージ内に位置する少なくとも一つの学習用物体に対応する少なくとも一つの学習用プロポーザルを生成させ、(iii)(iii−1)プーリングレイヤをもって、前記学習用初期特徴マップ上で前記学習用プロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を適用させて前記学習用プロポーザルごとの学習用プーリング済み特徴マップを生成させ、第1トランスポーズレイヤ(Transposing Layer)をもって、前記学習用プロポーザルごとの前記学習用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記学習用プロポーザルごとにコンカチネート(Concatenating)して学習用統合特徴マップ(Integrated Feature Map)を生成させるか、(iii−2)前記プーリングレイヤをもって、前記学習用初期特徴マップ上で前記学習用プロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させて前記学習用プロポーザルごとの前記学習用プーリング済み特徴マップを生成し、前記プーリングレイヤをもって、前記学習用プロポーザルごとの前記学習用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記学習用プロポーザルごとにコンカチネートして前記学習用統合特徴マップを生成させ、(2)第1の1x1コンボリューションレイヤをもって、前記学習用統合特徴マップに対して1x1コンボリューション演算を適用させてボリューム(Volume)が調整された学習用第1調整特徴マップを生成させ、第2の1x1コンボリューションレイヤをもって、前記学習用第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整された学習用第2調整特徴マップを生成させ、(3)(3−1)(i)第2トランスポーズレイヤをもって、前記学習用第2調整特徴マップをピクセルごとに分離して前記学習用プロポーザルごとの学習用ピクセル別特徴マップ(Pixel−Wise Feature Map)を生成させ、分類レイヤをもって、前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップを利用して前記学習用プロポーザルそれぞれに対する学習用物体クラス情報を生成させるか、(ii)前記分類レイヤをもって、前記学習用第2調整特徴マップを前記ピクセルごとに分離して前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップを生成し、前記分類レイヤをもって、前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップを利用して前記学習用プロポーザルそれぞれに対する前記学習用物体クラス情報を生成させた後、(3−2)検出レイヤ(Detecting Layer)をもって、前記学習用物体クラス情報と、前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップとを参照して前記トレーニングイメージ内に位置する前記学習用物体に対応する学習用物体検出情報を生成させ、(3−3)検出ロスレイヤをもって、前記学習用物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つの物体検出ロスを算出させることで、前記物体検出ロスをバックプロパゲーションして前記第2の1x1コンボリューションレイヤ、前記第1の1x1コンボリューションレイヤ、及び前記コンボリューションレイヤのうち少なくとも一部のパラメータを学習した状態で、少なくとも一つのテストイメージが入力されると、テスト装置が、(i)前記コンボリューションレイヤをもって、前記テストイメージに対してコンボリューション演算を適用させて少なくとも一つのテスト用初期特徴マップを生成させ、(ii)前記RPNをもって、前記テスト用初期特徴マップを利用して前記テストイメージ内に位置する少なくとも一つのテスト用物体に対応する少なくとも一つのテスト用プロポーザルを生成させ、(iii)(iii−1)前記プーリングレイヤをもって、前記テスト用初期特徴マップ上で前記テスト用プロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を適用させて前記テスト用プロポーザルごとのテスト用プーリング済み特徴マップを生成させ、前記第1トランスポーズレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記テスト用プロポーザルごとにコンカチネートしてテスト用統合特徴マップを生成させるか、(iii−2)前記プーリングレイヤをもって、前記テスト用初期特徴マップ上で前記テスト用プロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させて前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップを生成し、前記プーリングレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記テスト用プロポーザルごとにコンカチネートして前記テスト用統合特徴マップを生成させる段階;
    (b)前記テスト装置が、前記第1の1x1コンボリューションレイヤをもって、前記テスト用統合特徴マップに対して1x1コンボリューション演算を適用させてボリューム(Volume)が調整されたテスト用第1調整特徴マップを生成させ、前記第2の1x1コンボリューションレイヤをもって、前記テスト用第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整されたテスト用第2調整特徴マップを生成させる段階;及び
    (c)前記テスト装置が、(c1)(i)前記第2トランスポーズレイヤをもって、前記テスト用第2調整特徴マップをピクセルごとに分離して前記テスト用プロポーザルごとのテスト用ピクセル別特徴マップを生成させ、前記分類レイヤをもって、前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップを利用して前記テスト用プロポーザルそれぞれに関するテスト用物体クラス情報を生成させるか、(ii)前記分類レイヤをもって、前記テスト用第2調整特徴マップを前記ピクセルごとに分離して前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップを生成し、前記分類レイヤをもって、前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップを利用して前記テスト用プロポーザルそれぞれに対する前記テスト用物体クラス情報を生成させた後、(c2)前記検出レイヤをもって、前記テスト用物体クラス情報と前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップとを参照して前記テストイメージ内に位置する前記テスト用物体に対応するテスト用物体検出情報を生成させる段階;
    を含むことを特徴とするテスト方法。
  9. 前記(1)プロセス以後、
    前記学習装置は、RPNロスレイヤをもって、前記学習用プロポーザルとこれに対応する原本正解とを参照して少なくとも一つのRPNロスを算出させることで、前記RPNロスをバックプロパゲーションして前記RPNのパラメータの少なくとも一部を学習することを特徴とする請求項8に記載のテスト方法。
  10. 前記テスト用プロポーザルの個数をNとし、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップの幅をM1、高さをM2とし、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップのチャンネル個数をJとする場合、
    前記(a)段階で、
    前記テスト装置は、(i)前記第1トランスポーズレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記テスト用統合特徴マップに変換させるようにするか、(ii)前記プーリングレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記テスト用統合特徴マップに変換させるようにすることを特徴とする請求項8に記載のテスト方法。
  11. 前記第1の1x1コンボリューションレイヤ内のフィルタの個数をKとし、前記第2の1x1コンボリューションレイヤ内のフィルタの個数をLとする場合、
    前記(b)段階で、
    前記テスト装置は、
    前記第1の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がKであるNx1xKのボリュームを有する前記テスト用第1調整特徴マップ(Adjusted Feature Map)を生成させ、前記第2の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がLであるNx1xLのボリュームを有する前記テスト用第2調整特徴マップを生成させることを特徴とする請求項8に記載のテスト方法。
  12. 前記(c)段階で、
    前記テスト装置は、(i)前記第2トランスポーズレイヤをもって、前記テスト用第2調整特徴マップを、N個のテスト用プロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップに変換させるか、(ii)前記分類レイヤをもって、前記テスト用第2調整特徴マップを、前記N個のテスト用プロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップに変換させることを特徴とする請求項11に記載のテスト方法。
  13. 前記分類レイヤは、少なくとも一つのソフトマックス(Softmax)アルゴリズムを使用することを特徴とする請求項8に記載のテスト方法。
  14. 前記検出レイヤは、少なくとも一つのNMS(Non−Maximum Suppression)アルゴリズムを使用することを特徴とする請求項8に記載のテスト方法。
  15. CNN基盤の物体検出器のパラメータを学習する学習装置において、
    インストラクションを格納する少なくとも一つのメモリと、
    (I)(i)少なくとも一つのコンボリューションレイヤをもって、少なくとも一つのトレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つの初期特徴マップ(Initial Feature Map)を生成させ、(ii)RPNをもって、前記初期特徴マップを利用して前記トレーニングイメージ内に位置する少なくとも一つの物体に対応する少なくとも一つのプロポーザルを生成させ、(iii)(iii−1)プーリングレイヤをもって、前記初期特徴マップ上で前記プロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を少なくとも一回適用させて前記プロポーザルごとのプーリング済み特徴マップを生成させ、第1トランスポーズレイヤ(Transposing Layer)をもって、前記プロポーザルごとの前記プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記プロポーザルごとにコンカチネート(Concatenating)して統合特徴マップ(Integrated Feature Map)を生成させるか、(iii−2)前記プーリングレイヤをもって、前記初期特徴マップ上で前記プロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させて前記プロポーザルごとの前記プーリング済み特徴マップを生成し、前記プーリングレイヤをもって、前記プロポーザルごとの前記プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記プロポーザルごとにコンカチネートして前記統合特徴マップを生成させるプロセス、(II)第1の1x1コンボリューションレイヤをもって、前記統合特徴マップに対して1x1コンボリューション演算を適用させてボリューム(Volume)が調整された第1調整特徴マップを生成させ、第2の1x1コンボリューションレイヤをもって、前記第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整された第2調整特徴マップを生成させるプロセス、及び(III)(III−1)(i)第2トランスポーズレイヤをもって、前記第2調整特徴マップをピクセルごとに分離して前記プロポーザルごとのピクセル別特徴マップ(Pixel−Wise Feature Map)を生成させ、分類レイヤをもって、前記プロポーザルごとの前記ピクセル別特徴マップを利用して前記プロポーザルそれぞれに関する物体クラス情報を生成させるか、(ii)前記分類レイヤをもって、前記第2調整特徴マップを前記ピクセルごとに分離して前記プロポーザルごとの前記ピクセル別特徴マップを生成し、前記プロポーザルごとの前記ピクセル別特徴マップを利用して前記プロポーザルそれぞれに対する前記物体クラス情報を生成させた後、(III−2)検出レイヤ(Detecting Layer)をもって、前記物体クラス情報と、前記プロポーザルごとの前記ピクセル別特徴マップとを参照して前記トレーニングイメージ内に位置する前記物体に対応する物体検出情報を生成させ、(III−3)検出ロスレイヤをもって、前記物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つの物体検出ロスを算出させることで、前記物体検出ロスを利用したバックプロパゲーションを通じて前記第2の1x1コンボリューションレイヤ、前記第1の1x1コンボリューションレイヤ、及び前記コンボリューションレイヤのうち少なくとも一部のパラメータを学習するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
    を含むことを特徴とする学習装置。
  16. 前記(I)プロセス以後、
    前記プロセッサは、RPNロスレイヤをもって、前記プロポーザルとこれに対応する原本正解とを参照して少なくとも一つのRPNロスを算出させることにより、前記RPNロスをバックプロパゲーションして前記RPNのパラメータの少なくとも一部を学習することを特徴とする請求項15に記載の学習装置。
  17. 前記プロポーザルの個数をNとし、前記プロポーザルごとの前記プーリング済み特徴マップの幅をM1、高さをM2とし、前記プロポーザルごとの前記プーリング済み特徴マップのチャンネル個数をJとする場合、
    前記(I)プロセスで、
    前記プロセッサは、(i)前記第1トランスポーズレイヤをもって、前記プロポーザルごとの前記プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記統合特徴マップに変換させるようにするか、(ii)前記プーリングレイヤをもって、前記プロポーザルごとの前記プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記統合特徴マップに変換させるようにすることを特徴とする請求項15に記載の学習装置。
  18. 前記第1の1x1コンボリューションレイヤ内のフィルタの個数をKとし、前記第2の1x1コンボリューションレイヤ内のフィルタの個数をLとする場合、
    前記(II)プロセスにおいて、
    前記プロセッサは、前記第1の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がKであるNx1xKのボリュームを有する前記第1調整特徴マップ(Adjusted Feature Map)を生成させ、前記第2の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がLであるNx1xLのボリュームを有する前記第2調整特徴マップを生成させることを特徴とする請求項17に記載の学習装置。
  19. 前記(III)プロセスにおいて、
    前記プロセッサは、(i)前記第2トランスポーズレイヤをもって、前記第2調整特徴マップを、N個のプロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記プロポーザルごとの前記ピクセル別特徴マップに変換させるか、(ii)前記分類レイヤをもって、前記第2調整特徴マップを、前記N個のプロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記プロポーザルごとの前記ピクセル別特徴マップに変換させることを特徴とする請求項18に記載の学習装置。
  20. 前記分類レイヤは、少なくとも一つのソフトマックス(Softmax)アルゴリズムを使用することを特徴とする請求項15に記載の学習装置。
  21. 前記検出レイヤは、少なくとも一つのNMS(Non−Maximum Suppression)アルゴリズムを使用することを特徴とする請求項15に記載の学習装置。
  22. CNN基盤の物体検出器をテストするテスト装置において、
    インストラクションを格納する少なくとも一つのメモリと、
    学習装置は、(1)(i)少なくとも一つのコンボリューションレイヤをもって、少なくとも一つのトレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて少なくとも一つの学習用初期特徴マップ(Initial Feature Map)を生成させ、(ii)RPNをもって、前記学習用初期特徴マップを利用して前記トレーニングイメージ内に位置する少なくとも一つの学習用物体に対応する少なくとも一つの学習用プロポーザルを生成させ、(iii)(iii−1)プーリングレイヤをもって、前記学習用初期特徴マップ上で前記学習用プロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を適用させて前記学習用プロポーザルごとの学習用プーリング済み特徴マップを生成させ、第1トランスポーズレイヤ(Transposing Layer)をもって、前記学習用プロポーザルごとの前記学習用プーリング済み特徴マップ上の対応する同一の各位置それぞれのピクセルを前記学習用プロポーザルごとにコンカチネート(Concatenating)して学習用統合特徴マップ(Integrated Feature Map)を生成させるか、(iii−2)前記プーリングレイヤをもって、前記学習用初期特徴マップ上で前記学習用プロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させて前記学習用プロポーザルごとの前記学習用プーリング済み特徴マップを生成し、前記プーリングレイヤをもって、前記学習用プロポーザルごとの前記学習用プーリング済み特徴マップ上の対応する同一の各位置それぞれのピクセルを前記学習用プロポーザルごとにコンカチネートして前記学習用統合特徴マップを生成させ、(2)第1の1x1コンボリューションレイヤをもって、前記学習用統合特徴マップに対して1x1コンボリューション演算を適用させてボリューム(Volume)が調整された学習用第1調整特徴マップを生成させ、第2の1x1コンボリューションレイヤをもって、前記学習用第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整された学習用第2調整特徴マップを生成させ、(3)(3−1)(i)第2トランスポーズレイヤをもって、前記学習用第2調整特徴マップをピクセルごとに分離して前記学習用プロポーザルごとの学習用ピクセル別特徴マップ(Pixel−Wise Feature Map)を生成させ、分類レイヤをもって、前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップを利用して前記学習用プロポーザルそれぞれに対する学習用物体クラス情報を生成させるか、(ii)前記分類レイヤをもって、前記学習用第2調整特徴マップを前記ピクセルごとに分離して前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップを生成し、前記分類レイヤをもって、前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップを利用して前記学習用プロポーザルそれぞれに対する前記学習用物体クラス情報を生成させた後、(3−2)検出レイヤ(Detecting Layer)をもって、前記学習用物体クラス情報と、前記学習用プロポーザルごとの前記学習用ピクセル別特徴マップとを参照して前記トレーニングイメージ内に位置する前記学習用物体に対応する学習用物体検出情報を生成させ、(3−3)検出ロスレイヤをもって、前記学習用物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つの物体検出ロスを算出させることで、前記物体検出ロスをバックプロパゲーションして前記第2の1x1コンボリューションレイヤ、前記第1の1x1コンボリューションレイヤ、及び前記コンボリューションレイヤのうち少なくとも一部のパラメータを学習した状態で、(I)(i)前記コンボリューションレイヤをもって、少なくとも一つのテストイメージに対してコンボリューション演算を適用させて少なくとも一つのテスト用初期特徴マップを生成させ、(ii)前記RPNをもって、前記テスト用初期特徴マップを利用して前記テストイメージ内に位置する少なくとも一つのテスト用物体に対応する少なくとも一つのテスト用プロポーザルを生成させ、(iii)(iii−1)前記プーリングレイヤをもって、前記テスト用初期特徴マップ上で前記テスト用プロポーザルそれぞれに対応する領域それぞれに対してプーリング演算を適用させて前記テスト用プロポーザルごとのテスト用プーリング済み特徴マップを生成させ、前記第1トランスポーズレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記テスト用プロポーザルごとにコンカチネートしてテスト用統合特徴マップを生成させるか、(iii−2)前記プーリングレイヤをもって、前記テスト用初期特徴マップ上で前記テスト用プロポーザルそれぞれに対応するそれぞれの領域に対してプーリング演算を適用させて前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップを生成し、前記プーリングレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップ上の対応する同一の各位置のピクセルそれぞれを前記テスト用プロポーザルごとにコンカチネートして前記テスト用統合特徴マップを生成させるプロセス、(II)前記第1の1x1コンボリューションレイヤをもって、前記テスト用統合特徴マップに対して1x1コンボリューション演算を適用させてボリューム(Volume)が調整されたテスト用第1調整特徴マップを生成させ、前記第2の1x1コンボリューションレイヤをもって、前記テスト用第1調整特徴マップに対して1x1コンボリューション演算を適用させてボリュームが調整されたテスト用第2調整特徴マップを生成させるプロセス、及び(III)(III−1)(i)前記第2トランスポーズレイヤをもって、前記テスト用第2調整特徴マップをピクセルごとに分離して前記テスト用プロポーザルごとのテスト用ピクセル別特徴マップを生成させ、前記分類レイヤをもって、前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップを利用して前記テスト用プロポーザルそれぞれに関するテスト用物体クラス情報を生成させるか、(ii)前記分類レイヤをもって、前記テスト用第2調整特徴マップを前記ピクセルごとに分離して前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップを生成し、前記分類レイヤをもって、前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップを利用して前記テスト用プロポーザルそれぞれに対する前記テスト用物体クラス情報を生成させた後、(III−2)前記検出レイヤをもって、前記テスト用物体クラス情報と前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップとを参照して前記テストイメージ内に位置する前記テスト用物体に対応するテスト用物体検出情報を生成させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
    を含むことを特徴とするテスト装置。
  23. 前記(1)プロセス以後、
    前記学習装置は、RPNロスレイヤをもって、前記学習用プロポーザルとこれに対応する原本正解とを参照して少なくとも一つのRPNロスを算出させることで、前記RPNロスをバックプロパゲーションして前記RPNのパラメータの少なくとも一部を学習することを特徴とする請求項22に記載のテスト装置。
  24. 前記テスト用プロポーザルの個数をNとし、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップの幅をM1、高さをM2とし、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップのチャンネル個数をJとする場合、
    前記(I)プロセスで、
    前記プロセッサは、(i)前記第1トランスポーズレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記テスト用統合特徴マップに変換させるようにするか、(ii)前記プーリングレイヤをもって、前記テスト用プロポーザルごとの前記テスト用プーリング済み特徴マップを幅がN、高さが1、チャンネル個数がM1xM2xJである前記テスト用統合特徴マップに変換させるようにすることを特徴とする請求項22に記載のテスト装置。
  25. 前記第1の1x1コンボリューションレイヤ内のフィルタの個数をKとし、前記第2の1x1コンボリューションレイヤ内のフィルタの個数をLとする場合、
    前記(II)プロセスにおいて、
    前記プロセッサは、前記第1の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がKであるNx1xKのボリュームを有する前記テスト用第1調整特徴マップ(Adjusted Feature Map)を生成させ、前記第2の1x1コンボリューションレイヤをもって、幅がN、高さが1であり、チャンネル個数がLであるNx1xLのボリュームを有する前記テスト用第2調整特徴マップを生成させることを特徴とする請求項22に記載のテスト装置。
  26. 前記(III)プロセスにおいて、
    前記プロセッサは、(i)前記第2トランスポーズレイヤをもって、前記テスト用第2調整特徴マップを、N個のテスト用プロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップに変換させるか、(ii)前記分類レイヤをもって、前記テスト用第2調整特徴マップを、前記N個のテスト用プロポーザルそれぞれに対応する幅1、高さ1、チャンネル個数がLである1x1xLのボリュームを有する前記テスト用プロポーザルごとの前記テスト用ピクセル別特徴マップに変換させることを特徴とする請求項25に記載のテスト装置。
  27. 前記分類レイヤは、少なくとも一つのソフトマックス(Softmax)アルゴリズムを使用することを特徴とする請求項22に記載のテスト装置。
  28. 前記検出レイヤは、少なくとも一つのNMS(Non−Maximum Suppression)アルゴリズムを使用することを特徴とする請求項22に記載のテスト装置。
JP2020002334A 2019-01-23 2020-01-09 ハードウェア最適化に使用される1x1コンボリューションを利用したCNN基盤の物体検出器を学習する方法及び学習装置、これを利用したテスト方法及びテスト装置{LEARNING METHOD AND LEARNING DEVICE FOR OBJECT DETECTOR BASED ON CNN USING 1×1 CONVOLUTION TO BE USED FOR HARDWARE OPTIMIZATION, AND TESTING METHOD AND TESTING DEVICE USING THE SAME} Active JP6853592B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/254887 2019-01-23
US16/254,887 US10395140B1 (en) 2019-01-23 2019-01-23 Learning method and learning device for object detector based on CNN using 1×1 convolution to be used for hardware optimization, and testing method and testing device using the same

Publications (2)

Publication Number Publication Date
JP2020119541A JP2020119541A (ja) 2020-08-06
JP6853592B2 true JP6853592B2 (ja) 2021-03-31

Family

ID=67700703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020002334A Active JP6853592B2 (ja) 2019-01-23 2020-01-09 ハードウェア最適化に使用される1x1コンボリューションを利用したCNN基盤の物体検出器を学習する方法及び学習装置、これを利用したテスト方法及びテスト装置{LEARNING METHOD AND LEARNING DEVICE FOR OBJECT DETECTOR BASED ON CNN USING 1×1 CONVOLUTION TO BE USED FOR HARDWARE OPTIMIZATION, AND TESTING METHOD AND TESTING DEVICE USING THE SAME}

Country Status (5)

Country Link
US (1) US10395140B1 (ja)
EP (1) EP3686797A1 (ja)
JP (1) JP6853592B2 (ja)
KR (1) KR102328733B1 (ja)
CN (1) CN111476075B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10733511B1 (en) * 2019-01-30 2020-08-04 StradVision, Inc. Learning method and learning device for updating HD map by reconstructing 3D space by using depth estimation information and class information on each object, which have been acquired through V2X information integration technique, and testing method and testing device using the same
US10970598B1 (en) * 2020-05-13 2021-04-06 StradVision, Inc. Learning method and learning device for training an object detection network by using attention maps and testing method and testing device using the same

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1000786A (en) 1910-10-10 1911-08-15 Frank H Darrow Metallic boat.
US6413949B1 (en) * 1995-06-07 2002-07-02 D-Pharm, Ltd. Prodrugs with enhanced penetration into cells
US9418319B2 (en) * 2014-11-21 2016-08-16 Adobe Systems Incorporated Object detection using cascaded convolutional neural networks
US9928410B2 (en) * 2014-11-24 2018-03-27 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognizer
US10410096B2 (en) * 2015-07-09 2019-09-10 Qualcomm Incorporated Context-based priors for object detection in images
US9965719B2 (en) * 2015-11-04 2018-05-08 Nec Corporation Subcategory-aware convolutional neural networks for object detection
US20170124409A1 (en) * 2015-11-04 2017-05-04 Nec Laboratories America, Inc. Cascaded neural network with scale dependent pooling for object detection
US10002313B2 (en) * 2015-12-15 2018-06-19 Sighthound, Inc. Deeply learned convolutional neural networks (CNNS) for object localization and classification
US9858496B2 (en) * 2016-01-20 2018-01-02 Microsoft Technology Licensing, Llc Object detection and classification in images
WO2017139927A1 (en) * 2016-02-17 2017-08-24 Intel Corporation Region proposal for image regions that include objects of interest using feature maps from multiple layers of a convolutional neural network model
US20180039853A1 (en) 2016-08-02 2018-02-08 Mitsubishi Electric Research Laboratories, Inc. Object Detection System and Object Detection Method
US10354362B2 (en) * 2016-09-08 2019-07-16 Carnegie Mellon University Methods and software for detecting objects in images using a multiscale fast region-based convolutional neural network
US10387740B2 (en) * 2016-10-10 2019-08-20 Gyrfalcon Technology Inc. Object detection and recognition apparatus based on CNN based integrated circuits
US10198671B1 (en) * 2016-11-10 2019-02-05 Snap Inc. Dense captioning with joint interference and visual context
AU2017361061B2 (en) * 2016-11-15 2022-02-03 Magic Leap, Inc. Deep learning system for cuboid detection
US10262237B2 (en) * 2016-12-08 2019-04-16 Intel Corporation Technologies for improved object detection accuracy with multi-scale representation and training
CN106599939A (zh) * 2016-12-30 2017-04-26 深圳市唯特视科技有限公司 一种基于区域卷积神经网络的实时目标检测方法
US20180211403A1 (en) * 2017-01-20 2018-07-26 Ford Global Technologies, Llc Recurrent Deep Convolutional Neural Network For Object Detection
US20180336469A1 (en) * 2017-05-18 2018-11-22 Qualcomm Incorporated Sigma-delta position derivative networks
JP6833630B2 (ja) 2017-06-22 2021-02-24 株式会社東芝 物体検出装置、物体検出方法およびプログラム
US10474908B2 (en) * 2017-07-06 2019-11-12 GM Global Technology Operations LLC Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation
US10733755B2 (en) * 2017-07-18 2020-08-04 Qualcomm Incorporated Learning geometric differentials for matching 3D models to objects in a 2D image
JP7149692B2 (ja) * 2017-08-09 2022-10-07 キヤノン株式会社 画像処理装置、画像処理方法
US10169679B1 (en) * 2017-10-13 2019-01-01 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same
US10007865B1 (en) * 2017-10-16 2018-06-26 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same
CN108052881A (zh) * 2017-11-30 2018-05-18 华中科技大学 一种实时检测施工现场图像中多类实体对象的方法及设备
US10229346B1 (en) * 2018-09-04 2019-03-12 StradVision, Inc. Learning method, learning device for detecting object using edge image and testing method, testing device using the same
US10223614B1 (en) * 2018-09-04 2019-03-05 StradVision, Inc. Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same

Also Published As

Publication number Publication date
JP2020119541A (ja) 2020-08-06
CN111476075B (zh) 2023-08-18
CN111476075A (zh) 2020-07-31
EP3686797A1 (en) 2020-07-29
KR20200091791A (ko) 2020-07-31
KR102328733B1 (ko) 2021-11-22
US10395140B1 (en) 2019-08-27

Similar Documents

Publication Publication Date Title
KR102337376B1 (ko) 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치
JP6964353B2 (ja) ハードウェア最適化に使用されるイメージ認識のための1x1コンボリューションを利用したCNN学習方法及び学習装置、それを利用したテスト方法及びテスト装置{LEARNING METHOD AND LEARNING DEVICE FOR CONVOLUTIONAL NEURAL NETWORK USING 1×1 CONVOLUTION FOR IMAGE RECOGNITION TO BE USED FOR HARDWARE OPTIMIZATION, AND TESTING METHOD AND TESTING DEVICE USING THE SAME}
JP6858382B2 (ja) ハードウェア最適化に使用される1xHコンボリューションを利用したCNN基盤の物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置
JP6924517B2 (ja) ディープニューラルネットワーク基盤の多重パッチ組み合わせを利用して顔を認識し、極度の状況でフォールトトレランス及びフラクチュエーションロバスト性を向上させる方法
JP6957050B2 (ja) モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same}
JP6912835B2 (ja) 自律走行自動車のレベル4を満たすために要求されるhdマップアップデートに利用される、少なくとも一つのアダプティブロス重み付け値マップを利用したアテンションドリブン・イメージセグメンテーション学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置
JP6857368B2 (ja) Cnn学習方法及び学習装置、これを利用したテスト方法及びテスト装置
JP6850046B2 (ja) 重要業績評価指標のようなユーザ要求事項に適したターゲット物体予測ネットワークを用いた、cnn基盤の変動に強い物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置
JP6857369B2 (ja) Cnnを学習する方法及び学習装置、それを利用したテスト方法及びテスト装置
CN110399789A (zh) 行人重识别方法、模型构建方法、装置、设备和存储介质
JP6962605B2 (ja) 連続学習を利用して検出可能なクラスの種類をリアルタイムにアップデートすることができる物体検出システムを提供する方法及びこれを利用した装置
JP6853592B2 (ja) ハードウェア最適化に使用される1x1コンボリューションを利用したCNN基盤の物体検出器を学習する方法及び学習装置、これを利用したテスト方法及びテスト装置{LEARNING METHOD AND LEARNING DEVICE FOR OBJECT DETECTOR BASED ON CNN USING 1×1 CONVOLUTION TO BE USED FOR HARDWARE OPTIMIZATION, AND TESTING METHOD AND TESTING DEVICE USING THE SAME}
EP3686783A1 (en) Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles
JP6856852B2 (ja) 横フィルタマスクを利用して自律走行車の走行経路を計画するために車線要素を検出する方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200110

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200709

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20201022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210305

R150 Certificate of patent or registration of utility model

Ref document number: 6853592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250