JP2017519291A - 画像特性推定方法およびデバイス - Google Patents
画像特性推定方法およびデバイス Download PDFInfo
- Publication number
- JP2017519291A JP2017519291A JP2016568970A JP2016568970A JP2017519291A JP 2017519291 A JP2017519291 A JP 2017519291A JP 2016568970 A JP2016568970 A JP 2016568970A JP 2016568970 A JP2016568970 A JP 2016568970A JP 2017519291 A JP2017519291 A JP 2017519291A
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- eigenvalue
- vector
- eigenvalues
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 239000011159 matrix material Substances 0.000 claims abstract description 384
- 239000013598 vector Substances 0.000 claims abstract description 258
- 238000004364 calculation method Methods 0.000 claims abstract description 83
- 230000009466 transformation Effects 0.000 claims abstract description 71
- 238000000844 transformation Methods 0.000 claims abstract description 20
- 230000004913 activation Effects 0.000 claims description 28
- 230000008859 change Effects 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 description 45
- 230000015654 memory Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000012549 training Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 210000004709 eyebrow Anatomy 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/76—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
Description
入力画像データの少なくとも2つの固有値を抽出するステップであって、固有値は、各特性と、対応するテンプレート特性との間のマッチングの程度と、画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含む、ステップと、
抽出された固有値に対する実行が完了するまで、抽出された各固有値について、以下の動作、すなわち、
固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得ることを実行するステップと、
抽出された各固有値に対応する第1の行列ベクトルが得られたときに、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るステップと、
第2の行列ベクトルに従って推定を用いて画像データ中の画像特性のステータスを得るステップと
を含む。
固有値を選択し、事前取得済みの行列パラメータを使用して第1の行列変換を固有値に対して実施して、固有値に対応する第1の部分行列ベクトルを得るステップと、
事前取得済みの行列パラメータを使用して第2の行列変換を第1の部分行列ベクトルに対して実施して、固有値に対応する第2の部分行列ベクトルを得るステップと、
類推によって、事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、固有値に対応する第1の行列ベクトルを得るステップであって、Nは自然数である、ステップと
を含む。
以下のようにして、固有値に対応する第1の部分行列ベクトルを得るステップを含み、
h1,i=a(iT*W1,i+b1,i)
上式で、
h1,iは、抽出されたi番目の固有値に対応する第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、i番目の固有値の転置行列であり、W1,iは、行列パラメータ中のi番目の固有値に対する第1の行列であり、b1,iは、i番目の固有値に対する第1のオフセットである。
以下のようにして、固有値に対応する第2の部分行列ベクトルを得るステップを含み、
h2,i=a((h1,i)T*W2,i+(b2,i)T)
上式で、
h2,iは、抽出されたi番目の固有値に対応する第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,i)Tは、i番目の固有値の第1の部分行列ベクトルの転置行列であり、W2,iは、行列パラメータ中のi番目の固有値に対する第2の行列であり、(b2,i)Tは、i番目の固有値に対する第2のオフセットである。
以下のようにして、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るステップを含み、
hn+1=a((hn)T*Wn+1+bn+1)
上式で、
hn+1は、抽出された少なくとも2つの固有値に対しており、かつ畳み込みネットワーク計算方法を使用して得られる第2の行列ベクトルであり、aは活性化関数である。hn=[hn,1,hn,2,...,hn,i,...,hn,n]Tであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットである。
第2の行列ベクトルに従って推定を用いて画像データ中の画像特性のステータスを得るステップは、
以下のようにして、推定を用いて画像データ中の画像特性のステータスを得るステップを含み、
第2の行列ベクトルに従って、得られた推定されたステータスの信頼性を決定するステップをさらに含む。
以下のようにして、得られた推定されたステータスの信頼性を決定するステップを含み、
入力画像データの少なくとも2つの固有値を抽出するように構成された抽出モジュールであって、固有値は、各特性と、対応するテンプレート特性との間のマッチングの程度と、画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含む、抽出モジュールと、
抽出された固有値に対する実行が完了するまで、抽出モジュールによって抽出された各固有値について、以下の動作、すなわち、固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得ることを実行するように構成された第1の行列ベクトル計算モジュールと、
抽出された各固有値に対応し、かつ第1の行列ベクトル計算モジュールによって計算を用いて得られる第1の行列ベクトルが得られたときに、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るように構成された第2の行列ベクトル計算モジュールと、
第2の行列ベクトル計算モジュールによって計算を用いて得られた第2の行列ベクトルに従って推定を用いて画像データ中の画像特性のステータスを得るように構成された推定モジュールと
を備える。
固有値を選択し、事前取得済みの行列パラメータを使用して第1の行列変換を固有値に対して実施して、固有値に対応する第1の部分行列ベクトルを得ること、
事前取得済みの行列パラメータを使用して第2の行列変換を第1の部分行列ベクトルに対して実施して、固有値に対応する第2の部分行列ベクトルを得ること、および、
類推によって、事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、固有値に対応する第1の行列ベクトルを得ることであり、Nは自然数であること
を行うように、特に構成される。
h1,i=a(iT*W1,i+b1,i)
上式で、
h1,iは、抽出されたi番目の固有値に対応する第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、i番目の固有値の転置行列であり、W1,iは、行列パラメータ中のi番目の固有値に対する第1の行列であり、b1,iは、i番目の固有値に対する第1のオフセットである。
h2,i=a((h1,i)T*W2,i+(b2,i)T)
上式で、
h2,iは、抽出されたi番目の固有値に対応する第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,i)Tは、i番目の固有値の第1の部分行列ベクトルの転置行列であり、W2,iは、行列パラメータ中のi番目の固有値に対する第2の行列であり、(b2,i)Tは、i番目の固有値に対する第2のオフセットである。
hn+1=a((hn)T*Wn+1+bn+1)
上式で、
hn+1は、抽出された少なくとも2つの固有値に対しており、かつ畳み込みネットワーク計算方法を使用して得られる第2の行列ベクトルであり、aは活性化関数であり、hn=[hn,1,hn,2,...,hn,i,...,hn,n]Tであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットである。
推定モジュールは、以下のようにして、推定を用いて画像データ中の画像特性のステータスを得るように特に構成され、
第2の行列ベクトル計算モジュールによって計算を用いて得られた第2の行列ベクトルに従って、得られた推定されたステータスの信頼性を決定するように構成された信頼性計算モジュールをさらに備える。
通信バスは、少なくとも1つのプロセッサとメモリと少なくとも1つの通信インタフェースとの間で情報を転送するように構成され、
メモリは、アプリケーションプログラムコードを記憶するように構成され、
プロセッサは、メモリに記憶されたアプリケーションプログラムコードを実行するように構成され、これは、
入力画像データの少なくとも2つの固有値を抽出するステップであって、固有値は、各特性と対応するテンプレート特性との間のマッチングの程度と、画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含む、抽出するステップと、
抽出された固有値に対する実行が完了するまで、抽出された各固有値について、以下の動作、すなわち、
固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得ることを実行するステップと、
抽出された各固有値に対応する第1の行列ベクトルが得られたときに、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るステップと、
第2の行列ベクトルに従って推定を用いて画像データ中の画像特性のステータスを得るステップと
を特に含む。
固有値を選択し、事前取得済みの行列パラメータを使用して第1の行列変換を固有値に対して実施して、固有値に対応する第1の部分行列ベクトルを得るステップと、
事前取得済みの行列パラメータを使用して第2の行列変換を第1の部分行列ベクトルに対して実施して、固有値に対応する第2の部分行列ベクトルを得るステップと、
類推によって、事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、固有値に対応する第1の行列ベクトルを得るステップであって、Nは自然数である、ステップと
を特に実行する。
以下のようにして、固有値に対応する第1の部分行列ベクトルを得るステップを特に実行し、
h1,i=a(iT*W1,i+b1,i)
上式で、
h1,iは、抽出されたi番目の固有値に対応する第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、i番目の固有値の転置行列であり、W1,iは、行列パラメータ中のi番目の固有値に対する第1の行列であり、b1,iは、i番目の固有値に対する第1のオフセットである。
以下のようにして、固有値に対応する第2の部分行列ベクトルを得るステップを特に実行し、
h2,i=a((h1,i)T*W2,i+(b2,i)T)
上式で、
h2,iは、抽出されたi番目の固有値に対応する第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,i)Tは、i番目の固有値の第1の部分行列ベクトルの転置行列であり、W2,iは、行列パラメータ中のi番目の固有値に対する第2の行列であり、(b2,i)Tは、i番目の固有値に対する第2のオフセットである。
以下のようにして、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るステップを特に実行し、
hn+1=a((hn)T*Wn+1+bn+1)
上式で、
hn+1は、抽出された少なくとも2つの固有値に対する、畳み込みネットワーク計算方法を使用して得られる第2の行列ベクトルであり、aは活性化関数であり、hn=[hn,1,hn,2,...,hn,i,...,hn,n]Tであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットである。
プロセッサは、
以下のようにして、推定を用いて画像データ中の画像特性のステータスを得るステップを特に実行し、
第2の行列ベクトルに従って、得られた推定されたステータスの信頼性を決定するステップを特に実行する。
以下のようにして、得られた推定されたステータスの信頼性を決定するステップを特に実行し、
Sは、各特性と、対応するテンプレート特性との間のマッチングの程度を指し、S(I,t,z)はマッチング度関数であり、
tは、異なる特性が同時に現れる確率であり、Sc(t)は、確率を計算するための関数を表し、
固有値を選択し、事前取得済みの行列パラメータを使用して第1の行列変換を固有値に対して実施して、固有値に対応する第1の部分行列ベクトルを得ること、
事前取得済みの行列パラメータを使用して第2の行列変換を第1の部分行列ベクトルに対して実施して、固有値に対応する第2の部分行列ベクトルを得ること、および、
類推によって、事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、固有値に対応する第1の行列ベクトルを得ることであり、Nは自然数であること
を含む。
以下のようにして、固有値に対応する第1の部分行列ベクトルを得ることを含み、
h1,i=a(iT*W1,i+b1,i)
上式で、
h1,iは、抽出されたi番目の固有値に対応する第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、i番目の固有値の転置行列であり、W1,iは、行列パラメータ中のi番目の固有値に対する第1の行列であり、b1,iは、i番目の固有値に対する第1のオフセットである。
以下のようにして、固有値に対応する第2の部分行列ベクトルを得ることを含み、
h2,i=a((h1,i)T*W2,i+(b2,i)T)
上式で、
h2,iは、抽出されたi番目の固有値に対応する第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,i)Tは、i番目の固有値の第1の部分行列ベクトルの転置行列であり、W2,iは、行列パラメータ中のi番目の固有値に対する第2の行列であり、(b2,i)Tは、i番目の固有値に対する第2のオフセットである。
以下のようにして、固有値に対応する第1の行列ベクトルを得ることを含み、
hn,i=a((hn-1,i)T*Wn,i+bn,i)
上式で、
hn,iは、抽出されたi番目の固有値に対応する第1の行列ベクトルを表し、aは活性化関数であり、(hn-1,i)Tは、i番目の固有値の(N−1)番目の部分行列ベクトルの転置行列であり、Wn,iは、行列パラメータ中のi番目の固有値に対するN番目の行列であり、bn,iは、i番目の固有値に対するN番目のオフセットである。
以下のようにして、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得ることを含み、
hn+1=a((hn)T*Wn+1+bn+1)
上式で、
hn+1は、抽出された少なくとも2つの固有値に対しており、かつ畳み込みネットワーク計算方法を使用して得られる第2の行列ベクトルであり、aは活性化関数であり、hn=[hn,1,hn,2,...,hn,i,...,hn,n]Tであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットである。
上式で、
h3は、抽出された少なくとも2つの固有値に対しており、かつ畳み込みネットワーク計算方法を使用して得られる第2の行列ベクトルであり、aは活性化関数であり、h2=[h2,1,h2,2,h2,3]Tであり、W3は、行列パラメータ中の第3の行列であり、b3は、第3のオフセットである。
第2の行列ベクトルに従って、得られた推定されたステータスの信頼性を決定することを含む。
および
固有値を選択し、事前取得済みの行列パラメータを使用して第1の行列変換を固有値に対して実施して、固有値に対応する第1の部分行列ベクトルを得ること、
事前取得済みの行列パラメータを使用して第2の行列変換を第1の部分行列ベクトルに対して実施して、固有値に対応する第2の部分行列ベクトルを得ること、および、
類推によって、事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、固有値に対応する第1の行列ベクトルを得ることであって、Nは自然数であること
を行うように、特に構成される。
h1,i=a(iT*W1,i+b1,i)
上式で、
h1,iは、抽出されたi番目の固有値に対応する第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、i番目の固有値の転置行列であり、W1,iは、行列パラメータ中のi番目の固有値に対する第1の行列であり、b1,iは、i番目の固有値に対する第1のオフセットである。
h2,i=a((h1,i)T*W2,i+(b2,i)T)
上式で、
h2,iは、抽出されたi番目の固有値に対応する第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,i)Tは、i番目の固有値の第1の部分行列ベクトルの転置行列であり、W2,iは、行列パラメータ中のi番目の固有値に対する第2の行列であり、(b2,i)Tは、i番目の固有値に対する第2のオフセットである。
hn+1=a((hn)T*Wn+1+bn+1)
上式で、
hn+1は、抽出された少なくとも2つの固有値に対しており、かつ畳み込みネットワーク計算方法を使用して得られる第2の行列ベクトルであり、aは活性化関数であり、hn=[hn,1,hn,2,...,hn,i,...,hn,n]Tであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットである。
信頼性計算モジュール25は、第2の行列ベクトル計算モジュールによって計算を用いて得られた第2の行列ベクトルに従って、得られた推定されたステータスの信頼性を決定するように構成される。
入力画像データの少なくとも2つの固有値を抽出する機能であって、固有値は、各特性と対応するテンプレート特性との間のマッチングの程度と、画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含む、機能と、
抽出された固有値に対する実行が完了するまで、抽出された各固有値について、以下の動作、すなわち、
固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得ることを実行する機能と、
抽出された各固有値に対応する第1の行列ベクトルが得られたときに、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得る機能と、
第2の行列ベクトルに従って推定を用いて画像データ中の画像特性のステータスを得る機能と
である。
固有値を選択し、事前取得済みの行列パラメータを使用して第1の行列変換を固有値に対して実施して、固有値に対応する第1の部分行列ベクトルを得ること、
事前取得済みの行列パラメータを使用して第2の行列変換を第1の部分行列ベクトルに対して実施して、固有値に対応する第2の部分行列ベクトルを得ること、および、
類推によって、事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、固有値に対応する第1の行列ベクトルを得ることであり、Nは自然数であること
を特に実行する。
以下のようにして、固有値に対応する第1の部分行列ベクトルを得ることを特に実行し、
h1,i=a(iT*W1,i+b1,i)
上式で、
h1,iは、抽出されたi番目の固有値に対応する第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、i番目の固有値の転置行列であり、W1,iは、行列パラメータ中のi番目の固有値に対する第1の行列であり、b1,iは、i番目の固有値に対する第1のオフセットである。
以下のようにして、固有値に対応する第2の部分行列ベクトルを得ることを特に実行し、
h2,i=a((h1,i)T*W2,i+(b2,i)T)
上式で、
h2,iは、抽出されたi番目の固有値に対応する第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,i)Tは、i番目の固有値の第1の部分行列ベクトルの転置行列であり、W2,iは、行列パラメータ中のi番目の固有値に対する第2の行列であり、(b2,i)Tは、i番目の固有値に対する第2のオフセットである。
以下のようにして、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得ることを特に実行し、
hn+1=a((hn)T*Wn+1+bn+1)
上式で、
hn+1は、抽出された少なくとも2つの固有値に対する、畳み込みネットワーク計算方法を使用して得られる第2の行列ベクトルであり、aは活性化関数である。hn=[hn,1,hn,2,...,hn,i,...,hn,n]Tであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットである。
以下のようにして、推定を用いて画像データ中の画像特性のステータスを得ることを特に実行し、
第2の行列ベクトルに従って、得られた推定されたステータスの信頼性を決定することを実行するように、さらに構成される。
以下のようにして、得られた推定されたステータスの信頼性を決定することを特に実行し、
Claims (16)
- 入力画像データの少なくとも2つの固有値を抽出するステップであって、前記固有値は、各特性と、対応するテンプレート特性との間のマッチングの程度と、前記画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含む、ステップと、
前記抽出された固有値に対する実行が完了するまで、抽出された各固有値について、以下の動作、すなわち、
固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を前記固有値に対して実施して、前記固有値に対応する第1の行列ベクトルを得るステップと、
抽出された各固有値に対応する第1の行列ベクトルが得られたときに、各固有値に対応する前記得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、前記抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るステップと、
前記第2の行列ベクトルに従って推定を用いて前記画像データ中の画像特性のステータスを得るステップと
を含むことを特徴とする画像特性推定方法。 - 固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を前記固有値に対して実施して、前記固有値に対応する第1の行列ベクトルを得る前記ステップは、
固有値を選択し、前記事前取得済みの行列パラメータを使用して第1の行列変換を前記固有値に対して実施して、前記固有値に対応する第1の部分行列ベクトルを得るステップと、
前記事前取得済みの行列パラメータを使用して第2の行列変換を前記第1の部分行列ベクトルに対して実施して、前記固有値に対応する第2の部分行列ベクトルを得るステップと、
類推によって、前記事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、前記固有値に対応する前記第1の行列ベクトルを得るステップであって、Nは自然数である、ステップと
を含むことを特徴とする請求項1に記載の方法。 - 前記事前取得済みの行列パラメータを使用して第1の行列変換を前記固有値に対して実施して、前記固有値に対応する第1の部分行列ベクトルを得る前記ステップは、
以下のようにして、前記固有値に対応する前記第1の部分行列ベクトルを得るステップを含み、
h1,i=a(iT*W1,i+b1,i)
上式で、
h1,iは、抽出されたi番目の固有値に対応する前記第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、前記i番目の固有値の転置行列であり、W1,iは、前記行列パラメータ中の前記i番目の固有値に対する第1の行列であり、b1,iは、前記i番目の固有値に対する第1のオフセットであることを特徴とする請求項2に記載の方法。 - 前記事前取得済みの行列パラメータを使用して第2の行列変換を前記第1の部分行列ベクトルに対して実施して、前記固有値に対応する第2の部分行列ベクトルを得る前記ステップは、
以下のようにして、前記固有値に対応する前記第2の部分行列ベクトルを得るステップを含み、
h2,i=a((h1,i)T*W2,i+(b2,i)T)
上式で、
h2,iは、抽出されたi番目の固有値に対応する前記第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,i)Tは、前記i番目の固有値の前記第1の部分行列ベクトルの転置行列であり、W2,iは、前記行列パラメータ中の前記i番目の固有値に対する第2の行列であり、(b2,i)Tは、前記i番目の固有値に対する第2のオフセットであることを特徴とする請求項3に記載の方法。 - 各固有値に対応する前記得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、前記抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得る前記ステップは、
以下のようにして、前記畳み込みネットワーク計算方法を使用して、前記抽出された少なくとも2つの固有値に対する前記第2の行列ベクトルを得るステップを含み、
hn+1=a((hn)T*Wn+1+bn+1)
上式で、
hn+1は、前記抽出された少なくとも2つの固有値に対しており、かつ前記畳み込みネットワーク計算方法を使用して得られる前記第2の行列ベクトルであり、aは活性化関数であり、hn=[hn,1,hn,2,...,hn,i,...,hn,n]Tであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、前記行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットであることを特徴とする請求項1乃至4のいずれか一項に記載の方法。 - 前記画像データ中の前記画像特性のステータスは、前記画像データ中の前記画像特性の位置情報を含み、
前記第2の行列ベクトルに従って推定を用いて前記画像データ中の画像特性のステータスを得る前記ステップは、
以下のようにして、推定を用いて前記画像データ中の前記画像特性の前記ステータスを得るステップを含み、
- 前記第2の行列ベクトルに従って、前記得られた推定されたステータスの信頼性を決定するステップをさらに含むことを特徴とする請求項1乃至6のいずれか一項に記載の方法。
- 入力画像データの少なくとも2つの固有値を抽出するように構成された抽出モジュールであって、前記固有値は、各特性と、対応するテンプレート特性との間のマッチングの程度と、前記画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含む、抽出モジュールと、
前記抽出された固有値に対する実行が完了するまで、前記抽出モジュールによって抽出された各固有値について、以下の動作、すなわち、固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を前記固有値に対して実施して、前記固有値に対応する第1の行列ベクトルを得るように構成された第1の行列ベクトル計算モジュールと、
抽出された各固有値に対応し、かつ前記第1の行列ベクトル計算モジュールによって計算を用いて得られる前記第1の行列ベクトルが得られたときに、各固有値に対応する前記得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、前記抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るように構成された第2の行列ベクトル計算モジュールと、
前記第2の行列ベクトル計算モジュールによって計算を用いて得られた前記第2の行列ベクトルに従って推定を用いて前記画像データ中の画像特性のステータスを得るように構成された推定モジュールと
を備えることを特徴とする画像特性推定デバイス。 - 第1の行列ベクトル計算モジュールは、
固有値を選択し、前記事前取得済みの行列パラメータを使用して第1の行列変換を前記固有値に対して実施して、前記固有値に対応する第1の部分行列ベクトルを得ること、
前記事前取得済みの行列パラメータを使用して第2の行列変換を前記第1の部分行列ベクトルに対して実施して、前記固有値に対応する第2の部分行列ベクトルを得ること、および、
類推によって、前記事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、前記固有値に対応する前記第1の行列ベクトルを得ることであり、Nは自然数であること
を行うように特に構成されたことを特徴とする請求項9に記載のデバイス。 - 前記第1の行列ベクトル計算モジュールは、以下のようにして、前記固有値に対応する前記第1の部分行列ベクトルを得るように特に構成され、
h1,i=a(iT*W1,i+b1,i)
上式で、
h1,iは、抽出されたi番目の固有値に対応する第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、前記i番目の固有値の転置行列であり、W1,iは、前記行列パラメータ中の前記i番目の固有値に対する第1の行列であり、b1,iは、前記i番目の固有値に対する第1のオフセットであることを特徴とする請求項10に記載のデバイス。 - 前記第1の行列ベクトル計算モジュールは、以下のようにして、前記固有値に対応する前記第2の部分行列ベクトルを得るように特に構成され、
h2,i=a((h1,i)T*W2,i+(b2,i)T)
上式で、
h2,iは、前記抽出されたi番目の固有値に対応する前記第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,i)Tは、前記i番目の固有値の前記第1の部分行列ベクトルの転置行列であり、W2,iは、前記行列パラメータ中の前記i番目の固有値に対する第2の行列であり、(b2,i)Tは、前記i番目の固有値に対する第2のオフセットであることを特徴とする請求項11に記載のデバイス。 - 前記第2の行列ベクトル計算モジュールは、以下のようにして、前記畳み込みネットワーク計算方法を使用して、前記抽出された少なくとも2つの固有値に対する前記第2の行列ベクトルを得るように特に構成され、
hn+1=a((hn)T*Wn+1+bn+1)
上式で、
hn+1は、前記抽出された少なくとも2つの固有値に対しており、前記畳み込みネットワーク計算方法を使用して得られる前記第2の行列ベクトルであり、aは活性化関数であり、hn=[hn,1,hn,2,...,hn,i,...,hn,n]Tであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、前記行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットであることを特徴とする請求項9乃至12のいずれか一項に記載のデバイス。 - 前記第2の行列ベクトル計算モジュールによって計算を用いて得られた前記第2の行列ベクトルに従って、前記得られた推定されたステータスの信頼性を決定するように構成された信頼性計算モジュールをさらに備えることを特徴とする請求項9乃至14のいずれか一項に記載のデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410220036.0A CN105096304B (zh) | 2014-05-22 | 2014-05-22 | 一种图像特征的估计方法和设备 |
CN201410220036.0 | 2014-05-22 | ||
PCT/CN2014/090905 WO2015176502A1 (zh) | 2014-05-22 | 2014-11-12 | 一种图像特征的估计方法和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017519291A true JP2017519291A (ja) | 2017-07-13 |
JP6283124B2 JP6283124B2 (ja) | 2018-02-21 |
Family
ID=54553361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016568970A Active JP6283124B2 (ja) | 2014-05-22 | 2014-11-12 | 画像特性推定方法およびデバイス |
Country Status (6)
Country | Link |
---|---|
US (1) | US10115208B2 (ja) |
EP (1) | EP3121788B1 (ja) |
JP (1) | JP6283124B2 (ja) |
KR (1) | KR101903684B1 (ja) |
CN (1) | CN105096304B (ja) |
WO (1) | WO2015176502A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10547698B2 (en) * | 2006-11-08 | 2020-01-28 | Cricket Media, Inc. | Dynamic characterization of nodes in a semantic network for desired functions such as search, discovery, matching, content delivery, and synchronization of activity and information |
CN108399379B (zh) * | 2017-08-11 | 2021-02-12 | 北京市商汤科技开发有限公司 | 用于识别面部年龄的方法、装置和电子设备 |
CN111161153B (zh) * | 2019-12-31 | 2024-04-12 | 无锡祥生医疗科技股份有限公司 | 宽景拼接方法、装置及存储介质 |
CN111582202B (zh) * | 2020-05-13 | 2023-10-17 | 上海海事大学 | 一种智能网课系统 |
CN112115769A (zh) * | 2020-08-05 | 2020-12-22 | 西安交通大学 | 一种基于视频的无监督稀疏人群异常行为检测算法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1021406A (ja) * | 1996-03-29 | 1998-01-23 | Nec Corp | 物体認識方法及び装置 |
JP2004078959A (ja) * | 2002-08-13 | 2004-03-11 | Samsung Electronics Co Ltd | 人工神経網を利用した顔認識法及びその装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6546137B1 (en) * | 1999-01-25 | 2003-04-08 | Siemens Corporate Research, Inc. | Flash system for fast and accurate pattern localization |
JP2001283216A (ja) * | 2000-04-03 | 2001-10-12 | Nec Corp | 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体 |
JP4292837B2 (ja) * | 2002-07-16 | 2009-07-08 | 日本電気株式会社 | パターン特徴抽出方法及びその装置 |
EP3196805A3 (en) * | 2003-06-12 | 2017-11-01 | Honda Motor Co., Ltd. | Target orientation estimation using depth sensing |
JP4686595B2 (ja) | 2005-03-17 | 2011-05-25 | 本田技研工業株式会社 | クリティカルポイント解析に基づくポーズ推定 |
US7778446B2 (en) | 2006-12-06 | 2010-08-17 | Honda Motor Co., Ltd | Fast human pose estimation using appearance and motion via multi-dimensional boosting regression |
JP4594945B2 (ja) * | 2007-02-13 | 2010-12-08 | 株式会社東芝 | 人物検索装置および人物検索方法 |
JP5181704B2 (ja) | 2008-02-07 | 2013-04-10 | 日本電気株式会社 | データ処理装置、姿勢推定システム、姿勢推定方法およびプログラム |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
CN101630365B (zh) * | 2009-06-05 | 2011-12-14 | 天津大学 | 基于daisy的具有镜面翻转不变性的特征提取和描述方法 |
CN102231191B (zh) * | 2011-07-17 | 2012-12-26 | 西安电子科技大学 | 基于asift的多模态图像特征提取与匹配方法 |
CN102567719B (zh) * | 2011-12-26 | 2014-07-02 | 东南大学 | 基于后验概率神经网络的人类年龄自动估计方法 |
US9014501B2 (en) * | 2012-02-23 | 2015-04-21 | University Of Georgia Research Foundation, Inc. | Methods and systems for enhancing data |
CN103077512B (zh) * | 2012-10-18 | 2015-09-09 | 北京工业大学 | 基于主成分析的数字图像的特征提取与匹配方法 |
-
2014
- 2014-05-22 CN CN201410220036.0A patent/CN105096304B/zh active Active
- 2014-11-12 KR KR1020167031565A patent/KR101903684B1/ko active IP Right Grant
- 2014-11-12 JP JP2016568970A patent/JP6283124B2/ja active Active
- 2014-11-12 EP EP14892648.8A patent/EP3121788B1/en active Active
- 2014-11-12 WO PCT/CN2014/090905 patent/WO2015176502A1/zh active Application Filing
-
2016
- 2016-11-18 US US15/355,324 patent/US10115208B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1021406A (ja) * | 1996-03-29 | 1998-01-23 | Nec Corp | 物体認識方法及び装置 |
JP2004078959A (ja) * | 2002-08-13 | 2004-03-11 | Samsung Electronics Co Ltd | 人工神経網を利用した顔認識法及びその装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3121788A4 (en) | 2017-04-05 |
KR20160146809A (ko) | 2016-12-21 |
US10115208B2 (en) | 2018-10-30 |
EP3121788A1 (en) | 2017-01-25 |
EP3121788B1 (en) | 2020-11-04 |
CN105096304A (zh) | 2015-11-25 |
CN105096304B (zh) | 2018-01-02 |
JP6283124B2 (ja) | 2018-02-21 |
KR101903684B1 (ko) | 2018-10-02 |
US20170069112A1 (en) | 2017-03-09 |
WO2015176502A1 (zh) | 2015-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6283124B2 (ja) | 画像特性推定方法およびデバイス | |
US10083343B2 (en) | Method and apparatus for facial recognition | |
CN110852349B (zh) | 一种图像处理方法、检测方法、相关设备及存储介质 | |
JP2018200690A (ja) | 情報処理方法及び情報処理装置 | |
KR20160053612A (ko) | 영상 학습 모델을 이용한 영상 생성 방법 및 장치 | |
CN109754359B (zh) | 一种应用于卷积神经网络的池化处理的方法及系统 | |
CN110648289B (zh) | 图像的加噪处理方法及装置 | |
JP2014524630A5 (ja) | ||
JP6597914B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6296205B2 (ja) | 画像処理装置、画像処理方法およびそのプログラムを記憶する記憶媒体 | |
CN112001488A (zh) | 训练生成型对抗性网络 | |
CN114503162A (zh) | 具有不确定性的特征点位置估计的图像处理系统和方法 | |
CN109685830B (zh) | 目标跟踪方法、装置和设备及计算机存储介质 | |
WO2014112346A1 (ja) | 特徴点位置検出装置、特徴点位置検出方法および特徴点位置検出プログラム | |
CN111914878A (zh) | 特征点跟踪训练及跟踪方法、装置、电子设备及存储介质 | |
Zhang et al. | Joint voxel and coordinate regression for accurate 3d facial landmark localization | |
EP2899706B9 (en) | Method and system for analyzing human behavior in an intelligent surveillance system | |
WO2015054991A1 (zh) | 特征点定位的方法及装置 | |
KR102160955B1 (ko) | 딥 러닝 기반 3d 데이터 생성 방법 및 장치 | |
CN110856014B (zh) | 动态图像生成方法、装置、电子设备及存储介质 | |
WO2020044630A1 (ja) | 検出器生成装置、モニタリング装置、検出器生成方法及び検出器生成プログラム | |
JP2011232845A (ja) | 特徴点抽出装置および方法 | |
JP7161111B2 (ja) | 重みマスク生成装置、重みマスク生成方法及びプログラム | |
JPWO2012032747A1 (ja) | 特徴点選択システム、特徴点選択方法および特徴点選択プログラム | |
US20220171959A1 (en) | Method and apparatus with image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6283124 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |