JP2017519291A - 画像特性推定方法およびデバイス - Google Patents

画像特性推定方法およびデバイス Download PDF

Info

Publication number
JP2017519291A
JP2017519291A JP2016568970A JP2016568970A JP2017519291A JP 2017519291 A JP2017519291 A JP 2017519291A JP 2016568970 A JP2016568970 A JP 2016568970A JP 2016568970 A JP2016568970 A JP 2016568970A JP 2017519291 A JP2017519291 A JP 2017519291A
Authority
JP
Japan
Prior art keywords
matrix
eigenvalue
vector
eigenvalues
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016568970A
Other languages
English (en)
Other versions
JP6283124B2 (ja
Inventor
万里 欧▲陽▼
万里 欧▲陽▼
▲暁▼ 初
▲暁▼ 初
▲ウェン▼奇 鞠
▲ウェン▼奇 鞠
健庄 ▲劉▼
健庄 ▲劉▼
▲暁▼▲剛▼ 王
▲暁▼▲剛▼ 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2017519291A publication Critical patent/JP2017519291A/ja
Application granted granted Critical
Publication of JP6283124B2 publication Critical patent/JP6283124B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/76Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、画像特性推定方法およびデバイスを開示する。この方法の内容は:入力画像データの少なくとも2つの固有値を抽出すること;抽出された固有値に対する実行が完了するまで、抽出された各固有値について、以下の動作、すなわち、固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得ること、を実行すること;抽出された各固有値に対応する第1の行列ベクトルが得られたときに、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得ること;および、第2の行列ベクトルに従って推定を用いて画像データ中の画像特性のステータスを得ること、を含む。このようにして、推定の精度が効果的に改善される。

Description

本発明は、画像処理技術の分野に関し、詳細には、画像特性推定方法およびデバイスに関する。
現代社会の発展に伴い、ビデオカメラを使用したビデオ撮影、およびスマートフォンを使用した写真撮影などの応用技術が徐々に一般化しており、このことは、処理に必要とされるピクチャのデータ量が増加傾向にあることを意味する。手動技術に依拠してピクチャデータを処理することには多くのコストがかかり、また処理プロセスにおけるエラーの確率が比較的高い。したがって、コンピュータを使用してピクチャデータを処理することが開発傾向になり、コンピュータビジョン技術が、開発されるべき重要な技術になる。
コンピュータビジョン技術は、機械を使用してどのように「見る」かが研究される技術を指し、さらに人間の眼の代わりにカメラおよびコンピュータを使用して、ターゲットに対する認識、追跡、および測定を実施し、さらに画像処理を実施して、それにより、コンピュータによって処理された画像が、人間の眼で見るのにより適した画像、または検出のために装置に転送されるのにより適した画像になるようにすることなどの、機械ビジョン技術を指す。
しかし、コンピュータを使用して、収集された画像データ中の特性に対する推定を実施すること、例えば、コンピュータビジョン技術において複雑な環境における画像データ中の人間の姿勢の推定を実施することは、コンピュータビジョン技術における技術的ホットスポットおよび技術的困難になる。
例えば、セキュリティ監視の分野で、ある機会における人物が長い時間期間中に監視されるとき、この時間期間のビデオ画像を収集して、この時間期間に収集されたビデオ画像を処理することによって、監視される人物の異常な挙動に対する推定が実施されることがある。このプロセスは、人間の姿勢の推定に属する。
しかし、画像データ中の特性に対して推定(例えば、人間の姿勢の推定)を実施する現在の方式において、ある方式は、特化された撮影装置を使用して深度情報の要件を満たす画像データを取り込み、画像データおよび深度情報を使用して画像データ中の特性(例えば、人体の各部分の位置)を決定し、それにより、画像データ中の特性に対する推定を実施するという目的を達成する。しかし、この方式は、撮影装置のハードウェア性能に対する比較的高い要件を有し、また、撮影対象と撮影装置との間の距離に対する比較的厳密な要件も有し、実際の応用では、様々な実際のニーズにフレキシブルに適用可能となることができない。したがって、得られた推定結果の精度が保証されることができない。
別の方式は、エッジ検出や画像ヒストグラムなどの方式で、得られた画像データ中の特性に対する分析を実施している。しかし、この方式は、静的な画像データに対して推定を実施する方式である。現実生活でリアルタイムに収集された画像データの場合、特性推定のエラーレートが比較的高いという問題がある。
このことに鑑みて、本発明の実施形態は、特性推定の精度が低いという現存の問題を解決するのに使用される画像特性推定方法およびデバイスを提供する。
本発明の第1の態様によれば、画像特性推定方法が提供され、この方法は、
入力画像データの少なくとも2つの固有値を抽出するステップであって、固有値は、各特性と、対応するテンプレート特性との間のマッチングの程度と、画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含む、ステップと、
抽出された固有値に対する実行が完了するまで、抽出された各固有値について、以下の動作、すなわち、
固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得ることを実行するステップと、
抽出された各固有値に対応する第1の行列ベクトルが得られたときに、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るステップと、
第2の行列ベクトルに従って推定を用いて画像データ中の画像特性のステータスを得るステップと
を含む。
本発明の第1の態様の可能な実装方式に関して、第1の可能な実装方式では、固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得るステップは、
固有値を選択し、事前取得済みの行列パラメータを使用して第1の行列変換を固有値に対して実施して、固有値に対応する第1の部分行列ベクトルを得るステップと、
事前取得済みの行列パラメータを使用して第2の行列変換を第1の部分行列ベクトルに対して実施して、固有値に対応する第2の部分行列ベクトルを得るステップと、
類推によって、事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、固有値に対応する第1の行列ベクトルを得るステップであって、Nは自然数である、ステップと
を含む。
本発明の第1の態様の第1の可能な実装方式に関して、第2の可能な実装方式では、事前取得済みの行列パラメータを使用して第1の行列変換を固有値に対して実施して、固有値に対応する第1の部分行列ベクトルを得るステップは、
以下のようにして、固有値に対応する第1の部分行列ベクトルを得るステップを含み、
1,i=a(iT*W1,i+b1,i
上式で、
1,iは、抽出されたi番目の固有値に対応する第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、i番目の固有値の転置行列であり、W1,iは、行列パラメータ中のi番目の固有値に対する第1の行列であり、b1,iは、i番目の固有値に対する第1のオフセットである。
本発明の第1の態様の第2の可能な実装方式に関して、第3の可能な実装方式では、事前取得済みの行列パラメータを使用して第2の行列変換を第1の部分行列ベクトルに対して実施して、固有値に対応する第2の部分行列ベクトルを得るステップは、
以下のようにして、固有値に対応する第2の部分行列ベクトルを得るステップを含み、
2,i=a((h1,iT*W2,i+(b2,iT
上式で、
2,iは、抽出されたi番目の固有値に対応する第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,iTは、i番目の固有値の第1の部分行列ベクトルの転置行列であり、W2,iは、行列パラメータ中のi番目の固有値に対する第2の行列であり、(b2,iTは、i番目の固有値に対する第2のオフセットである。
本発明の第1の態様の可能な実装方式に関して、または本発明の第1の態様の第1の可能な実装方式に関して、または本発明の第1の態様の第2の可能な実装方式に関して、または本発明の第1の態様の第3の可能な実装方式に関して、第4の可能な実装方式では、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るステップは、
以下のようにして、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るステップを含み、
n+1=a((hnT*Wn+1+bn+1
上式で、
n+1は、抽出された少なくとも2つの固有値に対しており、かつ畳み込みネットワーク計算方法を使用して得られる第2の行列ベクトルであり、aは活性化関数である。hn=[hn,1,hn,2,...,hn,i,...,hn,nTであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットである。
本発明の第1の態様の可能な実装方式に関して、または本発明の第1の態様の第1の可能な実装方式に関して、または本発明の第1の態様の第2の可能な実装方式に関して、または本発明の第1の態様の第3の可能な実装方式に関して、または本発明の第1の態様の第4の可能な実装方式に関して、第5の可能な実装方式では、画像データ中の画像特性のステータスは、画像データ中の画像特性の位置情報を含み、
第2の行列ベクトルに従って推定を用いて画像データ中の画像特性のステータスを得るステップは、
以下のようにして、推定を用いて画像データ中の画像特性のステータスを得るステップを含み、
Figure 2017519291
上式で、
Figure 2017519291
は、推定を用いて得られる、画像データ中の画像特性のステータスであり、Wpstは、理論上の行列パラメータであり、bpstは、理論上のオフセットであり、
Figure 2017519291
は、hnに従って得られ、hn=[hn,1,hn,2,...,hn,i,...,hn,nTである。
本発明の第1の態様の可能な実装方式に関して、または本発明の第1の態様の第1の可能な実装方式に関して、または本発明の第1の態様の第2の可能な実装方式に関して、または本発明の第1の態様の第3の可能な実装方式に関して、または本発明の第1の態様の第4の可能な実装方式に関して、または本発明の第1の態様の第5の可能な実装方式に関して、第6の可能な実装方式では、この方法は、
第2の行列ベクトルに従って、得られた推定されたステータスの信頼性を決定するステップをさらに含む。
本発明の第1の態様の第6の可能な実装方式に関して、第7の可能な実装方式では、第2の行列ベクトルに従って、得られた推定されたステータスの信頼性の程度を決定するステップは、
以下のようにして、得られた推定されたステータスの信頼性を決定するステップを含み、
Figure 2017519291
上式で、
Figure 2017519291
は、得られた推定されたステータスの決定された信頼性であり、σは関数であり、σ(x)=(1+exp(−x))-1であり、Wclsは、理論上の行列パラメータであり、bclsは、理論上のオフセットである。
本発明の第2の態様によれば、画像特性推定デバイスが提供され、このデバイスは、
入力画像データの少なくとも2つの固有値を抽出するように構成された抽出モジュールであって、固有値は、各特性と、対応するテンプレート特性との間のマッチングの程度と、画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含む、抽出モジュールと、
抽出された固有値に対する実行が完了するまで、抽出モジュールによって抽出された各固有値について、以下の動作、すなわち、固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得ることを実行するように構成された第1の行列ベクトル計算モジュールと、
抽出された各固有値に対応し、かつ第1の行列ベクトル計算モジュールによって計算を用いて得られる第1の行列ベクトルが得られたときに、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るように構成された第2の行列ベクトル計算モジュールと、
第2の行列ベクトル計算モジュールによって計算を用いて得られた第2の行列ベクトルに従って推定を用いて画像データ中の画像特性のステータスを得るように構成された推定モジュールと
を備える。
本発明の第2の態様の可能な実装方式に関して、第1の可能な実装方式では、第1の行列ベクトル計算モジュールは、
固有値を選択し、事前取得済みの行列パラメータを使用して第1の行列変換を固有値に対して実施して、固有値に対応する第1の部分行列ベクトルを得ること、
事前取得済みの行列パラメータを使用して第2の行列変換を第1の部分行列ベクトルに対して実施して、固有値に対応する第2の部分行列ベクトルを得ること、および、
類推によって、事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、固有値に対応する第1の行列ベクトルを得ることであり、Nは自然数であること
を行うように、特に構成される。
本発明の第2の態様の第1の可能な実装方式に関して、第2の可能な実装方式では、第1の行列ベクトル計算モジュールは、以下のようにして、固有値に対応する第1の部分行列ベクトルを得るように特に構成され、
1,i=a(iT*W1,i+b1,i
上式で、
1,iは、抽出されたi番目の固有値に対応する第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、i番目の固有値の転置行列であり、W1,iは、行列パラメータ中のi番目の固有値に対する第1の行列であり、b1,iは、i番目の固有値に対する第1のオフセットである。
本発明の第2の態様の第2の可能な実装方式に関して、第3の可能な実装方式では、第1の行列ベクトル計算モジュールは、以下のようにして、固有値に対応する第2の部分行列ベクトルを得るように特に構成され、
2,i=a((h1,iT*W2,i+(b2,iT
上式で、
2,iは、抽出されたi番目の固有値に対応する第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,iTは、i番目の固有値の第1の部分行列ベクトルの転置行列であり、W2,iは、行列パラメータ中のi番目の固有値に対する第2の行列であり、(b2,iTは、i番目の固有値に対する第2のオフセットである。
本発明の第2の態様の可能な実装方式に関して、または本発明の第2の態様の第1の可能な実装方式に関して、または本発明の第2の態様の第2の可能な実装方式に関して、または本発明の第2の態様の第3の可能な実装方式に関して、第4の可能な実装方式では、第2の行列ベクトル計算モジュールは、以下のようにして、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るように特に構成され、
n+1=a((hnT*Wn+1+bn+1
上式で、
n+1は、抽出された少なくとも2つの固有値に対しており、かつ畳み込みネットワーク計算方法を使用して得られる第2の行列ベクトルであり、aは活性化関数であり、hn=[hn,1,hn,2,...,hn,i,...,hn,nTであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットである。
本発明の第2の態様の可能な実装方式に関して、または本発明の第2の態様の第1の可能な実装方式に関して、または本発明の第2の態様の第2の可能な実装方式に関して、または本発明の第2の態様の第3の可能な実装方式に関して、または本発明の第2の態様の第4の可能な実装方式に関して、第5の可能な実装方式では、画像データ中の画像特性のステータスは、画像データ中の画像特性の位置情報を含み、
推定モジュールは、以下のようにして、推定を用いて画像データ中の画像特性のステータスを得るように特に構成され、
Figure 2017519291
上式で、
Figure 2017519291
は、推定を用いて得られる、画像データ中の画像特性のステータスであり、Wpstは、理論上の行列パラメータであり、bpstは、理論上のオフセットであり、
Figure 2017519291
は、hnに従って得られ、hn=[hn,1,hn,2,...,hn,i,...,hn,nTである。
本発明の第2の態様の可能な実装方式に関して、または本発明の第2の態様の第1の可能な実装方式に関して、または本発明の第2の態様の第2の可能な実装方式に関して、または本発明の第2の態様の第3の可能な実装方式に関して、または本発明の第2の態様の第4の可能な実装方式に関して、または本発明の第2の態様の第5の可能な実装方式に関して、第6の可能な実装方式では、デバイスは、
第2の行列ベクトル計算モジュールによって計算を用いて得られた第2の行列ベクトルに従って、得られた推定されたステータスの信頼性を決定するように構成された信頼性計算モジュールをさらに備える。
本発明の第2の態様の第6の可能な実装方式に関して、第7の可能な実装方式では、信頼性計算モジュールは、以下のようにして、得られた推定されたステータスの信頼性を決定するように特に構成され、
Figure 2017519291
上式で、
Figure 2017519291
は、得られた推定されたステータスの決定された信頼性であり、σは関数であり、σ(x)=(1+exp(−x))-1であり、Wclsは、理論上の行列パラメータであり、bclsは、理論上のオフセットである。
本発明の第3の態様によれば、画像特性推定デバイスが提供され、このデバイスは、少なくとも1つのプロセッサと、通信バスと、メモリと、少なくとも1つの通信インタフェースとを備え、
通信バスは、少なくとも1つのプロセッサとメモリと少なくとも1つの通信インタフェースとの間で情報を転送するように構成され、
メモリは、アプリケーションプログラムコードを記憶するように構成され、
プロセッサは、メモリに記憶されたアプリケーションプログラムコードを実行するように構成され、これは、
入力画像データの少なくとも2つの固有値を抽出するステップであって、固有値は、各特性と対応するテンプレート特性との間のマッチングの程度と、画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含む、抽出するステップと、
抽出された固有値に対する実行が完了するまで、抽出された各固有値について、以下の動作、すなわち、
固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得ることを実行するステップと、
抽出された各固有値に対応する第1の行列ベクトルが得られたときに、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るステップと、
第2の行列ベクトルに従って推定を用いて画像データ中の画像特性のステータスを得るステップと
を特に含む。
本発明の第3の態様の可能な実装方式に関して、第1の可能な実装方式では、プロセッサは、
固有値を選択し、事前取得済みの行列パラメータを使用して第1の行列変換を固有値に対して実施して、固有値に対応する第1の部分行列ベクトルを得るステップと、
事前取得済みの行列パラメータを使用して第2の行列変換を第1の部分行列ベクトルに対して実施して、固有値に対応する第2の部分行列ベクトルを得るステップと、
類推によって、事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、固有値に対応する第1の行列ベクトルを得るステップであって、Nは自然数である、ステップと
を特に実行する。
本発明の第3の態様の第1の可能な実装方式に関して、第2の可能な実装方式では、プロセッサは、
以下のようにして、固有値に対応する第1の部分行列ベクトルを得るステップを特に実行し、
1,i=a(iT*W1,i+b1,i
上式で、
1,iは、抽出されたi番目の固有値に対応する第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、i番目の固有値の転置行列であり、W1,iは、行列パラメータ中のi番目の固有値に対する第1の行列であり、b1,iは、i番目の固有値に対する第1のオフセットである。
本発明の第3の態様の第2の可能な実装方式に関して、第3の可能な実装方式では、プロセッサは、
以下のようにして、固有値に対応する第2の部分行列ベクトルを得るステップを特に実行し、
2,i=a((h1,iT*W2,i+(b2,iT
上式で、
2,iは、抽出されたi番目の固有値に対応する第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,iTは、i番目の固有値の第1の部分行列ベクトルの転置行列であり、W2,iは、行列パラメータ中のi番目の固有値に対する第2の行列であり、(b2,iTは、i番目の固有値に対する第2のオフセットである。
本発明の第3の態様の可能な実装方式に関して、または本発明の第3の態様の第1の可能な実装方式に関して、または本発明の第3の態様の第2の可能な実装方式に関して、または本発明の第3の態様の第3の可能な実装方式に関して、第4の可能な実装方式では、プロセッサは、
以下のようにして、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るステップを特に実行し、
n+1=a((hnT*Wn+1+bn+1
上式で、
n+1は、抽出された少なくとも2つの固有値に対する、畳み込みネットワーク計算方法を使用して得られる第2の行列ベクトルであり、aは活性化関数であり、hn=[hn,1,hn,2,...,hn,i,...,hn,nTであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットである。
本発明の第3の態様の可能な実装方式に関して、または本発明の第3の態様の第1の可能な実装方式に関して、または本発明の第3の態様の第2の可能な実装方式に関して、または本発明の第3の態様の第3の可能な実装方式に関して、または本発明の第3の態様の第4の可能な実装方式に関して、第5の可能な実装方式では、画像データ中の画像特性のステータスは、画像データ中の画像特性の位置情報を含み、
プロセッサは、
以下のようにして、推定を用いて画像データ中の画像特性のステータスを得るステップを特に実行し、
Figure 2017519291
上式で、
Figure 2017519291
は、推定を用いて得られる、画像データ中の画像特性のステータスであり、Wpstは、理論上の行列パラメータであり、bpstは、理論上のオフセットであり、
Figure 2017519291
は、hnに従って得られ、hn=[hn,1,hn,2,...,hn,i,...,hn,nTである。
本発明の第3の態様の可能な実装方式に関して、または本発明の第3の態様の第1の可能な実装方式に関して、または本発明の第3の態様の第2の可能な実装方式に関して、または本発明の第3の態様の第3の可能な実装方式に関して、または本発明の第3の態様の第4の可能な実装方式に関して、または本発明の第3の態様の第5の可能な実装方式に関して、第6の可能な実装方式では、プロセッサは、
第2の行列ベクトルに従って、得られた推定されたステータスの信頼性を決定するステップを特に実行する。
本発明の第3の態様の第6の可能な実装方式に関して、第7の可能な実装方式では、プロセッサは、
以下のようにして、得られた推定されたステータスの信頼性を決定するステップを特に実行し、
Figure 2017519291
上式で、
Figure 2017519291
は、得られた推定されたステータスの決定された信頼性であり、σは関数であり、σ(x)=(1+exp(−x))-1であり、Wclsは、理論上の行列パラメータであり、bclsは、理論上のオフセットである。
本発明の実施形態では、入力画像データの少なくとも2つの固有値が抽出され、ここで、固有値は、各特性と対応するテンプレート特性との間のマッチングの程度と、画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値と、を少なくとも含む。抽出された固有値に対する実行が完了するまで、抽出された各固有値について、以下の動作、すなわち、固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得ることが実行される。抽出された各固有値に対応する第1の行列ベクトルが得られたとき、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルが得られる。第2の行列ベクトルに従って推定を用いて、画像データ中の画像特性のステータスが得られる。このようにして、抽出を用いて得られた複数の異なる固有値について、各固有値に対して複数の行列変換が実施され、各固有値の変換後に得られた行列ベクトルに対する畳み込みネットワーク計算の方式で結合ベクトルが得られる。最後に、完全接続された信念ネットワーク計算方式で画像データ中の画像特性に対して推定が実施され、これは推定の精度を効果的に改善する。
本発明の実施形態における技術的解決法についてより明確に述べるために、実施形態の記述に必要とされる添付図面について以下に簡単に述べる。明らかに、以下の記述における添付図面は、本発明のいくつかの実施形態のみを示し、当業者はこれらの添付図面から創意工夫なしに他の図面をなお導出し得る。
本発明による画像特性推定方法の概略フローチャートである。 本発明による画像特性推定デバイスの概略構造図である。 本発明による画像特性推定デバイスの概略構造図である。
本発明の目的を達成するために、本発明の実施形態は、画像特性推定方法およびデバイスを提供する。入力画像データの少なくとも2つの固有値が抽出され、ここで、固有値は、各特性と、対応するテンプレート特性との間のマッチングの程度と、画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含み、抽出された固有値に対する実行が完了するまで、抽出された各固有値について、以下の動作、すなわち、固有値を選択すること、および事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得ることが実行され、抽出された各固有値に対応する第1の行列ベクトルが得られたとき、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルが得られ、第2の行列ベクトルに従って推定を用いて、画像データ中の画像特性のステータスが得られる。このようにして、抽出を用いて得られた複数の異なる固有値について、各固有値に対して複数の行列変換が実施され、各固有値の変換後に得られた行列ベクトルに対する畳み込みネットワーク計算の方式で結合ベクトルが得られ、最後に、完全接続された信念ネットワーク計算方式で画像データ中の画像特性に対して推定が実施され、これは推定の精度を効果的に改善する。
以下ではさらに、添付図面を参照しながら本発明について詳細に述べる。明らかに、記述される実施形態は、本発明の実施形態のすべてではなくいくつかに過ぎない。本発明の実施形態に基づいて当業者によって創意工夫なしに得られる他のすべての実施形態は、本発明の保護範囲内に入るものとする。
図1に示されるように、図1は、本発明による画像特性推定方法の概略フローチャートである。この方法は、以下のように記述され得る。
ステップ101:入力画像データの、少なくとも2つの固有値を抽出する。
固有値は、各特性と、対応するテンプレート特性との間のマッチングの程度と、画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含む。
ステップ101では、入力画像データが受け取られ、ここで、画像データは、ピクチャデータであってよく、あるいはビデオデータであってよく、またはピクチャデータとビデオデータとの組合せであってよく、これは本明細書では限定されない。
受け取られた画像データは、画像データ特性検出の方式で処理される必要があり、したがって、処理される画像データは、比較的小さい範囲に絞られる。画像データ中の画像特性が、比較的小さい範囲に絞られ、これは、後続のステップのための基礎を築く。
受け取られた画像データの、少なくとも2つの固有値が抽出され、ここで、抽出を用いて得られる固有値は、各特性と、対応するテンプレート特性との間のマッチングの程度と、画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含む。
各特性と、対応するテンプレート特性との間のマッチングの程度は、特性と、特性に対応するテンプレート特性との間のマッチングの程度を指し、以下のようにして得られてよい。
Figure 2017519291
上式で、
Sは、各特性と、対応するテンプレート特性との間のマッチングの程度を指し、S(I,t,z)はマッチング度関数であり、
Figure 2017519291
であり、Iは、受け取られた画像データであり、tpは、p番目の特性のアピアランス混合型(appearance mixture type)であり、zpは、p番目の特性の位置であり、
Figure 2017519291
は、理論上のパラメータであり、f(I,zp)は、画像データI中の、その位置がzpを満たす固有値を計算するための関数であり、ここで、pおよびqは、特性の量である。
例えば、受け取られた画像データが、人体特性を含む画像データであり、特性が人間の眼であると仮定される。受け取られた、人間の眼特性が抽出される。この場合、画像データ中の眼の位置の画像特性と、眼特性ライブラリ中の眼のテンプレート特性との間でマッチングが実施されて、受け取られた画像データ中の眼特性の固有値が決定される。
画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値は、任意の2つの特性が同時に同じ位置に現れる確率を指し、これは、事前に訓練された異なる特性が同時に現れる可能性を計算するための公式を使用することによる計算を用いて得られる。
特に、事前に訓練された異なる特性が同時に現れる可能性を計算するための公式は、以下のとおりである。
Figure 2017519291
上式で、
tは、異なる特性が同時に現れる確率であり、Sc(t)は、確率を計算するための関数を表し、
Figure 2017519291
は、
Figure 2017519291
のアピアランス混合型において現れるp番目の特性のスコアを表し、
Figure 2017519291
は、
Figure 2017519291
のアピアランス混合型において同時に現れる複数の特性のスコアの合計を表し、
Figure 2017519291
は、同時に現れるp番目の特性およびq番目の特性のスコアを表し、
Figure 2017519291
は、同時に現れる複数の特性のスコアの合計を表す。
例えば、受け取られた画像データが、人体特性を含む画像データであり、特性が人間の眼および人間の眉であると仮定され、受け取られた、人間の眼特性および人間の眉特性が抽出され、人間の眼特性と人間の眉特性とが同じ位置に現れる確率の値が計算される。
関連関係を有する2つの特性間の距離の変化のスコアの値は、関連関係を有する2つの特性間の距離の変化のスコアの固有の値を指す。画像データ中の画像特性をさらに推定するには、関連関係を有する2つの特性間の距離の変化は固有の変化範囲内に入るので、関連関係を有する2つの特性間の距離が変化するかと、変化ステータスとが抽出される必要がある。
特に、関連関係を有する2つの特性間の距離の変化のスコアの値の方式は、限定されないが以下の方式を含む。
Figure 2017519291
上式で、
Figure 2017519291
は行列パラメータであり、d(zp−zq)=[dx,dy,dx2,dy2Tであり、dx=Xp−Xqは、p番目の特性とq番目の特性との間の、X方向の差を表し、dy=yp−yqは、p番目の特性とq番目の特性との間の、y方向の差を表す。
例えば、受け取られた画像データが、人体特性を含む画像データであり、特性が人間の眼および人間の眉であると仮定され、受け取られた、人間の眼特性および人間の眉特性が抽出され、人間の眼特性と人間の眉特性との間の距離の変化のスコアの値が計算される。スコアの値に従って、現在の人物の表情の変化が決定され得る。例えば、比較的小さい距離スコアは、表情のわずかに小さい変化を示し、比較的大きい距離スコアは、表情の大きい変化を示し、この大きい変化は喜びと悲しみのいずれかを示す、などである。
ステップ102:抽出された固有値に対する実行が完了するまで、抽出された各固有値につき、以下の動作を実行する。すなわち、固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得る。
ステップ102では、複数の固有値がステップ101で得られたとき、得られた各固有値につき、得られた各固有値が定められた計算シーケンスに従って処理される。
特に、固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得ることは、
固有値を選択し、事前取得済みの行列パラメータを使用して第1の行列変換を固有値に対して実施して、固有値に対応する第1の部分行列ベクトルを得ること、
事前取得済みの行列パラメータを使用して第2の行列変換を第1の部分行列ベクトルに対して実施して、固有値に対応する第2の部分行列ベクトルを得ること、および、
類推によって、事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、固有値に対応する第1の行列ベクトルを得ることであり、Nは自然数であること
を含む。
特に、事前取得済みの行列パラメータを使用して第1の行列変換を固有値に対して実施して、固有値に対応する第1の部分行列ベクトルを得ることは、
以下のようにして、固有値に対応する第1の部分行列ベクトルを得ることを含み、
1,i=a(iT*W1,i+b1,i
上式で、
1,iは、抽出されたi番目の固有値に対応する第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、i番目の固有値の転置行列であり、W1,iは、行列パラメータ中のi番目の固有値に対する第1の行列であり、b1,iは、i番目の固有値に対する第1のオフセットである。
事前取得済みの行列パラメータを使用して第2の行列変換を第1の部分行列ベクトルに対して実施して、固有値に対応する第2の部分行列ベクトルを得ることは、
以下のようにして、固有値に対応する第2の部分行列ベクトルを得ることを含み、
2,i=a((h1,iT*W2,i+(b2,iT
上式で、
2,iは、抽出されたi番目の固有値に対応する第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,iTは、i番目の固有値の第1の部分行列ベクトルの転置行列であり、W2,iは、行列パラメータ中のi番目の固有値に対する第2の行列であり、(b2,iTは、i番目の固有値に対する第2のオフセットである。
事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、固有値に対応する第1の行列ベクトルを得ることは、
以下のようにして、固有値に対応する第1の行列ベクトルを得ることを含み、
n,i=a((hn-1,iT*Wn,i+bn,i
上式で、
n,iは、抽出されたi番目の固有値に対応する第1の行列ベクトルを表し、aは活性化関数であり、(hn-1,iTは、i番目の固有値の(N−1)番目の部分行列ベクトルの転置行列であり、Wn,iは、行列パラメータ中のi番目の固有値に対するN番目の行列であり、bn,iは、i番目の固有値に対するN番目のオフセットである。
抽出された固有値が3つあり、これらがそれぞれ、固有値1(sで示される)、固有値2(dで示される)、および固有値3(tで示される)であると仮定される。2つの行列変換の後、固有値1の第1の行列ベクトル、固有値2の第1の行列ベクトル、および固有値3の第1の行列ベクトルがそれぞれ得られる。
固有値1については、第1の行列変換の後、h1,1=a(sT*W1,1+b1,1)が得られ、第2の行列変換の後、h2,1=a((h1,1T*W2,1+(b2,1T)が得られ、すなわち、固有値1の第1の行列ベクトルが得られる。
固有値2については、第1の行列変換の後、h1,2=a(dT*W1,2+b1,2)が得られ、第2の行列変換の後、h2,2=a((h1,2T*W2,2+(b2,2T)が得られ、すなわち、特性2の第1の行列ベクトルが得られる。
固有値3については、第1の行列変換の後、h1,3=a(tT*W1,3+b1,3)が得られ、第2の行列変換の後、h2,3=a((h1,3T*W2,3+(b2,3T)が得られ、すなわち、固有値3の第1の行列ベクトルが得られる。
ステップ103:抽出された各固有値に対応する第1の行列ベクトルが得られたとき、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得る。
ステップ103では、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得ることは、
以下のようにして、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得ることを含み、
n+1=a((hnT*Wn+1+bn+1
上式で、
n+1は、抽出された少なくとも2つの固有値に対しており、かつ畳み込みネットワーク計算方法を使用して得られる第2の行列ベクトルであり、aは活性化関数であり、hn=[hn,1,hn,2,...,hn,i,...,hn,nTであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットである。
留意されたいが、aは活性化関数であり、活性化しきい値が3.5のとき、a([2,3,4])=[0,0,1]であり、ここで、シグモイド関数の使用が推奨される。
抽出された固有値が3つあり、これらがそれぞれ、固有値1(sで示される)、固有値2(dで示される)、および固有値3(tで示される)であると仮定される。2つの行列変換の後、固有値1の第1の行列ベクトル、固有値2の第1の行列ベクトル、および固有値3の第1の行列ベクトルがそれぞれ得られる。固有値1の得られた第1の行列ベクトル、固有値2の得られた第1の行列ベクトル、および固有値3の得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルが以下のように得られる。
3=a((h2T*W3+b3
上式で、
3は、抽出された少なくとも2つの固有値に対しており、かつ畳み込みネットワーク計算方法を使用して得られる第2の行列ベクトルであり、aは活性化関数であり、h2=[h2,1,h2,2,h2,3Tであり、W3は、行列パラメータ中の第3の行列であり、b3は、第3のオフセットである。
ステップ104:第2の行列ベクトルに従って、推定を用いて画像データ中の画像特性のステータスを得る。
ステップ104では、第2の行列ベクトルが得られた後、画像データ中の画像特性のステータスが、第2の行列ベクトルに従って推定を用いて得られ、ここで、画像データ中の画像特性のステータスは、画像データ中の画像特性の位置情報を含む。
特に、画像データ中の画像特性のステータスは、以下のようにして推定を用いて得られ、
Figure 2017519291
上式で、
Figure 2017519291
は、推定を用いて得られる、画像データ中の画像特性のステータスであり、Wpstは、理論上の行列パラメータであり、bpstは、理論上のオフセットであり、
Figure 2017519291
は、hnに従って得られ、hn=[hn,1,hn,2,...,hn,i,...,hn,nTである。
本発明の別の実施形態では、この方法はさらに、
第2の行列ベクトルに従って、得られた推定されたステータスの信頼性を決定することを含む。
特に、得られた推定されたステータスの信頼性は、以下のようにして決定され、
Figure 2017519291
上式で、
Figure 2017519291
は、得られた推定されたステータスの決定された信頼性であり、σは関数であり、σ(x)=(1+exp(−x))-1であり、Wclsは、理論上の行列パラメータであり、bclsは、理論上のオフセットである。
得られた推定されたステータスの信頼性が計算されると、計算を用いて得られた信頼性は定められた信頼性しきい値と比較されて、推定結果の精度がさらに決定される。
さらに、第2の行列ベクトルが得られた後、推定されたステータス、および推定されたステータスの信頼性は、完全接続された信念ネットワークを使用することによる計算を用いて得られてよく、これは推定結果の精度をさらに改善する。
留意されたいが、本発明のこの実施形態は、W行列パラメータに関連するW型行列(W*として示される)と、bオフセットパラメータに関連するb型オフセット(b*として示される)とを伴い、これらは、訓練方式で得られてよく、または実際のニーズに従って設定されてよく、これは本明細書では限定されない。
*、b*、Wcls、およびbclsを訓練方式で得る方法は、以下のように記述され得る。
第1のステップで、正のサンプル画像データと負のサンプル画像データとが入力され、k平均法を使用してk個のグループにクラスタ化される。ここで、kは所定の整数である。
第2のステップで、周知の技術におけるRBM訓練方法を使用して、W*、b*、Wcls、およびbclsの値が得られる。
第3のステップで、周知の技術におけるターゲット関数およびBPアルゴリズムを使用することによる計算を用いて、W*、b*、Wcls、およびbclsの値が再び得られる。
ターゲット関数は以下とし得る。すなわち、
Figure 2017519291
上式で、
Figure 2017519291
Figure 2017519291

および
Figure 2017519291
であり、ここで、nは整数であり、nの値は訓練サンプルの量である。
Figure 2017519291
は、n番目の訓練サンプルの画像特性の、定められた推定された信頼性であり、
Figure 2017519291
は、計算を用いて得られた、n番目の訓練サンプルの推定された信頼性であり、
Figure 2017519291
は、n番目の訓練サンプルの画像特性の、定められた推定されたステータスであり、
Figure 2017519291
は、計算を用いて得られた、n番目の訓練サンプルの推定されたステータスであり、wi,j *は、第2のステップで計算を用いて得られるW*中のi番目の行およびj番目の列の値であり、
Figure 2017519291
は、第2のステップで計算を用いて得られるWcls中のi番目の値である。
留意されたいが、第3のステップは勾配降下を用いて解かれ、第2のステップで得られるW*、b*、Wcls、およびbclsの値が、第3のステップにおける勾配降下のための初期ポイントとして使用され、次いで、第3のステップで勾配降下法を使用してW*、b*、Wcls、およびbclsの新しい値が得られる。
本発明の実施形態1における解決法によれば、入力画像データの少なくとも2つの固有値が抽出され、ここで、固有値は、各特性と対応するテンプレート特性との間のマッチングの程度と、画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含み、抽出された固有値に対する実行が完了するまで、抽出された各固有値について、以下の動作、すなわち、固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得ることが実行され、抽出された各固有値に対応する第1の行列ベクトルが得られたとき、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルが得られ、第2の行列ベクトルに従って推定を用いて、画像データ中の画像特性のステータスが得られる。このようにして、抽出を用いて得られた複数の異なる固有値について、各固有値に対して複数の行列変換が実施され、各固有値の変換後に得られた行列ベクトルに対する畳み込みネットワーク計算の方式で結合ベクトルが得られ、最後に、完全接続された信念ネットワーク計算方式で画像データ中の画像特性に対して推定が実施され、これは推定の精度を効果的に改善する。
以下では、実験データのグループを使用して前述の実施形態について述べる。
入力画像データの3つの抽出された固有値があり、これらがそれぞれ、各特性と対応するテンプレート特性との間のマッチングの程度sと、画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値tと、関連関係を有する2つの特性間の距離の変化のスコアの値dとであると仮定される。
26個の特性が実験に含まれ、各特性が7つの混合型(mixture type)に対応すると仮定され、そして、対応するsは、26*7=182次元を有し、対応するtは、26*7=182次元を有し、対応するdは、26*6=156次元を有する。
ある特性と他の3つの特性との間で相対的な変位が生成されるので、また各変位が2次元データを使用して表されるので、他の3つの特性は6次元データを含むことに留意されたい。この場合、26個の特性について、対応するdは、26*6=156次元を有する。
実験で得られるsの2つのタイプがあり、ここで、一方のタイプは視覚的マッチングスコア(アピアランススコア)に属し、他方のタイプは変形マッチングスコア(変形スコア)に属すると仮定される。
sが視覚マッチングスコアのものであり、sが0.2のスコアを得るときであって、特性1に対応する混合型が2である場合、特性1の得られる7次元ベクトルは[0 0.2 0 0 0 0 0]である。
sが変形マッチングスコアのものであるときであって、特性1に対応する混合型が2であり、sが0.4のスコアを得る場合、特性1の得られる7次元ベクトルは[0 0.4 0 0 0 0 0]である。
さらに、特性1に対応する混合型が2である場合、それに対応して、s(視覚マッチングスコア)の得られる7次元ベクトルは[0 0.2 0 0 0 0 0]であり、また、それに対応して、tの得られる7次元ベクトルは[0 1 0 0 0 0 0]である。
このようにして、計算のためにコンピュータに入力されるデータは、(182+182+182+156)次元データ、すなわち702次元データを含む。第1の行列変換が実施された後、sの第1の部分行列ベクトルは140次元データに対応し、dの第1の部分行列ベクトルは30次元データに対応し、tの第1の部分行列ベクトルは30次元データに対応する。第2の行列変換が実施された後、sの第2の部分行列ベクトルは120次元データに対応し、dの第2の部分行列ベクトルは15次元データに対応し、tの第2の部分行列ベクトルは15次元データに対応する。次いで、畳み込みネットワーク計算方法を使用して、100次元データに対応する第2の行列ベクトルが得られる。
行列変換の量が増加するにつれて、計算のためのデータ量は低減されることが分かり得る。このことは、計算の複雑さを変えるだけでなく、計算の精度を効果的に改善することもでき、それにより推定結果の精度を改善することができる。
図2に示されるように、図2は、本発明の実施形態による画像特性推定デバイスの概略構造図である。このデバイスは、抽出モジュール21と、第1の行列ベクトル計算モジュール22と、第2の行列ベクトル計算モジュール23と、推定モジュール24とを備える。
抽出モジュール21は、入力画像データの少なくとも2つの固有値を抽出するように構成され、ここで、固有値は、各特性と対応するテンプレート特性との間のマッチングの程度と、画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含む。
第1の行列ベクトル計算モジュール22は、抽出された固有値に対する実行が完了するまで、抽出モジュール21によって抽出された各固有値について、以下の動作を実行するように構成される。すなわち、固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得る。
第2の行列ベクトル計算モジュール23は、抽出された各固有値に対応する、第1の行列ベクトル計算モジュール22によって計算を用いて得られる第1の行列ベクトルが得られたときに、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るように構成される。
推定モジュール24は、第2の行列ベクトル計算モジュール23による計算を用いて得られた第2の行列ベクトルに従って、推定を用いて画像データ中の画像特性のステータスを得るように構成される。
特に、第1の行列ベクトル計算モジュール22は、
固有値を選択し、事前取得済みの行列パラメータを使用して第1の行列変換を固有値に対して実施して、固有値に対応する第1の部分行列ベクトルを得ること、
事前取得済みの行列パラメータを使用して第2の行列変換を第1の部分行列ベクトルに対して実施して、固有値に対応する第2の部分行列ベクトルを得ること、および、
類推によって、事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、固有値に対応する第1の行列ベクトルを得ることであって、Nは自然数であること
を行うように、特に構成される。
第1の行列ベクトル計算モジュール22は、以下のようにして、固有値に対応する第1の部分行列ベクトルを得るように特に構成され、
1,i=a(iT*W1,i+b1,i
上式で、
1,iは、抽出されたi番目の固有値に対応する第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、i番目の固有値の転置行列であり、W1,iは、行列パラメータ中のi番目の固有値に対する第1の行列であり、b1,iは、i番目の固有値に対する第1のオフセットである。
第1の行列ベクトル計算モジュール22は、以下のようにして、固有値に対応する第2の部分行列ベクトルを得るように特に構成され、
2,i=a((h1,iT*W2,i+(b2,iT
上式で、
2,iは、抽出されたi番目の固有値に対応する第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,iTは、i番目の固有値の第1の部分行列ベクトルの転置行列であり、W2,iは、行列パラメータ中のi番目の固有値に対する第2の行列であり、(b2,iTは、i番目の固有値に対する第2のオフセットである。
第2の行列ベクトル計算モジュール23は、以下のようにして、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るように特に構成され、
n+1=a((hnT*Wn+1+bn+1
上式で、
n+1は、抽出された少なくとも2つの固有値に対しており、かつ畳み込みネットワーク計算方法を使用して得られる第2の行列ベクトルであり、aは活性化関数であり、hn=[hn,1,hn,2,...,hn,i,...,hn,nTであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットである。
本発明の別の実施形態では、画像データ中の画像特性のステータスは、画像データ中の画像特性の位置情報を含み、推定モジュール24は、以下のようにして、推定を用いて画像データ中の画像特性のステータスを得るように特に構成され、
Figure 2017519291
上式で、
Figure 2017519291
は、推定を用いて得られる、画像データ中の画像特性のステータスであり、Wpstは、理論上の行列パラメータであり、bpstは、理論上のオフセットであり、
Figure 2017519291
は、hnに従って得られ、hn=[hn,1,hn,2,...,hn,i,...,hn,nTである。
本発明の別の実施形態では、デバイスは、信頼性計算モジュール25をさらに備え、
信頼性計算モジュール25は、第2の行列ベクトル計算モジュールによって計算を用いて得られた第2の行列ベクトルに従って、得られた推定されたステータスの信頼性を決定するように構成される。
特に、信頼性計算モジュールは、以下のようにして、得られた推定されたステータスの信頼性を決定するように特に構成され、
Figure 2017519291
上式で、
Figure 2017519291
は、得られた推定されたステータスの決定された信頼性であり、σは関数であり、σ(x)=(1+exp(−x))-1であり、Wclsは、理論上の行列パラメータであり、bclsは、理論上のオフセットである。
本発明のこの実施形態で提供されるデバイスは、ハードウェアを使用して実装されてよく、またはソフトウェア方式で実装されてよく、これは本明細書では限定されないことに留意されたい。
図3に示されるように、図3は、本発明の実施形態3による画像特性推定デバイスの概略構造図である。このデバイスは、前述の実施形態を実行する機能を有する。このデバイスは、一般的なコンピュータシステムの構造を使用することがあり、コンピュータシステムは特に、プロセッサベースのコンピュータであってよい。このデバイスのエンティティは、少なくとも1つのプロセッサ31と、通信バス32と、メモリ33と、少なくとも1つの通信インタフェース34とを備える。
プロセッサ31は、本発明の解決法のプログラム実行を制御するように構成された、一般的な中央処理装置(CPU)、マイクロプロセッサ、特定用途向け集積回路(application−specific integrated circuit、ASIC)、または、1もしくは複数の集積回路であってよい。
通信バス32はチャネルを備えてよく、このチャネルを介して、前述のコンポーネント間で情報が転送される。通信インタフェース34は、送受信機タイプの任意の装置を使用して、別のデバイス、またはイーサネット、無線アクセスネットワーク(RAN)、もしくはワイヤレスローカルエリアネットワーク(Wireless Local Area Networks、WLAN)などの通信ネットワークと通信する。
コンピュータシステムは、1または複数のメモリ33を備え、メモリ33は、静的な情報および命令を記憶できる、読取専用メモリ(read−only memory、ROM)または別のタイプの静的ストレージデバイス、情報および命令を記憶できる、ランダムアクセスメモリ(random access memory、RAM)または別のタイプの動的ストレージデバイスであってよいし、命令またはディジタル構造の形であってコンピュータによってアクセスできる予期されるプログラムコードを保持または記憶するのに使用できる、電気的に消去可能プログラム可能な読取専用メモリ(Electrically Erasable Programmable Read−Only Memory、EEPROM)、コンパクトディスク読取専用メモリ(Compact Disc Read−Only Memory、CD−ROM)、他のコンパクトディスクストレージ、光ディスク(コンパクトディスク、レーザディスク、光ディスク、ディジタル多用途ディスク、およびブルーレイディスクなどを含む)ストレージ、ならびに、ディスクストレージ媒体、別のディスクストレージデバイス、または他の任意の媒体であってもよい。しかし、これは本明細書では限定されない。これらのメモリは、バスを使用してプロセッサに接続する。
メモリ33は、本発明の解決法を実行するアプリケーションプログラムコードを記憶するように構成され、ここで、本発明の解決法を実行するアプリケーションプログラムコードは、メモリに保存され、その実行はプロセッサによって制御される。プロセッサ31は、メモリ33に記憶されたアプリケーションプログラムコードを実行するように構成される。
可能な実装方式では、前述のアプリケーションプログラムコードがプロセッサ31によって実行されるとき、プロセッサ31は以下の機能を実装するように構成される。すなわち、
入力画像データの少なくとも2つの固有値を抽出する機能であって、固有値は、各特性と対応するテンプレート特性との間のマッチングの程度と、画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含む、機能と、
抽出された固有値に対する実行が完了するまで、抽出された各固有値について、以下の動作、すなわち、
固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を固有値に対して実施して、固有値に対応する第1の行列ベクトルを得ることを実行する機能と、
抽出された各固有値に対応する第1の行列ベクトルが得られたときに、各固有値に対応する得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得る機能と、
第2の行列ベクトルに従って推定を用いて画像データ中の画像特性のステータスを得る機能と
である。
本発明の別の実施形態では、プロセッサ31は、
固有値を選択し、事前取得済みの行列パラメータを使用して第1の行列変換を固有値に対して実施して、固有値に対応する第1の部分行列ベクトルを得ること、
事前取得済みの行列パラメータを使用して第2の行列変換を第1の部分行列ベクトルに対して実施して、固有値に対応する第2の部分行列ベクトルを得ること、および、
類推によって、事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、固有値に対応する第1の行列ベクトルを得ることであり、Nは自然数であること
を特に実行する。
本発明の別の実施形態では、プロセッサ31は、
以下のようにして、固有値に対応する第1の部分行列ベクトルを得ることを特に実行し、
1,i=a(iT*W1,i+b1,i
上式で、
1,iは、抽出されたi番目の固有値に対応する第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、i番目の固有値の転置行列であり、W1,iは、行列パラメータ中のi番目の固有値に対する第1の行列であり、b1,iは、i番目の固有値に対する第1のオフセットである。
本発明の別の実施形態では、プロセッサ31は、
以下のようにして、固有値に対応する第2の部分行列ベクトルを得ることを特に実行し、
2,i=a((h1,iT*W2,i+(b2,iT
上式で、
2,iは、抽出されたi番目の固有値に対応する第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,iTは、i番目の固有値の第1の部分行列ベクトルの転置行列であり、W2,iは、行列パラメータ中のi番目の固有値に対する第2の行列であり、(b2,iTは、i番目の固有値に対する第2のオフセットである。
本発明の別の実施形態では、プロセッサ31は、
以下のようにして、畳み込みネットワーク計算方法を使用して、抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得ることを特に実行し、
n+1=a((hnT*Wn+1+bn+1
上式で、
n+1は、抽出された少なくとも2つの固有値に対する、畳み込みネットワーク計算方法を使用して得られる第2の行列ベクトルであり、aは活性化関数である。hn=[hn,1,hn,2,...,hn,i,...,hn,nTであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットである。
本発明の別の実施形態では、画像データ中の画像特性のステータスは、画像データ中の画像特性の位置情報を含み、プロセッサ31は、
以下のようにして、推定を用いて画像データ中の画像特性のステータスを得ることを特に実行し、
Figure 2017519291
上式で、
Figure 2017519291
は、推定を用いて得られる、画像データ中の画像特性のステータスであり、Wpstは、理論上の行列パラメータであり、bpstは、理論上のオフセットであり、
Figure 2017519291
は、hnに従って得られ、hn=[hn,1,hn,2,...,hn,i,...,hn,nTである。
本発明の別の実施形態では、プロセッサ31は、
第2の行列ベクトルに従って、得られた推定されたステータスの信頼性を決定することを実行するように、さらに構成される。
本発明の別の実施形態では、プロセッサ31は、
以下のようにして、得られた推定されたステータスの信頼性を決定することを特に実行し、
Figure 2017519291
上式で、
Figure 2017519291
は、得られた推定されたステータスの決定された信頼性であり、σは関数であり、σ(x)=(1+exp(−x))-1であり、Wclsは、理論上の行列パラメータであり、bclsは、理論上のオフセットである。
この実施形態では、アプリケーションプログラムコードがプロセッサによって実行されるときの、展開デバイスの処理、およびデバイスと別のネットワーク要素との間の対話の方法については、前述の方法実施形態を参照されたい。詳細については本明細書では記述されない。
この実施形態で提供されるデバイスは、画像特性に対して推定が実施されるときに推定精度が低いという従来技術に存在する問題を解決し得る。
本発明の実施形態が、方法、装置(デバイス)、またはコンピュータプログラム製品として提供され得ることを、当業者は理解されたい。したがって、本発明は、ハードウェアのみの実施形態、ソフトウェアのみの実施形態、またはソフトウェアとハードウェアの組合せによる実施形態の形を使用し得る。さらに、本発明は、1または複数のコンピュータ使用可能ストレージ媒体(限定されないがディスクメモリ、CD−ROM、光学メモリなどを含む)上で実装されるコンピュータプログラム製品の形を使用することもあり得る。
本発明は、本発明の実施形態による方法、装置(デバイス)、およびコンピュータプログラム製品の、フローチャートおよび/またはブロック図に関して記述される。コンピュータプログラム命令は、フローチャート中および/またはブロック図中の各プロセスおよび/または各ブロック、ならびにフローチャート中および/またはブロック図中のプロセスおよび/またはブロックの組合せを実装するために使用され得ることを理解されたい。これらのコンピュータプログラム命令は、汎用コンピュータ、専用コンピュータ、組込みプロセッサ、または他の任意のプログラム可能データ処理デバイスのプロセッサに提供して、機械を生成することができ、したがって、コンピュータ、または他の任意のプログラム可能データ処理デバイスのプロセッサによって実行される命令は、フローチャート中の1もしくは複数のプロセス中の特定の機能を実装するための装置、および/または、ブロック図中の1もしくは複数のブロック中の特定の機能を実装するための装置を生成する。
これらのコンピュータプログラム命令はまた、コンピュータまたは他の任意のプログラム可能データ処理デバイスに、特定の方式で動作するよう指令することができるコンピュータ可読メモリに記憶されてもよく、したがって、コンピュータ可読メモリに記憶された命令は、命令装置を含む人工物を生成する。命令装置は、フローチャート中の1もしくは複数のプロセス中の特定の機能、および/または、ブロック図中の1もしくは複数のブロック中の特定の機能を実装する。
これらのコンピュータプログラム命令はまた、コンピュータまたは別のプログラム可能データ処理デバイスにロードされてもよく、したがって、コンピュータまたは別のプログラム可能デバイス上で一連の動作およびステップが実行されて、それによりコンピュータ実装処理が生成される。したがって、コンピュータまたは別のプログラム可能デバイス上で実行される命令は、フローチャート中の1もしくは複数のプロセス中の特定の機能を実装するためのステップ、および/または、ブロック図中の1もしくは複数のブロック中の特定の機能を実装するためのステップを提供する。
本発明のいくつかの好ましい実施形態について記述されたが、当業者は、基本的な発明概念をいったん知れば、これらの実施形態に変更および修正を加えることができる。したがって、後記特許請求の範囲は、これらの例示的な実施形態と、本発明の範囲内に入るすべての変更および修正とをカバーするように理解されることが意図される。
明らかに、当業者は、本発明の趣旨および範囲を逸脱することなく本発明に様々な修正および変形を加えることができる。本発明は、後記特許請求の範囲およびそれらの等価な技術によって定義される保護範囲内にこれらの修正および変形が入るという条件で、これらの修正および変形をカバーすることが意図される。

Claims (16)

  1. 入力画像データの少なくとも2つの固有値を抽出するステップであって、前記固有値は、各特性と、対応するテンプレート特性との間のマッチングの程度と、前記画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含む、ステップと、
    前記抽出された固有値に対する実行が完了するまで、抽出された各固有値について、以下の動作、すなわち、
    固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を前記固有値に対して実施して、前記固有値に対応する第1の行列ベクトルを得るステップと、
    抽出された各固有値に対応する第1の行列ベクトルが得られたときに、各固有値に対応する前記得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、前記抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るステップと、
    前記第2の行列ベクトルに従って推定を用いて前記画像データ中の画像特性のステータスを得るステップと
    を含むことを特徴とする画像特性推定方法。
  2. 固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を前記固有値に対して実施して、前記固有値に対応する第1の行列ベクトルを得る前記ステップは、
    固有値を選択し、前記事前取得済みの行列パラメータを使用して第1の行列変換を前記固有値に対して実施して、前記固有値に対応する第1の部分行列ベクトルを得るステップと、
    前記事前取得済みの行列パラメータを使用して第2の行列変換を前記第1の部分行列ベクトルに対して実施して、前記固有値に対応する第2の部分行列ベクトルを得るステップと、
    類推によって、前記事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、前記固有値に対応する前記第1の行列ベクトルを得るステップであって、Nは自然数である、ステップと
    を含むことを特徴とする請求項1に記載の方法。
  3. 前記事前取得済みの行列パラメータを使用して第1の行列変換を前記固有値に対して実施して、前記固有値に対応する第1の部分行列ベクトルを得る前記ステップは、
    以下のようにして、前記固有値に対応する前記第1の部分行列ベクトルを得るステップを含み、
    1,i=a(iT*W1,i+b1,i
    上式で、
    1,iは、抽出されたi番目の固有値に対応する前記第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、前記i番目の固有値の転置行列であり、W1,iは、前記行列パラメータ中の前記i番目の固有値に対する第1の行列であり、b1,iは、前記i番目の固有値に対する第1のオフセットであることを特徴とする請求項2に記載の方法。
  4. 前記事前取得済みの行列パラメータを使用して第2の行列変換を前記第1の部分行列ベクトルに対して実施して、前記固有値に対応する第2の部分行列ベクトルを得る前記ステップは、
    以下のようにして、前記固有値に対応する前記第2の部分行列ベクトルを得るステップを含み、
    2,i=a((h1,iT*W2,i+(b2,iT
    上式で、
    2,iは、抽出されたi番目の固有値に対応する前記第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,iTは、前記i番目の固有値の前記第1の部分行列ベクトルの転置行列であり、W2,iは、前記行列パラメータ中の前記i番目の固有値に対する第2の行列であり、(b2,iTは、前記i番目の固有値に対する第2のオフセットであることを特徴とする請求項3に記載の方法。
  5. 各固有値に対応する前記得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、前記抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得る前記ステップは、
    以下のようにして、前記畳み込みネットワーク計算方法を使用して、前記抽出された少なくとも2つの固有値に対する前記第2の行列ベクトルを得るステップを含み、
    n+1=a((hnT*Wn+1+bn+1
    上式で、
    n+1は、前記抽出された少なくとも2つの固有値に対しており、かつ前記畳み込みネットワーク計算方法を使用して得られる前記第2の行列ベクトルであり、aは活性化関数であり、hn=[hn,1,hn,2,...,hn,i,...,hn,nTであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、前記行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットであることを特徴とする請求項1乃至4のいずれか一項に記載の方法。
  6. 前記画像データ中の前記画像特性のステータスは、前記画像データ中の前記画像特性の位置情報を含み、
    前記第2の行列ベクトルに従って推定を用いて前記画像データ中の画像特性のステータスを得る前記ステップは、
    以下のようにして、推定を用いて前記画像データ中の前記画像特性の前記ステータスを得るステップを含み、
    Figure 2017519291
    上式で、
    Figure 2017519291
    は、推定を用いて得られる、前記画像データ中の前記画像特性の前記ステータスであり、Wpstは、理論上の行列パラメータであり、bpstは、理論上のオフセットであり、
    Figure 2017519291
    は、hnに従って得られ、hn=[hn,1,hn,2,...,hn,i,...,hn,nTであることを特徴とする請求項1乃至5のいずれか一項に記載の方法。
  7. 前記第2の行列ベクトルに従って、前記得られた推定されたステータスの信頼性を決定するステップをさらに含むことを特徴とする請求項1乃至6のいずれか一項に記載の方法。
  8. 前記第2の行列ベクトルに従って、前記得られた推定されたステータスの信頼性を決定する前記ステップは、
    以下のようにして、前記得られた推定されたステータスの前記信頼性を決定するステップを含み、
    Figure 2017519291
    上式で、
    Figure 2017519291
    は、前記得られた推定されたステータスの前記決定された信頼性であり、σは関数であり、σ(x)=(1+exp(−x))-1であり、Wclsは、理論上の行列パラメータであり、bclsは、理論上のオフセットであることを特徴とする請求項7に記載の方法。
  9. 入力画像データの少なくとも2つの固有値を抽出するように構成された抽出モジュールであって、前記固有値は、各特性と、対応するテンプレート特性との間のマッチングの程度と、前記画像データ中の任意の2つの特性が同時に同じ位置に現れる確率の値と、関連関係を有する2つの特性間の距離の変化のスコアの値とを少なくとも含む、抽出モジュールと、
    前記抽出された固有値に対する実行が完了するまで、前記抽出モジュールによって抽出された各固有値について、以下の動作、すなわち、固有値を選択し、事前取得済みの行列パラメータを使用して少なくとも2つの行列変換を前記固有値に対して実施して、前記固有値に対応する第1の行列ベクトルを得るように構成された第1の行列ベクトル計算モジュールと、
    抽出された各固有値に対応し、かつ前記第1の行列ベクトル計算モジュールによって計算を用いて得られる前記第1の行列ベクトルが得られたときに、各固有値に対応する前記得られた第1の行列ベクトルに従って、畳み込みネットワーク計算方法を使用して、前記抽出された少なくとも2つの固有値に対する第2の行列ベクトルを得るように構成された第2の行列ベクトル計算モジュールと、
    前記第2の行列ベクトル計算モジュールによって計算を用いて得られた前記第2の行列ベクトルに従って推定を用いて前記画像データ中の画像特性のステータスを得るように構成された推定モジュールと
    を備えることを特徴とする画像特性推定デバイス。
  10. 第1の行列ベクトル計算モジュールは、
    固有値を選択し、前記事前取得済みの行列パラメータを使用して第1の行列変換を前記固有値に対して実施して、前記固有値に対応する第1の部分行列ベクトルを得ること、
    前記事前取得済みの行列パラメータを使用して第2の行列変換を前記第1の部分行列ベクトルに対して実施して、前記固有値に対応する第2の部分行列ベクトルを得ること、および、
    類推によって、前記事前取得済みの行列パラメータを使用してN番目の行列変換を(N−1)番目の部分行列ベクトルに対して実施して、前記固有値に対応する前記第1の行列ベクトルを得ることであり、Nは自然数であること
    を行うように特に構成されたことを特徴とする請求項9に記載のデバイス。
  11. 前記第1の行列ベクトル計算モジュールは、以下のようにして、前記固有値に対応する前記第1の部分行列ベクトルを得るように特に構成され、
    1,i=a(iT*W1,i+b1,i
    上式で、
    1,iは、抽出されたi番目の固有値に対応する第1の部分行列ベクトルを表し、aは活性化関数であり、iTは、前記i番目の固有値の転置行列であり、W1,iは、前記行列パラメータ中の前記i番目の固有値に対する第1の行列であり、b1,iは、前記i番目の固有値に対する第1のオフセットであることを特徴とする請求項10に記載のデバイス。
  12. 前記第1の行列ベクトル計算モジュールは、以下のようにして、前記固有値に対応する前記第2の部分行列ベクトルを得るように特に構成され、
    2,i=a((h1,iT*W2,i+(b2,iT
    上式で、
    2,iは、前記抽出されたi番目の固有値に対応する前記第2の部分行列ベクトルを表し、aは活性化関数であり、(h1,iTは、前記i番目の固有値の前記第1の部分行列ベクトルの転置行列であり、W2,iは、前記行列パラメータ中の前記i番目の固有値に対する第2の行列であり、(b2,iTは、前記i番目の固有値に対する第2のオフセットであることを特徴とする請求項11に記載のデバイス。
  13. 前記第2の行列ベクトル計算モジュールは、以下のようにして、前記畳み込みネットワーク計算方法を使用して、前記抽出された少なくとも2つの固有値に対する前記第2の行列ベクトルを得るように特に構成され、
    n+1=a((hnT*Wn+1+bn+1
    上式で、
    n+1は、前記抽出された少なくとも2つの固有値に対しており、前記畳み込みネットワーク計算方法を使用して得られる前記第2の行列ベクトルであり、aは活性化関数であり、hn=[hn,1,hn,2,...,hn,i,...,hn,nTであり、hn,nは、n番目の固有値のものであってn番目の行列変換が実施される第1の行列ベクトルであり、Wn+1は、前記行列パラメータ中の(n+1)番目の行列であり、bn+1は、(n+1)番目のオフセットであることを特徴とする請求項9乃至12のいずれか一項に記載のデバイス。
  14. 前記画像データ中の前記画像特性の前記ステータスは、前記画像データ中の前記画像特性の位置情報を含み、
    前記推定モジュールは、以下のようにして、推定を用いて前記画像データ中の前記画像特性の前記ステータスを得るように特に構成され、
    Figure 2017519291
    上式で、
    Figure 2017519291
    は、推定を用いて得られる、前記画像データ中の前記画像特性の前記ステータスであり、Wpstは、理論上の行列パラメータであり、bpstは、理論上のオフセットであり、
    Figure 2017519291
    は、hnに従って得られ、hn=[hn,1,hn,2,...,hn,i,...,hn,nTであることを特徴とする請求項9乃至13のいずれか一項に記載のデバイス。
  15. 前記第2の行列ベクトル計算モジュールによって計算を用いて得られた前記第2の行列ベクトルに従って、前記得られた推定されたステータスの信頼性を決定するように構成された信頼性計算モジュールをさらに備えることを特徴とする請求項9乃至14のいずれか一項に記載のデバイス。
  16. 前記信頼性計算モジュールは、以下のようにして、前記得られた推定されたステータスの前記信頼性を決定するように特に構成され、
    Figure 2017519291
    上式で、
    Figure 2017519291
    は、前記得られた推定されたステータスの前記決定された信頼性であり、σは関数であり、σ(x)=(1+exp(−x))-1であり、Wclsは、理論上の行列パラメータであり、bclsは、理論上のオフセットであることを特徴とする請求項15に記載のデバイス。
JP2016568970A 2014-05-22 2014-11-12 画像特性推定方法およびデバイス Active JP6283124B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410220036.0A CN105096304B (zh) 2014-05-22 2014-05-22 一种图像特征的估计方法和设备
CN201410220036.0 2014-05-22
PCT/CN2014/090905 WO2015176502A1 (zh) 2014-05-22 2014-11-12 一种图像特征的估计方法和设备

Publications (2)

Publication Number Publication Date
JP2017519291A true JP2017519291A (ja) 2017-07-13
JP6283124B2 JP6283124B2 (ja) 2018-02-21

Family

ID=54553361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016568970A Active JP6283124B2 (ja) 2014-05-22 2014-11-12 画像特性推定方法およびデバイス

Country Status (6)

Country Link
US (1) US10115208B2 (ja)
EP (1) EP3121788B1 (ja)
JP (1) JP6283124B2 (ja)
KR (1) KR101903684B1 (ja)
CN (1) CN105096304B (ja)
WO (1) WO2015176502A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10547698B2 (en) * 2006-11-08 2020-01-28 Cricket Media, Inc. Dynamic characterization of nodes in a semantic network for desired functions such as search, discovery, matching, content delivery, and synchronization of activity and information
CN108399379B (zh) * 2017-08-11 2021-02-12 北京市商汤科技开发有限公司 用于识别面部年龄的方法、装置和电子设备
CN111161153B (zh) * 2019-12-31 2024-04-12 无锡祥生医疗科技股份有限公司 宽景拼接方法、装置及存储介质
CN111582202B (zh) * 2020-05-13 2023-10-17 上海海事大学 一种智能网课系统
CN112115769A (zh) * 2020-08-05 2020-12-22 西安交通大学 一种基于视频的无监督稀疏人群异常行为检测算法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021406A (ja) * 1996-03-29 1998-01-23 Nec Corp 物体認識方法及び装置
JP2004078959A (ja) * 2002-08-13 2004-03-11 Samsung Electronics Co Ltd 人工神経網を利用した顔認識法及びその装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6546137B1 (en) * 1999-01-25 2003-04-08 Siemens Corporate Research, Inc. Flash system for fast and accurate pattern localization
JP2001283216A (ja) * 2000-04-03 2001-10-12 Nec Corp 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体
JP4292837B2 (ja) * 2002-07-16 2009-07-08 日本電気株式会社 パターン特徴抽出方法及びその装置
EP3196805A3 (en) * 2003-06-12 2017-11-01 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
JP4686595B2 (ja) 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
US7778446B2 (en) 2006-12-06 2010-08-17 Honda Motor Co., Ltd Fast human pose estimation using appearance and motion via multi-dimensional boosting regression
JP4594945B2 (ja) * 2007-02-13 2010-12-08 株式会社東芝 人物検索装置および人物検索方法
JP5181704B2 (ja) 2008-02-07 2013-04-10 日本電気株式会社 データ処理装置、姿勢推定システム、姿勢推定方法およびプログラム
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
CN101630365B (zh) * 2009-06-05 2011-12-14 天津大学 基于daisy的具有镜面翻转不变性的特征提取和描述方法
CN102231191B (zh) * 2011-07-17 2012-12-26 西安电子科技大学 基于asift的多模态图像特征提取与匹配方法
CN102567719B (zh) * 2011-12-26 2014-07-02 东南大学 基于后验概率神经网络的人类年龄自动估计方法
US9014501B2 (en) * 2012-02-23 2015-04-21 University Of Georgia Research Foundation, Inc. Methods and systems for enhancing data
CN103077512B (zh) * 2012-10-18 2015-09-09 北京工业大学 基于主成分析的数字图像的特征提取与匹配方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021406A (ja) * 1996-03-29 1998-01-23 Nec Corp 物体認識方法及び装置
JP2004078959A (ja) * 2002-08-13 2004-03-11 Samsung Electronics Co Ltd 人工神経網を利用した顔認識法及びその装置

Also Published As

Publication number Publication date
EP3121788A4 (en) 2017-04-05
KR20160146809A (ko) 2016-12-21
US10115208B2 (en) 2018-10-30
EP3121788A1 (en) 2017-01-25
EP3121788B1 (en) 2020-11-04
CN105096304A (zh) 2015-11-25
CN105096304B (zh) 2018-01-02
JP6283124B2 (ja) 2018-02-21
KR101903684B1 (ko) 2018-10-02
US20170069112A1 (en) 2017-03-09
WO2015176502A1 (zh) 2015-11-26

Similar Documents

Publication Publication Date Title
JP6283124B2 (ja) 画像特性推定方法およびデバイス
US10083343B2 (en) Method and apparatus for facial recognition
CN110852349B (zh) 一种图像处理方法、检测方法、相关设备及存储介质
JP2018200690A (ja) 情報処理方法及び情報処理装置
KR20160053612A (ko) 영상 학습 모델을 이용한 영상 생성 방법 및 장치
CN109754359B (zh) 一种应用于卷积神经网络的池化处理的方法及系统
CN110648289B (zh) 图像的加噪处理方法及装置
JP2014524630A5 (ja)
JP6597914B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6296205B2 (ja) 画像処理装置、画像処理方法およびそのプログラムを記憶する記憶媒体
CN112001488A (zh) 训练生成型对抗性网络
CN114503162A (zh) 具有不确定性的特征点位置估计的图像处理系统和方法
CN109685830B (zh) 目标跟踪方法、装置和设备及计算机存储介质
WO2014112346A1 (ja) 特徴点位置検出装置、特徴点位置検出方法および特徴点位置検出プログラム
CN111914878A (zh) 特征点跟踪训练及跟踪方法、装置、电子设备及存储介质
Zhang et al. Joint voxel and coordinate regression for accurate 3d facial landmark localization
EP2899706B9 (en) Method and system for analyzing human behavior in an intelligent surveillance system
WO2015054991A1 (zh) 特征点定位的方法及装置
KR102160955B1 (ko) 딥 러닝 기반 3d 데이터 생성 방법 및 장치
CN110856014B (zh) 动态图像生成方法、装置、电子设备及存储介质
WO2020044630A1 (ja) 検出器生成装置、モニタリング装置、検出器生成方法及び検出器生成プログラム
JP2011232845A (ja) 特徴点抽出装置および方法
JP7161111B2 (ja) 重みマスク生成装置、重みマスク生成方法及びプログラム
JPWO2012032747A1 (ja) 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
US20220171959A1 (en) Method and apparatus with image processing

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180125

R150 Certificate of patent or registration of utility model

Ref document number: 6283124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250