JP2011227704A - 情報処理装置および方法ならびにプログラム - Google Patents

情報処理装置および方法ならびにプログラム Download PDF

Info

Publication number
JP2011227704A
JP2011227704A JP2010096855A JP2010096855A JP2011227704A JP 2011227704 A JP2011227704 A JP 2011227704A JP 2010096855 A JP2010096855 A JP 2010096855A JP 2010096855 A JP2010096855 A JP 2010096855A JP 2011227704 A JP2011227704 A JP 2011227704A
Authority
JP
Japan
Prior art keywords
projection
modality
data
input data
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010096855A
Other languages
English (en)
Other versions
JP5524692B2 (ja
Inventor
Sukekazu Kameyama
祐和 亀山
Koji Yamaguchi
幸二 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010096855A priority Critical patent/JP5524692B2/ja
Priority to US13/090,083 priority patent/US9129149B2/en
Publication of JP2011227704A publication Critical patent/JP2011227704A/ja
Application granted granted Critical
Publication of JP5524692B2 publication Critical patent/JP5524692B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】精度良く効率的に入力データのモダリティを検出する。
【解決手段】 入力データを複数の各変換行列U・(Σ12 )を用いて複数の射影データP10を生成し、生成した複数の射影データP10に対し変換行列の逆射影を行うことにより逆射影データP20を生成し、入力データPと逆射影データP20との相関を変換行列U・(Σ12 )毎に算出し、算出した相関が最も高い変換行列U・(Σ12 )が示すモダリティを入力データのモダリティとして識別する。
【選択図】図1

Description

本発明は、情報処理の方法および装置ならびにプログラムに関し、特に、入力データのモダリティの識別に関するものである。
従来から主成分分析(PCA)や特異値分解(SVD、HOSVD)を用いて画像内から顔等の特定のオブジェクトを検出することが提案されている(たとえば特許文献1−4参照)。特許文献1、2には、各オブジェクト毎に標本データを用いて主成分分析により学習された射影行列によって複数の部分空間を用意しておき、未知の画像が入力された際にいずれの部分空間に属するかを判断することによりオブジェクトを識別することが開示されている。
特許文献3には、主成分分析によるオブジェクトを部分空間に射影してオブジェクトを検出するとともに、オブジェクトに対する撮影方向や照明の方向等のオブジェクトのパラメータを推定する手法が開示されている。特許文献4には、顔の位置が所定位置にある標本データとともに当該所定位置からずらした標本データとを用いて射影行列によって射影される複数の部分空間を用意しておき、全体画像の一部を切り出した領域と当該領域に対して位置をずらして切り出した領域とについていずれの領域が正しいかを判断することが開示されている。
特開2006−92151号公報 特開2009−134466号公報 特開2005−133813号公報 特開2005−250863号公報
特許文献1−4に示す従来の検出方法においては画像を特徴ベクトル空間に写像し、特徴ベクトル空間において各クラスの部分空間との距離等から顔等を検出している。しかし、上述した検出方法では顔等の個体差により検出の精度が落ちてしまうという問題がある。
そこで、本発明は、精度良く効率的に入力データのモダリティを識別することができる情報処理装置および方法ならびにプログラムを提供することを目的とするものである。
本発明の情報処理装置は、識別対象ではないモダリティは同一であって識別対象であるモダリティが異なる複数の標本データにより異なるモダリティ毎にそれぞれ学習された、入力データを空間ベクトルに射影する第1射影行列と空間ベクトルを空間ベクトルよりも次元数の少ない射影データに射影する第2射影行列とを備えた複数の変換行列群を用いて、入力データのモダリティを識別する情報処理装置であって、入力データを複数の第1射影行列を用いて複数の空間ベクトルに射影する第1射影手段と、入力データを複数の変換行列群を用いて複数の射影データを生成し、さらにモダリティ毎に射影データに対し第2変換行列の逆射影を行うことにより逆空間ベクトルを生成する第2射影手段と、第1射影手段および第2射影手段により生成された空間ベクトルと逆空間ベクトルとの相関を変換行列毎に算出する相関算出手段と、相関算出手段により算出された相関が最も高い変換行列が示すモダリティを入力データのモダリティとして識別する識別手段とを備えたことを特徴とするものである。
本発明の情報処理装置は、識別対象ではないモダリティは同一であって識別対象であるモダリティが異なる複数の標本データにより異なるモダリティ毎にそれぞれ学習された、入力データを空間ベクトルに射影する第1射影行列と空間ベクトルを空間ベクトルよりも次元数の少ない射影データに射影する第2射影行列とを備えた複数の変換行列群を用いて、入力データのモダリティを識別する情報処理装置であって、入力データを複数の各変換行列を用いて複数の射影データを生成する第1射影手段と、第1射影手段により生成された複数の射影データに対し変換行列の逆射影を行うことにより逆射影データを生成する第2射影手段と、入力データと第2射影手段により生成された逆射影データとの相関を変換行列毎に算出する相関算出手段と、相関算出手段により算出された相関が最も高い変換行列が示すモダリティを入力データのモダリティとして識別する識別手段とを備えたことを特徴とするものである。
本発明の情報処理方法は、識別対象ではないモダリティは同一であって識別対象であるモダリティが異なる複数の標本データにより異なるモダリティ毎にそれぞれ学習された、入力データを空間ベクトルに射影する第1射影行列と空間ベクトルを空間ベクトルよりも次元数の少ない射影データに射影する第2射影行列とを備えた複数の変換行列群を用いて、入力データのモダリティを識別する情報処理方法であって、入力データを複数の第1射影行列を用いて複数の空間ベクトルに射影するとともに、入力データを複数の変換行列群を用いて複数の射影データを生成し、さらにモダリティ毎に射影データに対し第2変換行列の逆射影を行うことにより逆空間ベクトルを生成し、生成した空間ベクトルと逆空間ベクトルとの相関を変換行列毎に算出し、算出した相関が最も高い変換行列が示すモダリティを入力データのモダリティとして識別することを特徴とするものである。
本発明の情報処理方法は、識別対象ではないモダリティは同一であって識別対象であるモダリティが異なる複数の標本データにより異なるモダリティ毎にそれぞれ学習された、入力データを空間ベクトルに射影する第1射影行列と空間ベクトルを空間ベクトルよりも次元数の少ない射影データに射影する第2射影行列とを備えた複数の変換行列群を用いて、入力データのモダリティを識別する情報処理方法であって、入力データを複数の各変換行列を用いて複数の射影データを生成し、生成した複数の射影データに対し変換行列の逆射影を行うことにより逆射影データを生成し、入力データと逆射影データとの相関を変換行列毎に算出し、算出した相関が最も高い変換行列が示すモダリティを入力データのモダリティとして識別することを特徴とするものである。
本発明の情報処理プログラムは、コンピュータに、識別対象ではないモダリティは同一であって識別対象であるモダリティが異なる複数の標本データにより異なるモダリティ毎にそれぞれ学習された、入力データを空間ベクトルに射影する第1射影行列と空間ベクトルを空間ベクトルよりも次元数の少ない射影データに射影する第2射影行列とを備えた複数の変換行列群を用いて、入力データのモダリティを識別することを実行させるための情報処理プログラムであって、入力データを複数の第1射影行列を用いて複数の空間ベクトルに射影するとともに、入力データを複数の変換行列群を用いて複数の射影データを生成し、さらにモダリティ毎に射影データに対し第2変換行列の逆射影を行うことにより逆空間ベクトルを生成する手順と、生成した空間ベクトルと逆空間ベクトルとの相関を変換行列毎に算出する手順と、算出した相関が最も高い変換行列が示すモダリティを入力データのモダリティとして識別する手順とを実行させることを特徴とするものである。
本発明の情報処理プログラムは、コンピュータに、識別対象ではないモダリティは同一であって識別対象であるモダリティが異なる複数の標本データにより異なるモダリティ毎にそれぞれ学習された、入力データを空間ベクトルに射影する第1射影行列と空間ベクトルを空間ベクトルよりも次元数の少ない射影データに射影する第2射影行列とを備えた複数の変換行列群を用いて、入力データのモダリティを識別することを実行させるための情報処理プログラムであって、入力データを複数の各変換行列を用いて複数の射影データを生成する手順と、生成した複数の射影データに対し変換行列の逆射影を行うことにより逆射影データを生成する手順と、入力データと逆射影データとの相関を変換行列毎に算出する手順と、算出した相関が最も高い変換行列が示すモダリティを入力データのモダリティとして識別する手順とを実行させることを特徴とするものである。
ここで、入力データは、たとえば顔、文字、図形、記号、テクスチャ、ビルやタイル、枝、肺、血管等の所定のオブジェクトを有する画像のような2次元情報であってもよいし、音声、脈拍、血圧、地震等の1次元情報からなるものであってもよい。
なお、モダリティとは、統計的偏りを有する所定の特徴を備えたものであって、たとえば画像内の顔の向き・大きさ・位置や照明条件、人種、年齢、性別等の被写体の種別だけでなく、撮像された人物の表情、撮像された人物のしぐさ、撮像された人物の姿勢、撮像された人物が着用している着用物(めがね、サングラス、マスク、帽子など)等の被写体像の属性、また音声の単語、異常脈拍、震源、音源等が挙げられる。
また、変換行列は第1射影行列および第2射影行列を含む複数の空間変換行列からなる多重線形変換行列であることが好ましい。
さらに、情報処理装置は、入力データに対し補間処理を行う前処理手段をさらに備えたものであってもよい。このとき、前処理手段は、識別手段における検出精度に応じてサンプリング周波数を決定するものであってもよい。
本発明の情報処理装置および方法ならびにプログラムによれば、識別対象ではないモダリティは同一であって識別対象であるモダリティが異なる複数の標本データにより異なるモダリティ毎にそれぞれ学習された、入力データを空間ベクトルに射影する第1射影行列と空間ベクトルを空間ベクトルよりも次元数の少ない射影データに射影する第2射影行列とを備えた複数の変換行列群を用いて、入力データのモダリティを識別する際に、入力データを複数の第1射影行列を用いて複数の空間ベクトルに射影するとともに、入力データを複数の変換行列群を用いて複数の射影データを生成し、さらにモダリティ毎に射影データに対し第2変換行列の逆射影を行うことにより逆空間ベクトルを生成し、生成した空間ベクトルと逆空間ベクトルとの相関を変換行列毎に算出し、算出した相関が最も高い変換行列が示すモダリティを入力データのモダリティとして識別することにより、空間ベクトルと逆空間ベクトルとは完全ではないが高精度に元に戻る性質を利用し、自己相関的スコアを検出の指標として検出を行うため、入力データに含まれる個体差成分を大幅に取り除き高精度にオブジェクトの検出を行うことができる。
同様に、本発明の情報処理装置および方法ならびにプログラムによれば、識別対象ではないモダリティは同一であって識別対象であるモダリティが異なる複数の標本データにより異なるモダリティ毎にそれぞれ学習された、入力データを空間ベクトルに射影する第1射影行列と空間ベクトルを空間ベクトルよりも次元数の少ない射影データに射影する第2射影行列とを備えた複数の変換行列群を用いて、入力データのモダリティを識別する際に、入力データを複数の各変換行列を用いて複数の射影データを生成し、生成した複数の射影データに対し変換行列の逆射影を行うことにより逆射影データを生成し、入力データと逆射影データとの相関を変換行列毎に算出し、算出した相関が最も高い変換行列が示すモダリティを入力データのモダリティとして識別することにより、入力データと逆射影データとは完全ではないが高精度に元に戻る性質を利用し、入力データと逆射影データとの自己相関的スコアを検出の指標として検出を行うため、入力データに含まれる個体差成分を大幅に取り除き高精度にオブジェクトの検出を行うことができる。
なお、入力データに対し補間処理を行う前処理手段をさらに備え、前処理手段が、識別手段における検出精度に応じてサンプリング周波数を決定するものであれば、サンプリング方向に感度が高い性質を利用し、検出の精度を高く設定することが可能になる。
本発明の情報処理装置の好ましい実施形態を示すブロック図 識別するモダリティが顔の位置である場合に位置を識別する変換行列の学習に用いられる複数の標本データの一例を示す模式図 識別するモダリティが顔の向きである場合に向きを識別する変換行列の学習に用いられる複数の標本データの一例を示す模式図 識別するモダリティが顔の大きさである場合に向きを識別する変換行列の学習に用いられる複数の標本データの一例を示す模式図 高次特異値分解(HOSVD)による変換の一例を示す概念図 図5の高次特異値分解(HOSVD)を応用した変換の一例を示す概念図 本発明の情報処理方法の好ましい実施形態を示すフローチャート 本発明の情報処理装置の別の実施形態を示すブロック図 本発明の情報処理装置を用いて画像処理装置の一例を示すブロック図
以下、図面を参照して本発明の実施の形態を詳細に説明する。図1は本発明の情報処理装置1の好ましい実施形態を示すブロック図である。なお、図1のような情報処理装置1の構成は、補助記憶装置に読み込まれた情報処理プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。また、この情報処理プログラムは、CD−ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。
情報処理装置1はたとえば入力データである画像について、所定のオブジェクト(たとえば顔等)の位置、大きさ、向き等のモダリティ(状態)を識別するものであって、前処理手段10、空間変換ユニット30、相関算出手段40、識別手段50を備えている。前処理手段10は、入力画像をオブジェクト検出手段において検出処理が可能な規準画像サイズに合わせるため拡大または縮小するものである。ここで、拡大縮小する手法としてたとえばバイキュービック、Bスプライン、バイリニア、ニアレストネイバー等の公知の技術を用いることができる。また、前処理手段10は、識別手段における検出精度に応じてサンプリング周波数を決定する機能を有していてもよい。これにより、後述するモダリティの識別の感度がサンプリング方向に対し感度が高いことを利用し、補間された入力データ内の微小な差を検出することができるようになるため、識別精度を高く設定することが可能になる。
各空間変換ユニット30は第1射影行列Uと第2射影行列(Σ12 )とを備えた変換行列U・(Σ12 )を用いて変換処理を行うものである。この変換行列U・(Σ12 )は、識別対象ではないモダリティは同一であって識別対象であるモダリティが異なる複数の標本データにより学習されたものである。たとえば、モダリティとしてオブジェクト(顔)の位置を識別したい場合、図2に示すように、顔の位置のみが異なる複数の標本データ毎にそれぞれ変換行列U・(Σ12 )が用意される。
より具体的には、顔を上下左右方向に1画素だけずれた位置毎にモダリティを識別する場合には、たとえば顔が中央の位置にある標本データにより学習された変換行列U・(Σ12 )、顔が1画素だけ右にずれた位置にある標本データにより変換行列U・(Σ12 )というように、合計9×9個の変換行列(複数の空間変換ユニット30〜3081)が用意される。同様に図3に示すように、モダリティとしてオブジェクト(顔)の向きを識別したい場合、各顔の向き毎の複数の標本データを用いてそれぞれ変換行列が生成される。また、図4に示すように、モダリティとしてオブジェクト(顔)の向きを識別したい場合、各顔の大きさ毎の複数の標本データを用いてそれぞれ変換行列U・(Σ12 )が生成される。
上述した実空間データである入力データPと固有空間ベクトル(空間ベクトル)間の変換行列U・(Σ12 )は、標本データ(図2−図4参照)を用いて特異値分解(SVD、HOSVD)等の公知の手法により予め学習される。たとえば図5に示すように、データ列Mが多重線形行列M=U・(Σ12 )で表せるものとし、これに予め正規化済の画像群からなる複数の学習画像セットが与えられる。そして、第1射影行列Uおよび第2変換行列U が主成分分析(PCA)、特異値分解(SVD)等により求められる。次に、第1射影行列Uと行列U とに基づいて、異なる次元数の空間の間でも変換を可能にする(テンソル)行列Σ12が求められる。なお、SVDまたはHOSVDにより変換行列が学習された場合について例示しているが、直交LPP(Neighborhood Preserving Embedding,Isomap,Locally Linear Embedding,Laplacian Eigenmaps)等の公知の手法により求めてもよい。
図1の各空間変換ユニット30は、第1射影手段31、第2射影手段32を備えている。第1射影手段31は、前処理済みの入力データPに第1射影行列Uを用いて射影し入力データPをp次元の空間ベクトルBに変換するものである。第2射影手段32は、第1射影手段31により変換された空間ベクトルBを第2変換行列Σ12 を用いて空間ベクトルBよりも次元数の少ないq次元(q<p)の射影データP10を複数生成し、さらに射影データP10に対し第2変換行列(Σ12 )の逆射影を行うことにより逆空間ベクトルB10を生成するものである。
相関算出手段40は、空間ベクトルBと逆空間ベクトルB10の相関を算出するものである。ここで、相関算出手段40は、空間ベクトルBと逆空間ベクトルB10との2つのベクトルの同一次元間の差の2乗累積和もしくは差の絶対値の累積和等を相関値として算出する。識別手段50は、相関算出手段40により複数の空間変換ユニット30毎に算出された相関のうち、最も相関の高い空間変換ユニット30が示すモダリティを入力データPのモダリティであると識別するものである。
ここで、空間ベクトルBと逆空間ベクトルB10との相関は、変換行列U・(Σ12 )の学習に用いられた標本データとの示すモダリティと入力データのモダリティとが近ければ近いほど高くなる。つまり、図6に示すように、標本データにより学習された変換行列U・(Σ12 )においては、標本データについて第1射影行列Uを用いた空間ベクトルBと、変換行列U・(Σ12 )を用いて第2空間に一度射影し、さらに第1空間への逆射影した逆空間ベクトルB10とは完全に同一にはならないが極めて近似したベクトルになる性質を有している。これは、入力データPが標本データのモダリティが近ければ近いほど相関算出手段40により算出される相関が高くなることを意味する。この性質を利用して、空間ベクトルBと逆空間ベクトルB10との相関を指標として、入力データPのモダリティが標本データのモダリティにどの程度一致するのかを識別する。
これにより、入力データPの個体差を排除して精度良く入力データPのモダリティを識別することができる。すなわち、従来のように入力データPを空間に写像して空間における分類クラスとの距離等に基づいてモダリティを検出する場合、入力データの個体差により空間ベクトルは変化し、精度の高いモダリティ検出を行うことできない。一方、テンソル変換を用いた変換行列U・(Σ12 )に標本データを入力した際には空間ベクトルBと逆空間ベクトルB10とは同一のものにはならないが、極めて近似したものになることを利用し、入力データPと逆射影画像P20との相関に基づいてモダリティを検出することで、入力データPの個体差を排除した検出を行うことができる。
さらに、標本データ群空間内における入力の位置関係スコアが求められることは自明であるが、標本データ群との位置関係を用いずに入力のみの単一対象から高精度な自己相関的スコアを求めることは困難である。一方、主成分分析(PCA)等のように全標本データと入力との総当りで特徴位置関係を求めて最も相関の高い標本データとの残差を指標とする検出方式と比べ大幅な高速化を図ることができる。また、空間ベクトルB、B10は入力データPの空間に比べて次元が削減されているため、ノイズ等のオブジェクト検出への寄与率の少ない情報を削除し検出の高速化を行うことができる。
図7は本発明の情報処理方法の好ましい実施形態を示すフローチャートであり、図1から図7を参照して情報処理方法について説明する。まず、入力データPが入力されると、前処理手段10による前処理が行われる(ステップST1)。そして、前処理済みの入力データPに対して各空間変換ユニット30毎に空間ベクトルBおよび逆空間ベクトルB10が生成される(ステップST2、ST3)。
その後、相関算出手段40により空間ベクトルBおよび逆空間ベクトルB10との相関が算出され(ステップST4)、識別手段50において複数の相関のうち最も相関の高い空間変換ユニット30の示すモダリティを入力データPとして識別する(ステップST5)。このように、空間ベクトルBおよび逆空間ベクトルB10との相関を用いてモダリティを検出することにより、入力データPの個体差を排除した精度の良いモダリティ検出を行うことができる。
図8は本発明の情報処理装置の別の実施形態を示すブロック図であり、図8を参照して情報処理装置100について説明する。なお、図8において図1の情報処理装置と同一の構成を有する部位には同一の符号を付してその説明を省略する。図8の情報処理装置100が図1の情報処理装置1と異なる点は、実空間データ間における相関が算出され識別される点である。
すなわち、各空間変換ユニット130における第1射影手段131は変換行列U・(Σ12 )による変換を行い射影データP10を生成する。一方、第2射影手段132は、射影データP10に対し第2変換行列Σ12 および第1射影行列Uの順に逆射影を行うことにより逆射影画像P20を生成する(図5、図6参照)。そして、相関算出手段140は入力データPと逆射影データP20との相関を算出し、識別手段50は相関の高い空間変換ユニット30の示すモダリティを入力データPのモダリティであると識別する。このように、実空間上において相関を算出する場合であっても、図1の空間ベクトルの相関を算出する場合と同様、オブジェクトの個体差による検出精度の劣化を防止することができる。
ところで、上述した情報処理装置1、100は、モダリティの検出を目的とする装置に適用することができることは勿論、モダリティの検出結果に基づいて低解像度画像から高解像度画像を復元するデータ変換装置に用いることができる。図9はオブジェクト検出装置を用いた超解像度化するための画像処理装置200の一例を示すブロック図であり、図9を参照して画像処理装置200について説明する。画像処理装置200は、前処理手段210、画像分割手段220、射影手段230、画像調整手段240等を有している。
前処理手段210は、入力された低解像画像に対し前処理を施すものであって、たとえばサイズ拡大処理と高域通過処理を行う。サイズ拡大処理は、低解像画像を高解像画像と同サイズに拡大するものであって、たとえばバイキュービック、Bスプライン、バイリニア、ニアレストネイバー等の公知の技術を用いることができる。高域通過処理は、入力された低解像画像Pに低域を抑制するフィルター処理を行うものであって、たとえばアンシャープマスク、ラプラシアン、グラジエント等の公知の技術が用いられる。これにより、低周波域に存在する照明変動を抑制することができ照明変動に対するロバスト性を向上させることができる。また、変換の対象を周波数全域から高周波成分に限定することで、学習で使用できる空間全てが高周波成分に割り当てられるようになる。
画像分割手段220は、全体画像Pを格子状に分割し複数の部分画像を生成するものである。これにより、高解像度化処理の対象を画像の局所に限定して変換対象を低次元で扱えるようにしたため、高品質かつ個人差の変化に対してロバスト化することができる。
射影手段230は、標本低解像度画像と標本高解像度画像のペアからなる複数のペア標本データに基づいて学習された下記式(1)に示す変換行列を用いて各部分画像に対する高解像画像を生成するものである。
={S −1・(Σ12H )・(Σ12L ) −1・S}・P ・・・(1)
あるいは、図5、図6において説明した高次特異値分解のように、各ペア標本データにおいて、第1射影行列Mを用いて標本変換前データを空間上に射影した第1空間上のベクトルと、第2射影行列Mを用いて標本変換後データを空間上に射影した第2空間上のベクトルとが略同一になる前提において、下記式(2)により高解像画像Pを生成するようにしてもよい。
={(M)・(M−1}・P ・・・(2)
ここで、フィルタデータベースDBにはオブジェクトの位置、大きさ、回転、向き情報に応じて異なる変換行列が記憶されており、フィルタ選択手段240は情報処理装置1において検出されたオブジェクトの位置、大きさ、回転、向き情報に基づいてフィルタデータベースDBから上述した変換行列を選択する。そして、射影手段230は、フィルタ選択手段240によりフィルタデータベースDBの中から選択された変換行列を用いて上記式(1)または式(2)により画像の復元を行う。これにより、オブジェクトのモダリティに適したフィルタ係数を用いて高解像度化処理を行うことができる。
画像調整手段250は、各オブジェクトのモダリティ毎に生成された高解像度画像の和を出力するものである。なお、係数ベクトル補正が大きい場合から求められた高解像画像の影響が小さくなるように重み付け加算してもよい。
上記実施の形態によれば、入力データPを複数の第1射影行列Uを用いて複数の空間ベクトルBに射影するとともに、入力データPを複数の変換行列U・(Σ12 )群を用いて複数の射影データP10を生成し、さらにモダリティ毎に射影データP10に対し第2変換行列(Σ12 )の逆射影を行うことにより逆空間ベクトルB10を生成し、生成した空間ベクトルBと逆空間ベクトルB10との相関を変換行列U・(Σ12 )毎に算出し、算出した相関が最も高い変換行列U・(Σ12 )が示すモダリティを入力データのモダリティとして識別することにより、空間ベクトルBと逆空間ベクトルB10とは完全ではないが高精度に元に戻る性質を利用し、自己相関的スコアを検出の指標として検出を行うため、入力データに含まれる個体差成分を大幅に取り除き高精度にオブジェクトの検出を行うことができる。
同様に、図8に示す情報処理装置100および方法ならびにプログラムによれば、入力データPを複数の各変換行列U・(Σ12 )を用いて複数の射影データP10を生成し、生成した複数の射影データP10に対し変換行列U・(Σ12 )の逆射影を行うことにより逆射影データP20を生成し、入力データPと逆射影データP20との相関を変換行列U・(Σ12 )毎に算出し、算出した相関が最も高い変換行列U・(Σ12 )が示すモダリティを入力データのモダリティとして識別することにより、入力データPと逆射影データP20とは完全ではないが高精度に元に戻る性質を利用し、自己相関的スコアを検出の指標として検出を行うため、入力データに含まれる個体差成分を大幅に取り除き高精度にオブジェクトの検出を行うことができる。
なお、入力データに対し補間処理を行う前処理手段10をさらに備え、前処理手段10が、識別手段50における検出精度に応じてサンプリング周波数を決定するものであれば、サンプリング方向に感度が高い性質を利用し、検出の精度を高く設定することが可能になる。
本発明の実施形態は上記実施形態に限定されない。たとえば、オブジェクトとして顔の場合について例示しているが、顔の他に頭部または人物の手等の人体の一部の部位、あるいは人体以外の生体の少なくとも一部の部位を含む領域であってもよい。さらには、生体の内部に存在する血管、特定の組織、生体内部の腫瘍組織、細胞、タンパク質、DNA、RNA等の高分子、低分子であってもよい。他にも、薬等の化合物やタンパク質、貨幣、キャッシュカード等のカード、車輌、あるいは車両のナンバープレート、複写機等のスキャナ機器によりスキャニングされたドキュメントの文字、図面、表、写真などであってもよい。さらに、外界における特定の事象をオブジェクトの例として挙げているが、統計的偏りのある群であればよく、例えば所定のテクスチャを有する領域をオブジェクトとして検出するものであってもよい。
また、オブジェクトのモダリティとして顔の向き・大きさ・位置や照明条件について例示しているが、人種、年齢、性別等の被写体の種別をオブジェクトのモダリティとしてもよいし、撮像された人物の表情、撮像された人物のしぐさ、撮像された人物の姿勢、撮像された人物が着用している着用物(めがね、サングラス、マスク、帽子など)等の被写体像の属性をオブジェクトのモダリティとして用いてもよい。
さらに、オブジェクト検出手段による検出結果を用いて超解像化を行う場合について例示しているが、折り返し成分を低減した縮小、多色数化、多階調数化、ノイズ低減化、ブロックノイズおよびモスキートノイズなどのアーチファクトを低減するアーチファクト低減化、ボケ低減化、シャープネス化、高フレームレート化、広ダイナミックレンジ化、色階調補正、歪み収差補正、符号化などの変換処理に用いてもよい。
1、100 情報処理装置
10 前処理手段
30 空間変換ユニット
31、131 第1射影手段
32、132 第2射影手段
40、140 相関算出手段
50 識別手段
空間ベクトル
10 逆空間ベクトル
入力データ
10 射影データ
20 逆射影データ
20 逆射影画像

Claims (8)

  1. 識別対象ではないモダリティは同一であって識別対象であるモダリティが異なる複数の標本データにより異なる前記モダリティ毎にそれぞれ学習された、入力データを空間ベクトルに射影する第1射影行列と該空間ベクトルを該空間ベクトルよりも次元数の少ない射影データに射影する第2射影行列とを備えた複数の変換行列群を用いて、前記入力データのモダリティを識別する情報処理装置であって、
    前記入力データを複数の前記第1射影行列を用いて複数の前記空間ベクトルに射影する第1射影手段と、
    前記入力データを前記複数の変換行列群を用いて複数の射影データを生成し、さらに該射影データに対し前記第2変換行列の逆射影を行うことにより逆空間ベクトルを生成する第2射影手段と、
    前記第1射影手段により生成された前記空間ベクトルと、前記第2射影手段により生成された前記逆空間ベクトルとの相関を前記変換行列毎に算出する相関算出手段と、
    該相関算出手段により算出された前記相関が最も高い前記変換行列が示す前記モダリティを前記入力データのモダリティとして識別する識別手段と
    を備えたことを特徴とする情報処理装置。
  2. 識別対象ではないモダリティは同一であって識別対象であるモダリティが異なる複数の標本データにより異なる前記モダリティ毎にそれぞれ学習された、入力データを空間ベクトルに射影する第1射影行列と該空間ベクトルを該空間ベクトルよりも次元数の少ない射影データに射影する第2射影行列とを備えた複数の変換行列群を用いて、前記入力データのモダリティを識別する情報処理装置であって、
    前記入力データを複数の前記各変換行列を用いて複数の前記射影データを生成する第1射影手段と、
    該第1射影手段により生成された前記複数の射影データに対しそれぞれ前記変換行列の逆射影を行うことにより複数の逆射影データを生成する第2射影手段と、
    前記入力データと前記第2射影手段により生成された前記逆射影データとの相関を前記変換行列毎に算出する相関算出手段と、
    該相関算出手段により算出された前記相関が最も高い前記変換行列が示す前記モダリティを前記入力データのモダリティとして識別する識別手段と
    を備えたことを特徴とする情報処理装置。
  3. 前記各変換行列が前記第1射影行列および前記第2射影行列を含む複数の空間変換行列からなる多重線形変換行列であることを特徴とする請求項1または2記載の情報処理装置。
  4. 前記入力データに対し補間処理を行う前処理手段をさらに備え、該前処理手段が、前記識別手段における検出精度に応じてサンプリング周波数を決定するものであることを特徴とする請求項1から3のいずれか1項記載の情報処理装置。
  5. 識別対象ではないモダリティは同一であって識別対象であるモダリティが異なる複数の標本データにより異なる前記モダリティ毎にそれぞれ学習された、入力データを空間ベクトルに射影する第1射影行列と該空間ベクトルを該空間ベクトルよりも次元数の少ない射影データに射影する第2射影行列とを備えた複数の変換行列群を用いて、前記入力データのモダリティを識別する情報処理方法であって、
    前記入力データを複数の前記第1射影行列を用いて複数の前記空間ベクトルに射影するとともに、前記入力データを前記複数の変換行列群を用いて複数の射影データを生成し、さらに該射影データに対し前記第2変換行列の逆射影を行うことにより逆空間ベクトルを生成し、
    生成した前記空間ベクトルと前記逆空間ベクトルとの相関を前記変換行列毎に算出し、
    算出した前記相関が最も高い前記変換行列が示す前記モダリティを前記入力データのモダリティとして識別する
    を備えたことを特徴とする情報処理方法。
  6. 識別対象ではないモダリティは同一であって識別対象であるモダリティが異なる複数の標本データにより異なる前記モダリティ毎にそれぞれ学習された、入力データを空間ベクトルに射影する第1射影行列と該空間ベクトルを該空間ベクトルよりも次元数の少ない射影データに射影する第2射影行列とを備えた複数の変換行列群を用いて、前記入力データのモダリティを識別する情報処理方法であって、
    前記入力データを複数の前記各変換行列を用いて複数の射影データを生成し、
    生成した前記複数の射影データに対し前記変換行列の逆射影を行うことにより逆射影データを生成し、
    前記入力データと前記逆射影データとの相関を前記変換行列毎に算出し、
    算出した前記相関が最も高い前記変換行列が示す前記モダリティを前記入力データのモダリティとして識別する
    ことを特徴とする情報処理方法。
  7. コンピュータに、識別対象ではないモダリティは同一であって識別対象であるモダリティが異なる複数の標本データにより異なる前記モダリティ毎にそれぞれ学習された、入力データを空間ベクトルに射影する第1射影行列と該空間ベクトルを該空間ベクトルよりも次元数の少ない射影データに射影する第2射影行列とを備えた複数の変換行列群を用いて、前記入力データのモダリティを識別することを実行させるための情報処理プログラムであって、
    前記入力データを複数の前記第1射影行列を用いて複数の空間ベクトルに射影するとともに、前記入力データを前記複数の変換行列群を用いて複数の射影データを生成し、さらに該射影データに対し前記第2変換行列の逆射影を行うことにより逆空間ベクトルを生成する手順と、
    生成した前記空間ベクトルと前記逆空間ベクトルとの相関を前記変換行列毎に算出する手順と、
    算出した前記相関が最も高い前記変換行列が示す前記モダリティを前記入力データのモダリティとして識別する手順と
    を実行させるための情報処理プログラム。
  8. コンピュータに、識別対象ではないモダリティは同一であって識別対象であるモダリティが異なる複数の標本データにより異なる前記モダリティ毎にそれぞれ学習された、入力データを空間ベクトルに射影する第1射影行列と該空間ベクトルを該空間ベクトルよりも次元数の少ない射影データに射影する第2射影行列とを備えた複数の変換行列群を用いて、前記入力データのモダリティを識別することを実行させるための情報処理プログラムであって、
    前記入力データを複数の前記各変換行列を用いて複数の射影データを生成する手順と、
    生成した前記複数の射影データに対し前記変換行列の逆射影を行うことにより逆射影データを生成する手順と、
    前記入力データと前記逆射影データとの相関を前記変換行列毎に算出する手順と、
    算出した前記相関が最も高い前記変換行列が示す前記モダリティを前記入力データのモダリティとして識別する手順と
    を実行させるための情報処理プログラム。
JP2010096855A 2010-04-20 2010-04-20 情報処理装置および方法ならびにプログラム Active JP5524692B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010096855A JP5524692B2 (ja) 2010-04-20 2010-04-20 情報処理装置および方法ならびにプログラム
US13/090,083 US9129149B2 (en) 2010-04-20 2011-04-19 Information processing apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010096855A JP5524692B2 (ja) 2010-04-20 2010-04-20 情報処理装置および方法ならびにプログラム

Publications (2)

Publication Number Publication Date
JP2011227704A true JP2011227704A (ja) 2011-11-10
JP5524692B2 JP5524692B2 (ja) 2014-06-18

Family

ID=44788249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010096855A Active JP5524692B2 (ja) 2010-04-20 2010-04-20 情報処理装置および方法ならびにプログラム

Country Status (2)

Country Link
US (1) US9129149B2 (ja)
JP (1) JP5524692B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021536146A (ja) * 2019-08-07 2021-12-23 グーグル エルエルシーGoogle LLC ビデオ通話のための顔に基づくフレームレートのアップサンプリング

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5524692B2 (ja) * 2010-04-20 2014-06-18 富士フイルム株式会社 情報処理装置および方法ならびにプログラム
US9094570B2 (en) 2012-04-30 2015-07-28 Hewlett-Packard Development Company, L.P. System and method for providing a two-way interactive 3D experience
US20150189233A1 (en) * 2012-04-30 2015-07-02 Goggle Inc. Facilitating user interaction in a video conference
US9282284B2 (en) * 2013-05-20 2016-03-08 Cisco Technology, Inc. Method and system for facial recognition for a videoconference
KR102010378B1 (ko) * 2014-09-24 2019-08-13 삼성전자주식회사 객체를 포함하는 영상의 특징을 추출하는 방법 및 장치
KR102221118B1 (ko) * 2016-02-16 2021-02-26 삼성전자주식회사 영상의 특징을 추출하여 객체를 인식하는 방법
US11144785B2 (en) * 2016-03-17 2021-10-12 Imagia Cybernetics Inc. Method and system for processing a task with robustness to missing input information
US9779322B1 (en) 2016-04-08 2017-10-03 Gopro, Inc. Systems and methods for generating stereographic projection content
US9973695B1 (en) 2016-07-29 2018-05-15 Gopro, Inc. Systems and methods for capturing stitched visual content
US9747667B1 (en) * 2016-09-29 2017-08-29 Gopro, Inc. Systems and methods for changing projection of visual content
US10536702B1 (en) 2016-11-16 2020-01-14 Gopro, Inc. Adjusting the image of an object to search for during video encoding due to changes in appearance caused by camera movement
US10250866B1 (en) 2016-12-21 2019-04-02 Gopro, Inc. Systems and methods for capturing light field of objects
US11126860B2 (en) * 2017-09-21 2021-09-21 Adacotech Incorporated Abnormality detection device, abnormality detection method, and storage medium
US11689526B2 (en) 2019-11-19 2023-06-27 Paypal, Inc. Ensemble method for face recognition deep learning models

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005122388A (ja) * 2003-10-15 2005-05-12 Advanced Telecommunication Research Institute International 画像生成装置、姿勢認識装置、物体追跡装置、画像生成方法、姿勢認識方法、および物体追跡方法
JP2005250863A (ja) * 2004-03-04 2005-09-15 Univ Waseda 領域検出方法およびそのシステム

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69031866T2 (de) * 1990-03-30 1998-06-18 Koninkl Philips Electronics Nv Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation
US5164992A (en) * 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US5414623A (en) * 1992-05-08 1995-05-09 Iowa State University Research Foundation Optoelectronic system for implementation of iterative computer tomography algorithms
US5432821A (en) * 1992-12-02 1995-07-11 University Of Southern California System and method for estimating data sequences in digital transmissions
US6081753A (en) * 1996-03-12 2000-06-27 The United States Of America As Represented By The Secretary Of The Army Method of determining probability of target detection in a visually cluttered scene
US6188776B1 (en) * 1996-05-21 2001-02-13 Interval Research Corporation Principle component analysis of images for the automatic location of control points
US5943442A (en) * 1996-06-12 1999-08-24 Nippon Telegraph And Telephone Corporation Method of image processing using parametric template matching
US6044168A (en) * 1996-11-25 2000-03-28 Texas Instruments Incorporated Model based faced coding and decoding using feature detection and eigenface coding
US6345109B1 (en) * 1996-12-05 2002-02-05 Matsushita Electric Industrial Co., Ltd. Face recognition-matching system effective to images obtained in different imaging conditions
JP2815045B2 (ja) * 1996-12-16 1998-10-27 日本電気株式会社 画像特徴抽出装置,画像特徴解析装置,および画像照合システム
US5819258A (en) * 1997-03-07 1998-10-06 Digital Equipment Corporation Method and apparatus for automatically generating hierarchical categories from large document collections
EP0944018B1 (en) * 1998-03-19 2011-08-24 Panasonic Corporation Method and apparatus for recognizing image pattern, method and apparatus for judging identity of image patterns, recording medium for recording the pattern recognizing method and recording medium for recording the pattern identity judging method
US6665335B1 (en) * 1999-11-08 2003-12-16 National Instruments Corporation System and method for estimating a shift between two signals where one signal is known in advance
JP4443722B2 (ja) * 2000-04-25 2010-03-31 富士通株式会社 画像認識装置及び方法
FI20001133A (fi) * 2000-05-12 2001-11-13 Nokia Corp Menetelmä päätelaitteiden ja yhteysaseman välisen tiedonsiirron järjestämiseksi tiedonsiirtojärjestelmässä
JP3808311B2 (ja) * 2000-12-28 2006-08-09 株式会社エヌ・ティ・ティ・ドコモ 受信方法及び受信機
US20030026484A1 (en) * 2001-04-27 2003-02-06 O'neill Mark Automated image identification system
US6826300B2 (en) * 2001-05-31 2004-11-30 George Mason University Feature based classification
DE60226754D1 (de) * 2001-09-25 2008-07-03 Matsushita Electric Ind Co Ltd Parameterschätzvorrichtung und datenkollationsvorrichtung
US20030139926A1 (en) * 2002-01-23 2003-07-24 Ying Jia Method and system for joint optimization of feature and model space transformation of a speech recognition system
JP4210137B2 (ja) * 2002-03-04 2009-01-14 三星電子株式会社 2次icaを利用した顔認識法及びその装置
US7254257B2 (en) * 2002-03-04 2007-08-07 Samsung Electronics Co., Ltd. Method and apparatus of recognizing face using component-based 2nd-order principal component analysis (PCA)/independent component analysis (ICA)
US7082394B2 (en) * 2002-06-25 2006-07-25 Microsoft Corporation Noise-robust feature extraction using multi-layer principal component analysis
US20040208390A1 (en) * 2003-04-18 2004-10-21 Medispectra, Inc. Methods and apparatus for processing image data for use in tissue characterization
US20040209237A1 (en) * 2003-04-18 2004-10-21 Medispectra, Inc. Methods and apparatus for characterization of tissue samples
CA2493105A1 (en) * 2002-07-19 2004-01-29 British Telecommunications Public Limited Company Method and system for classification of semantic content of audio/video data
US8947347B2 (en) * 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US7391889B2 (en) * 2002-10-15 2008-06-24 Samsung Electronics Co., Ltd. Method and apparatus for extracting feature vector used for face recognition and retrieval
JP2004258991A (ja) * 2003-02-26 2004-09-16 Nec Corp Edr方向推定方法、システム、プログラム、及び記録媒体
US20060013454A1 (en) * 2003-04-18 2006-01-19 Medispectra, Inc. Systems for identifying, displaying, marking, and treating suspect regions of tissue
US7117108B2 (en) * 2003-05-28 2006-10-03 Paul Ernest Rapp System and method for categorical analysis of time dependent dynamic processes
JP2005133813A (ja) 2003-10-30 2005-05-26 Fuso Gijutsu Kenkyusho:Kk Fcdバルブと片フランジ管との接合部分の補強方法
US7394530B2 (en) * 2004-03-30 2008-07-01 Budd Gerald W Surface inspection technology for the detection of porosity and surface imperfections on machined metal surfaces
WO2005114557A2 (en) * 2004-05-13 2005-12-01 Proximex Multimodal high-dimensional data fusion for classification and identification
US7133048B2 (en) * 2004-06-30 2006-11-07 Mitsubishi Electric Research Laboratories, Inc. Variable multilinear models for facial synthesis
US20060020401A1 (en) * 2004-07-20 2006-01-26 Charles Stark Draper Laboratory, Inc. Alignment and autoregressive modeling of analytical sensor data from complex chemical mixtures
JP2006092151A (ja) 2004-09-22 2006-04-06 Konica Minolta Holdings Inc 領域検出装置、領域検出プログラムおよび領域検出方法
JP2006203296A (ja) * 2005-01-18 2006-08-03 Canon Inc 補間処理方法、補間処理プログラム及び撮像装置
FR2884007A1 (fr) * 2005-03-29 2006-10-06 France Telecom Procede d'identification de visages a partir d'images de visage, dispositif et programme d'ordinateur correspondants
US7817826B2 (en) * 2005-08-12 2010-10-19 Intelitrac Inc. Apparatus and method for partial component facial recognition
US7899253B2 (en) * 2006-09-08 2011-03-01 Mitsubishi Electric Research Laboratories, Inc. Detecting moving objects in video by classifying on riemannian manifolds
US8606019B2 (en) * 2007-04-23 2013-12-10 Nec Corporation Matching method for two-dimensional pattern, feature extracting method, apparatus used for the methods, and programs
JP2009134466A (ja) 2007-11-29 2009-06-18 Ntt Data Corp 認識処理装置、方法及びコンピュータプログラム
EP2327061A4 (en) * 2008-08-15 2016-11-16 Univ Brown METHOD AND DEVICE FOR ESTIMATING BODY SHAPES
US8358857B2 (en) * 2008-10-03 2013-01-22 Sony Corporation Dynamic clustering for adaptive prediction filters
JP5410355B2 (ja) * 2010-04-13 2014-02-05 富士フイルム株式会社 行列生成装置、方法、プログラムならびに情報処理装置
JP5524692B2 (ja) * 2010-04-20 2014-06-18 富士フイルム株式会社 情報処理装置および方法ならびにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005122388A (ja) * 2003-10-15 2005-05-12 Advanced Telecommunication Research Institute International 画像生成装置、姿勢認識装置、物体追跡装置、画像生成方法、姿勢認識方法、および物体追跡方法
JP2005250863A (ja) * 2004-03-04 2005-09-15 Univ Waseda 領域検出方法およびそのシステム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021536146A (ja) * 2019-08-07 2021-12-23 グーグル エルエルシーGoogle LLC ビデオ通話のための顔に基づくフレームレートのアップサンプリング
JP7000588B2 (ja) 2019-08-07 2022-01-19 グーグル エルエルシー ビデオ通話のための顔に基づくフレームレートのアップサンプリング
JP2022050463A (ja) * 2019-08-07 2022-03-30 グーグル エルエルシー ビデオ通話のための顔に基づくフレームレートのアップサンプリング
US11321555B2 (en) 2019-08-07 2022-05-03 Google Llc Face-based frame rate upsampling for video calls
JP7320591B2 (ja) 2019-08-07 2023-08-03 グーグル エルエルシー ビデオ通話のための顔に基づくフレームレートのアップサンプリング
US11869274B2 (en) 2019-08-07 2024-01-09 Google Llc Face-based frame rate upsampling for video calls

Also Published As

Publication number Publication date
JP5524692B2 (ja) 2014-06-18
US9129149B2 (en) 2015-09-08
US20110255802A1 (en) 2011-10-20

Similar Documents

Publication Publication Date Title
JP5524692B2 (ja) 情報処理装置および方法ならびにプログラム
Li et al. Fusing images with different focuses using support vector machines
JP7422825B2 (ja) 顕微鏡スライド画像のための焦点重み付き機械学習分類器誤り予測
Trinh et al. Novel example-based method for super-resolution and denoising of medical images
CN108549886A (zh) 一种人脸活体检测方法及装置
JP4739355B2 (ja) 統計的テンプレートマッチングによる高速な物体検出方法
US8605995B2 (en) Image processing device and method, data processing device and method, program, and recording medium
JP5410355B2 (ja) 行列生成装置、方法、プログラムならびに情報処理装置
US8565518B2 (en) Image processing device and method, data processing device and method, program, and recording medium
JP6368709B2 (ja) 3次元身体データを生成する方法
JP2018195309A (ja) 顔認識のための画像処理装置の訓練方法及び訓練装置
CN107767358B (zh) 一种图像中物体模糊度确定方法和装置
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
CN110633711B (zh) 训练特征点检测器的计算机装置、方法及特征点检测方法
CN110895815A (zh) 一种基于深度学习的胸部x线气胸分割方法
Shen et al. 3D Gabor wavelets for evaluating SPM normalization algorithm
Saeed et al. A granular level feature extraction approach to construct hr image for forensic biometrics using small training dataset
JP6645442B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
Singh et al. Towards a super-resolution based approach for improved face recognition in low resolution environment
CN112488137A (zh) 样本获取方法、装置、电子设备及机器可读存储介质
Kaya et al. Genetic algorithm based image reconstruction applying the digital holography process with the Discrete Orthonormal Stockwell Transform technique for diagnosis of COVID-19
Chen et al. Face super resolution based on parent patch prior for VLQ scenarios
CN116934747A (zh) 眼底图像分割模型训练方法、设备和青光眼辅助诊断系统
JP7385046B2 (ja) 色斑予測方法、装置、設備及び記憶媒体
JP2012234500A (ja) パターン識別装置、パターン識別方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140410

R150 Certificate of patent or registration of utility model

Ref document number: 5524692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250