JP2007065766A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2007065766A
JP2007065766A JP2005247936A JP2005247936A JP2007065766A JP 2007065766 A JP2007065766 A JP 2007065766A JP 2005247936 A JP2005247936 A JP 2005247936A JP 2005247936 A JP2005247936 A JP 2005247936A JP 2007065766 A JP2007065766 A JP 2007065766A
Authority
JP
Japan
Prior art keywords
face
feature
image
mapping
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005247936A
Other languages
English (en)
Other versions
JP4595750B2 (ja
Inventor
Atsushi Okubo
厚志 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005247936A priority Critical patent/JP4595750B2/ja
Priority to DE602006011990T priority patent/DE602006011990D1/de
Priority to EP06254422A priority patent/EP1760635B1/en
Priority to US11/511,151 priority patent/US8249310B2/en
Priority to CN2006101322898A priority patent/CN1924897B/zh
Priority to KR1020060082095A priority patent/KR101217349B1/ko
Publication of JP2007065766A publication Critical patent/JP2007065766A/ja
Application granted granted Critical
Publication of JP4595750B2 publication Critical patent/JP4595750B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 取得された顔画像の顔と識別対象の顔画像の顔とが、異なる向きである場合、識別対象の顔であるか否かの識別を行なう。
【解決手段】 任意方向顔検出部12は、画像入力部11に入力された顔画像の顔が向いている方向を検出する。顔特徴位置検出部13は、顔画像から特徴となる顔の位置を検出する。局所特徴量算出部14は、顔特徴位置検出部13により検出された顔の特徴位置の近傍の画像から特徴量を算出する。データベース16には、識別対象とされている顔の特徴量が登録されている。写像部15は入力された顔の方向と、登録されている顔の方向が一致するように、局所特徴量算出部14から供給された特徴量を、データベース16に予め登録されている写像関数を用いて写像する。顔識別部17は、写像された特徴量とデータベース16に登録されている特徴量とから、登録されている人であるか否かを判断する。
【選択図】 図1

Description

本発明は画像処理装置および方法、並びにプログラムに関し、特に、物体の識別をより精度良くできるようにした画像処理装置および方法、並びにプログラムに関する。
近年、人を識別する装置(技術)の開発が行われ、利用されつつある。人を識別する技術は、例えば、セキュリティを向上させるために、所定の場所に入場する際に、その場所に入場して良い(許可が与えられている)人であるか否かの判断に用いることができると提案されている。また、人を識別することにより、識別された人の嗜好にあった情報を提供することなども提案されている。
人を識別する技術としては、人の顔を撮影し、その顔の画像と、事前に登録されている顔の画像とのマッチングを取る(どれだけ似ているかを判断するための演算)を行うことにより、登録されている人であるか否か、すなわち人の識別が行われる。このようにして人が識別される場合、予め登録されている顔画像と、取得される顔画像とのマッチングが行われるわけだが、必ずしも、予め登録されている顔画像の顔の方向と、取得される顔画像の顔の方向が、同一方向であるとは限らない。
すなわち、例えば、予め登録されている顔画像は、正面から撮影された顔の画像であり、取得される顔画像は、斜め45度から撮影された顔の画像であるといったように、異なる角度から撮影された顔画像同士のマッチングを取らなくてはならない場合がある。異なる角度から撮影された顔画像同士のマッチングを取る場合(登録された顔と異なる方向の顔を識別する場合)、人の顔の標準的な立体形状モデルを用いる手法が提案されている。(例えば、特許文献1参照)
特許文献1では、異なる方向から撮像された2枚の顔画像を比較するため、一方の顔画像を顔の立体形状モデルに貼り付け(マッピングし)、他方の顔画像と同じ方向に相当する顔画像を合成することにより、異なる方向の顔の画像を、同一方向の顔の画像にし、顔(人)の識別を行うことが提案されている。
また、非特許文献1では、標準的な3次元の顔の変形モデルを、さまざまなパラメータを基に変形させて合成した顔画像から入力顔画像に最も近似するパラメータを用いて顔識別を行う手法が提案されている。
特開2000−322577号公報 Volker Blanzの論文認ace Recognition Based on Fitting a 3D Morphable Model
特許文献1や非特許文献1などで提案されている従来の顔の認識に係わる方法は、標準的な顔の立体形状モデルから、コンピュータグラフィックス(CG)の手法を用いて異なる方向の顔を合成する手法をベースとしている。
立体形状モデルを作成するためには、高精度な立体計測装置が必要であるため、立体形状モデルを作成するコストが高くなってしまう。また、立体形状モデルを作成するためには、沢山のサンプルが必要であった。このような理由のため、例えば、家庭内で利用される製品などに立体形状モデルを用いた顔の識別機能を搭載した場合、利用する家庭内のユーザから立体形状モデルが作成されるのではなく、予め、複数の人から取得されたデータから生成された立体形状モデルが利用される。
また、使用されている立体形状モデルに合わないような顔形状の人物に合わせてモデルを更新することや、家族等の限定された少人数の識別に特化したモデルに変更することは困難であった。このようなことのために、立体形状モデルに合う人の識別は比較的良好に行えても、立体形状モデルに合わない人の識別は良好でなく、かつ、立体形状モデルを更新することが困難であるために、識別率を高めることが困難であった。
また、一般的に顔の識別が行われる場合、目、眉、鼻、口、輪郭等の顔の中でも特徴がある部分の位置、および、パターンから得られる特徴量が識別特徴量として寄与しており、それ以外の部分、例えば、頬などは識別特徴量としてあまり寄与していない。しかしながら、従来の顔の識別の手法では、顔画像全体を合成する手法であるため、識別に寄与しない部分の画像の合成も行う必要がある。そのような、識別に寄与しない部分を含めた処理を行うことは、顔識別を行う際には冗長的で、効率的ではなかった。
また、上述したように顔画像を標準的な顔立体形状モデルに当てはめて回転することにより合成した顔画像は、立体形状モデルと実際の顔の形状との相違が大きいと、正しく合成できないため識別性能は低下してしまう。また立体形状モデルをパラメータに基づき変形させて近似画像を求めるのは、その計算に時間がかかり、処理負担が増大してしまう。
ここでは、顔の識別を例に挙げて説明したが、例えば、車などの物体を識別するのにも、顔を識別する技術を流用できる場合があり、流用したようなときには、上記したような、識別率が低下する、処理にかかる時間や負担が増大するといったことは発生する可能性があった。
本発明は、このような状況に鑑みてなされたものであり、顔や所定の物体の識別精度を向上させるとともに、識別にかかる処理の時間や負担を軽減することができるようにするものである。
本発明の第1の側面の画像処理装置は、供給される画像から、顔画像の部分を検出する顔画像検出手段と、前記顔画像検出手段により検出された前記顔画像の顔が向いている方向を検出する顔方向検出手段と、前記顔画像検出手段により検出された顔画像と前記顔方向検出手段により検出された前記顔の方向とから、前記顔の特徴となる特徴位置を検出する特徴位置検出手段と、前記特徴位置検出手段により検出された前記特徴位置における特徴量を算出する特徴量算出手段と、前記特徴量算出手段により算出された前記特徴量を、所定の写像関数により写像する写像手段と、前記写像手段により写像された前記特徴量と、予め登録されている特徴量を用いて、前記顔画像検出手段により検出された前記顔は、登録されている顔であるか否かを識別する識別手段とを備える。
前記特徴量算出手段は、GaborFilterまたはGaussianDerivativeFilterにより前記特徴量を算出するようにすることができる。
前記写像手段は、写像関数として、SupportVectorRegressionを用いるようにすることができる。
前記写像手段は、前記特徴量算出手段により算出された前記特徴量を構成する要素のうち、少なくとも1つの要素を前記写像関数により写像するようにすることができる。
前記識別手段による識別結果が、不正解であった場合、前記写像関数を更新する更新手段をさらに備えるようにすることができる。
本発明の第1の側面の画像処理方法またはプログラムは、供給される画像から、顔画像の部分を検出する顔画像検出ステップと、前記顔画像検出ステップの処理で検出された前記顔画像の顔が向いている方向を検出する顔方向検出ステップと、前記顔画像検出ステップの処理で検出された顔画像と前記顔方向検出ステップの処理で検出された前記顔の方向とから、前記顔の特徴となる特徴位置を検出する特徴位置検出ステップと、前記特徴位置検出ステップの処理で検出された前記特徴位置における特徴量を算出する特徴量算出ステップと、前記特徴量算出ステップの処理で算出された前記特徴量を、所定の写像関数により写像する写像ステップと、前記写像ステップの処理で写像された前記特徴量と、予め登録されている特徴量を用いて、前記顔画像検出ステップの処理で検出された前記顔は、登録されている顔であるか否かを識別する識別ステップとを含む。
本発明の第2の側面の画像処理装置は、供給される画像から、所定の物体を検出する検出手段と、前記検出手段により検出された前記物体が向いている方向を検出する方向検出手段と、前記検出手段により検出された物体と前記方向検出手段により検出された前記物体が向いている方向とから、前記物体の特徴となる特徴位置を検出する特徴位置検出手段と、前記特徴位置検出手段により検出された前記特徴位置における特徴量を算出する特徴量算出手段と、前記特徴量算出手段により算出された前記特徴量を、所定の写像関数により写像する写像手段と、前記写像手段により写像された前記特徴量と、予め登録されている特徴量を用いて、前記顔画像検出手段により検出された前記物体は、登録されている物体であるか否かを識別する識別手段とを備える。
前記特徴量算出手段は、GaborFilterまたはGaussianDerivativeFilterにより前記特徴量を算出するようにすることができる。
前記写像手段は、写像関数として、SupportVectorRegressionを用いるようにすることができる。
前記写像手段は、前記特徴量算出手段により算出された前記特徴量を構成する要素のうち、少なくとも1つの要素を前記写像関数により写像するようにすることができる。
前記識別手段による識別結果が、不正解であった場合、前記写像関数を更新する更新手段をさらに備えるようにすることができる。
本発明の第2の側面の画像処理方法またはプログラムは、供給される画像から、所定の物体を検出する検出ステップと、前記検出ステップの処理で検出された前記物体が向いている方向を検出する方向検出ステップと、前記検出ステップの処理で検出された物体と前記方向検出ステップの処理で検出された前記物体が向いている方向とから、前記物体の特徴となる特徴位置を検出する特徴位置検出ステップと、前記特徴位置検出ステップの処理で検出された前記特徴位置における特徴量を算出する特徴量算出ステップと、前記特徴量算出ステップの処理で算出された前記特徴量を、所定の写像関数の処理で写像する写像ステップと、前記写像ステップの処理で写像された前記特徴量と、予め登録されている特徴量を用いて、前記顔画像検出ステップの処理で検出された前記物体は、登録されている物体であるか否かを識別する識別ステップとを含む。
本発明の第1の側面においては、取得された顔画像の顔と識別対象の顔画像の顔とが、異なる向きである場合、取得された顔画像から抽出された特徴量が、写像関数により写像され、その写像された特徴量と、識別対象の顔画像から抽出された特徴量とが用いられ、識別対象の顔であるか否かの識別が行われる。
本発明の第2の側面においては、取得された画像の物体と識別対象の画像の物体とが、異なる向きである場合、取得された物体画像から抽出された特徴量が、写像関数により写像され、その写像された特徴量と、識別対象の画像から抽出された特徴量とが用いられ、識別対象の物体であるか否かの識別が行われる。
以上のように、第1の側面によれば、人の顔を識別することができる。
また、本発明の第1の側面によれば、取得された顔画像の顔と識別対象の顔画像の顔とが、異なる向きである場合、取得された顔画像から抽出された特徴量を、写像関数により写像し、その写像された特徴量と、識別対象の顔画像から抽出された特徴量とを用いて識別対象の顔であるか否かの識別を行うため、演算量を減少させることが可能となる。
以上のように、第2の側面によれば、所定の物体を識別することができる。
また、本発明の第2の側面によれば、取得された画像の物体と識別対象の画像の物体とが、異なる向きである場合、取得された物体画像から抽出された特徴量を、写像関数により写像し、その写像された特徴量と、識別対象の画像から抽出された特徴量とを用いて、識別対象の物体であるか否かの識別を行うため、演算量を減少させることが可能となる。
以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
本発明の第1の側面の画像処理装置は、供給される画像から、顔画像の部分を検出する顔画像検出手段(例えば、図1の画像入力部11と任意方向顔検出部12)と、前記顔画像検出手段により検出された前記顔画像の顔が向いている方向を検出する顔方向検出手段(例えば、図1の任意方向顔検出部12)と、前記顔画像検出手段により検出された顔画像と前記顔方向検出手段により検出された前記顔の方向とから、前記顔の特徴となる特徴位置を検出する特徴位置検出手段(例えば、図1の顔特徴位置検出部13)と、前記特徴位置検出手段により検出された前記特徴位置における特徴量を算出する特徴量算出手段(例えば、図1の局所特徴量算出部14)と、前記特徴量算出手段により算出された前記特徴量を、所定の写像関数により写像する写像手段(例えば、図1の写像部15)と、前記写像手段により写像された前記特徴量と、予め登録されている特徴量を用いて、前記顔画像検出手段により検出された前記顔は、登録されている顔であるか否かを識別する識別手段(例えば、図1の顔識別部17)とを備える。
前記識別手段による識別結果が、不正解であった場合、前記写像関数を更新する更新手段(例えば、図5の関数更新部109)をさらに備えるようにすることができる。
本発明の第2の側面の画像処理装置は、供給される画像から、所定の物体を検出する検出手段(例えば、図1の画像入力部11と任意方向顔検出部12)と、前記検出手段により検出された前記物体が向いている方向を検出する方向検出手段(例えば、図1の任意方向顔検出部12)と、前記検出手段により検出された物体と前記方向検出手段により検出された前記物体が向いている方向とから、前記物体の特徴となる特徴位置を検出する特徴位置検出手段(例えば、図1の顔特徴位置検出部13)と、前記特徴位置検出手段により検出された前記特徴位置における特徴量を算出する特徴量算出手段(例えば、図1の局所特徴量算出部14)と、前記特徴量算出手段により算出された前記特徴量を、所定の写像関数により写像する写像手段(例えば、図1の写像部15)と、前記写像手段により写像された前記特徴量と、予め登録されている特徴量を用いて、前記顔画像検出手段により検出された前記物体は、登録されている物体であるか否かを識別する識別手段(例えば、図1の顔識別部17)とを備える。
以下に、本発明の実施の形態について図面を参照して説明する。
[画像処理装置の構成]
図1は、本発明を適用した画像処理装置の一実施の形態の構成を示す図である。図1に示した画像処理装置10は、人の顔を識別する装置であるとして説明をする。ここでは、人の顔を識別する場合を例に挙げて説明するが、例えば、車などの物体を識別するのにも、本発明を適用することはでき、本発明が、顔の識別のみに適用範囲が限定されることを示すものではない。また、図1に示した画像処理装置10は、人の顔を識別するために、人の顔の画像を処理する装置であるとして説明を続ける。
画像処理装置10は、画像入力部11、任意方向顔検出部12、顔特徴位置検出部13、局所特徴量算出部14、写像部15、データベース16、および、顔識別部17から構成されている。
なお、ここでは、画像処理装置10にデータベース16が含まれるとして説明を続けるが、データベース16は、ネットワークなどを介して、画像処理装置10に接続されているような構成とすることも可能である。ネットワークなどを介してデータベース16が接続されることにより、複数の画像処理装置10で1つのデータベース16を共有することが可能となる。
画像入力部11は、例えば、カメラなどを含む構成とされ、人を撮像する機能(撮像された人の画像を入力する機能)を有する。画像入力部11に入力される画像は、人の顔の部分が少なくとも含まれる画像である。画像入力部11に入力(取得)された画像は、任意方向顔検出部12に供給される。
任意方向顔検出部12は、画像入力部11から供給された画像を解析することにより、人の顔の部分(顔の位置と大きさ)を抽出し、顔の方向を検出する。画像入力部11から供給される画像は、ユーザの顔を含む画像であるが、顔の画像だけでない場合もあり、例えば、全身像が撮影されているような画像の場合もあり、そのような画像から、任意方向顔検出部12は、顔の位置や大きさを検出する。すなわち、任意方向顔検出部12は、画像入力部11から供給される画像から、人の顔の領域を判断し、人の顔の画像を抽出する。
また、任意方向画像検出部12は、抽出された顔が、どの方向を向いているかも検出する。顔の向きが検出されるのは、後段の処理で、人の顔の向きの情報が用いられ、人の識別処理が行われるためである。
任意方向顔検出部12により検出された顔の画像(顔画像)と顔の方向(顔方向情報)は、顔特徴位置検出部13に供給される。顔特徴位置検出部13は、供給された顔画像から、人の顔の中でも特徴となる部分(顔特徴位置)を検出する。顔特徴位置は、例えば、目、鼻、口といった部分である。
顔特徴位置検出部13により検出された顔特徴位置は、局所特徴量算出部14に供給される。局所特徴量算出部14は、供給された顔特徴位置近傍の画像から特徴量を算出する。局所特徴量算出部14により算出された特徴量は、写像部15に供給される。
写像部15には、データベース16に蓄積されているデータも供給される。データベース16には、写像関数(詳細は後述する)や、識別対象となっている人の顔画像のデータ(ここでは、登録顔画像データと記述する)が蓄積されている。写像部15は、データベース15で管理されている写像関数を用いて、データベース16の登録顔画像データが取得された顔画像の顔の方向と、画像入力部11に入力された顔画像の顔の方向を、同一の方向から撮像された画像とする(同等に扱えるようにする)ための処理を実行する。
写像部15は、画像入力部11に入力された顔画像の顔の方向(撮影された方向)を、データベース16に登録されている顔の方向と一致するように処理をするか、または、データベース16に登録されている顔画像の顔の方向を、画像入力部11に入力された顔画像の顔の方向と一致するように処理をする。
ここでは、写像部15は、画像入力部11に入力された顔画像の顔の方向(撮影された方向)を、データベース16に登録されている顔画像の顔の方向と一致するように処理をするとして説明を続ける。
図1の画像処理装置10の構成を参照するに、写像部15には、局所特徴量算出部14により算出された特徴量が入力される。局所特徴量算出部14により算出される特徴量は、画像入力部11により入力された画像に含まれる顔画像から算出(抽出)された特徴量である。
写像部15は、供給された特徴量を、データベース16に登録されている登録顔画像データが取得された顔画像の顔が向いている方向から撮影された場合と同等に扱える特徴量に変換(写像)する。写像された特徴量は、顔認識部17に供給される。
顔認識部17には、データベース16から登録顔画像データも供給される。顔認識部17は、写像部15からの特徴量と、データベース16からの登録顔画像データを比較し、登録されている人と一致するか否かを判断する。このように、写像部15からの特徴量と登録顔画像データが比較されるため、登録顔画像データとは、具体的には、登録する(識別する)対象となる人の顔から取得される特徴量となる。
このように、本実施の形態における画像処理装置10は、人の顔の識別を、特徴量を比較することにより行う。また、特徴量は、同一の方向から撮影された顔画像から抽出されたデータとするために、特徴量に対して写像処理が実行される。このような処理は、従来の、例えば、立体形状モデルに対して顔の画像をマッピング(貼り付け)し、その立体形状モデルを、所定の方向に回転させるような処理を行う方法に比べ、演算量を減少させることが可能となる。また、演算量が減少することにより、演算にかかる時間を短くすることが可能となる。
ところで、上記したように、本実施の形態においては、比較する特徴量が、同一の方向から撮影された顔画像から抽出された特徴量として扱えるようにするために、特徴量を写像するが、その写像の際、撮像(入力)された人の顔が、どの方向に、どのくらい向いているかを示す情報が必要となる。図1においては、任意方向顔検出部12が、人の顔の方向を検出し、顔の方向に関する情報を出力するとしたが、例えば、任意方向顔検出部12が行う顔の方向の検出の精度が、後段の処理(例えば、顔特徴位置検出部13における処理)で必要とされる精度でない場合、または、顔の方向を任意方向顔検出部12以外の部分で検出するように構成する場合、画像処理装置10は、図2に示したような構成となる。
図2は、画像処理装置の他の構成例を示す図である。図2に示した画像処理装置30は、図1に示した画像処理装置10と比較し、顔方向検出部31が追加された構成とされている。ただし、任意方向顔検出部12’は、図1に示した任意方向顔検出部12と同様のものを用いることも可能であるし、図1に示した任意方向顔検出部12よりも顔の方向を検出する精度が劣るものを用いることも可能である。このような理由のため、図2に示した任意方向顔検出部12’には、図1に示した任意方向顔検出部12と区別をつけるために、符号にダッシュ(’)を付して記述する。
顔方向検出部31を追加した構成とすることにより、任意方向顔検出部12’からの顔画像と顔方向情報は、顔方向検出部31に供給される。また、顔画像は、顔特徴位置検出部13にも供給される。
顔方向検出部31は、供給された顔画像と顔方向情報から、顔の方向を検出する。検出された顔の方向(顔方向情報)は、顔特徴位置検出部13に供給される。
なお、このように、顔方向検出部31で顔の方向が検出されるように構成した場合、任意方向顔検出部12’では顔の方向を検出しないようにしても良い。または、任意方向顔検出部12’で粗い検出を行い、顔方向検出部31で詳細な検出が行われるようにしても良い。顔方向検出部31における顔の方向の検出精度は、後段の処理で必要となる精度であれば良い。
ここでは、図1に示した画像処理装置10を例に挙げて説明を続ける。
[画像処理装置の動作について]
図3のフローチャートを参照し、画像処理装置10(図1)の動作(顔の識別)について説明する。
ステップS11において、画像入力部11は、顔画像を入力(取得)する。ここでは、顔画像と記述するが、画像入力部11に入力される画像は、顔を含む画像であればよい。画像入力部11に入力された顔画像は、任意方向顔検出部12に供給される。任意方向顔検出部12は、ステップS12において、供給された画像における顔の位置、顔の大きさ、顔の方向を、それぞれ検出する。顔の位置と大きさが検出されることにより、顔画像の部分が切り出され、その切り出された顔画像の部分が、顔特徴位置検出部13と局所特徴量算出部14に供給される。また、任意方向顔検出部12により検出された顔の方向に関する情報(顔方向情報)は、顔特徴位置検出部13に供給される。
顔特徴位置検出部13は、供給された顔画像と顔方向情報を用いて、顔の特徴的な部分(顔特徴位置)、例えば、目、鼻、口といった特徴的な部分を検出する。顔特徴位置検出部13は、例えば、AAM(Active Appearance Models)と呼ばれる方法を適用して、特徴位置を検出するようにすることが可能である。AAMについては、以下の文献に記載がある。
T.F. Cootes, G.J.Edwards, and C.J.Taylor, "Active Appearance Models",Proc.Fifth European Conf. Computer Vision, H. Burkhardt and B. Neumann,eds, vol.2, pp.484-498, 1998
AAMの手法は、所定の限られた範囲内での方向の顔画像に対して、精度良く顔特徴位置を検出することが可能であるという特徴がある。そのため、AAMによる手法を用いて顔特徴位置を検出する場合、精度良く顔特徴位置を検出できる範囲内毎に、方向別の顔特徴位置を検出する仕組みが必要である。例えば、各方向別に、顔特徴位置を検出する複数の検出部(不図示)が設けられ、顔方向情報が示す方向により、それらの検出部が切り替えられて用いられる。
すなわち、顔特徴位置検出部13における顔特徴位置の検出をAAMの手法を用いて行う場合、顔特徴位置検出部13は、供給された顔方向情報から、その顔方向情報が示す方向に適した検出部を選択し、その選択した検出部に顔画像を供給し、顔特徴位置の検出を行う。
このような顔特徴位置の検出が行われるように、顔特徴位置検出部13を構成した場合、顔方向情報が必要となる。顔特徴検位置出部13の要求する顔方向情報の精度と、任意方向顔検出部12が出力する顔方向情報の精度が合わない場合、図2に示したように、任意方向顔検出部12’と顔特徴検出部13との間に、精度要求を満たす顔方向検出部31が設けられる必要がある。
図3のフローチャートの説明に戻り、ステップS12において、顔特徴位置検出部13が処理を行ううえで必要とされる精度で、顔方向が検出され、その顔方向の情報(顔方向情報)が、顔特徴位置検出部13に出力されると、ステップS13において、顔特徴位置検出部13により、顔特徴位置が検出される。
ステップS13において、顔特徴位置検出部13は、上記したように、例えばAAMの手法により、顔の特徴的な位置(顔特徴位置)を検出する。顔特徴位置検出部13により検出される顔特徴位置は、例えば、図4Aや図4Bに示した位置である。
図4Aは、正面から撮影された顔画像から検出される顔特徴位置を表している。図4Bは、斜め45度から撮影された顔画像から検出される顔特徴位置を表している。図4A、図4Bにおいて、×印を付した部分が、顔特徴位置として検出される位置である。
図4Aを参照するに、顔特徴位置として検出されるのは、眉毛の両端(右側の眉と左側の眉で、それぞれ2点、計4点)、目の両端と中央(黒目)(右目と左目で、それぞれ3点、計6点)、鼻の両端と中央(計3点)、口の両端と中央(両端で2点、上唇の中央で1点、下唇の中央で1点、計4点)が、それぞれ検出される。このように、顔画像から、顔特徴位置として、計17点が検出される。
図4Bを参照するに、顔特徴位置として検出されるのは、図4Aに示した場合と同様に、すなわち、正面から撮影された顔画像から検出されるのと同様の位置(対応する位置)の計17点が検出される。このように、本実施の形態においては、顔画像から17点の特徴位置が検出されるとして説明を続ける。
図4Aと図4Bに、それぞれ示した特徴位置(×印)のうち、対応する点同士を、点線で結び、その対応がわかるように図示した(ただし、眉毛の部分の特徴位置のみ対応関係(点線)を図示した)。
特徴位置検出部13は、入力された顔画像から、図4Aや図4Bに示したような特徴位置を検出する。特徴位置検出部13により検出された特徴位置に関する情報(特徴位置情報)は、局所特徴量算出部14に供給される。局所特徴量算出部14は、任意方向顔研修部12から、顔画像も供給される(この顔画像は、顔特徴位置検出部13に供給される顔画像と同一である場合、顔特徴位置検出部13から、特徴位置情報とともに供給されるようにしても良い)。
局所特徴量算出部14は、局所特徴量を算出する。局所特徴量算出部14における局所特徴量の算出には、特徴位置近傍の画像を、そのまま用いて算出する方法や、ガボアフィルタ(Gabor Filter)やガルシアンデリバティブフィルタ(Gaussian Derivative Filter)などの畳み込み演算を用いて抽出する方法を適用することができる。ここでは、ガボアフィルタにより局所特徴量が抽出されるとして説明を続ける。
ここで、ガボアフィルタの処理(ガボアフィルタリング)について説明する。まず人間の視覚細胞には、ある特定の方位に対して選択性を持つ細胞が存在することが既に判っている。これは、垂直の線に対して反応する細胞と、水平の線に反応する細胞で構成される。ガボアフィルタリングは、これと同様に、方位選択性を持つ複数のフィルタで構成される空間フィルタである。
ガボアフィルタは、ガボア関数によって空間表現される。ガボア関数g(x,y)は、次式に示すように、コサイン成分からなるキャリアs(x,y)と、2次元ガウス分析状のエンベローブWr(x,y)とで構成される。
Figure 2007065766
キャリアs(x,y)は、複数関数を用いて、次の式(2)のように表現される。ここで、座標値(u0,v0)は空間周波数を表し、またPはコサイン成分の位相を表す。
Figure 2007065766
式(2)に示すキャリアは、次式(3)に示すように、実数成分Re(s(x,y))と虚数成分Im(s(x,y))に分離することができる。
Figure 2007065766
一方、2次元ガウス分布からなるエンベローブは、次式のように表現される。
Figure 2007065766
ここで、座標軸(x0,y0)はこの関数のピークであり、定数aおよびbはガウス分布のスケール・パラメータである。また、添字rは、次式に示すような回転操作を意味する。
Figure 2007065766
従って、上述の式(2)および式(4)より、ガボアフィルタは、次式に示すような空間関数として表現される。
Figure 2007065766
本実施の形態に係る局所特徴量算出部14は、合計17個のガボアフィルタを用いて顔の目、口、鼻などの特徴位置毎に算出処理を行う。
ガボアフィルタのレスポンスは、Giをi番目のガボアフィルタとし、i番目のガボアフィルタの結果(Gabor Jet)をJiとし、入力イメージをIとすると、次式で表される。
Figure 2007065766
この式(7)の演算は、実際には高速フーリエ変換を用いて高速化することができる。
以下の説明においては、所定の特徴位置による、式(7)により算出される局所特徴量を局所特徴量ベクトルとし、以下のように式(8)のように定義する。
Figure 2007065766
式(8)において、左辺のJの文字の添え字のうち、上側の添え字は、撮像されたときの画像の角度(任意方向顔検出部12で検出された顔の方向)を示す数字であり、下側の添え字は17点の特徴位置を識別するための数字である。例えば、正面から撮影されたときのJの上側の添え字は“0”であり、45度から撮影されたときのJの上側の添え字は“45”である。なお、式(8)は、正面から撮影されたときの顔画像に関する局所特徴量ベクトルである場合を示している。
また、例えば、図4Aにおいて、図中左側の眉毛の左側の特徴位置を“0”、図中左側の眉毛の右側の特徴位置を“1”という順で、順次、番号を割り振った場合、Jの下側の添え字は、0乃至16の数値となる。この場合、例えば、図中左側の眉毛の左側の特徴位置に関する局所特徴量ベクトルである場合、Jの下側の添え字は“0”である。
式(8)の右辺は、局所特徴量ベクトルを構成する要素を表している。各要素を表すjの添え字は、左辺のJの添え字と同じく、上側の添え字は、撮影されたときの画像の角度を示す数字であり、下側の添え字は各要素を識別するための数字である。
このように、局所特徴量ベクトルが、特徴位置毎、この場合、17点でそれぞれ算出される。局所特徴量算出部14により算出された局所特徴量ベクトルは、写像部15に供給される。写像部15は、ステップS15において、入力された局所特徴量ベクトルを、写像する必要がある場合、写像処理を実行する。
ここで、図4Aと図4Bを再度参照し、“写像する必要がある場合”について説明を加えるが、その前に、データベース16に登録されているデータについて説明を加える。データベース16には、写像関数や、識別対象となる人の顔画像に関するデータ(登録顔画像データ)が記憶されている。登録顔画像データは、識別対象となる人の顔画像から抽出された局所特徴量ベクトルを少なくとも含むデータである。
例えば、式(8)に基づき算出された局所特徴量ベクトルが、この場合、次式(9)に示すような組で、1人(1顔画像)につき17個、登録されている。
Figure 2007065766
このように、データベース16に登録されている登録顔画像データ(局所特徴量ベクトル)は、所定の方向から撮影された顔画像から抽出された局所特徴量抽ベクトルの組である。例えば、図4Aに示したような、正面から撮影された顔(ここでは、登録顔と記述する)の顔画像から抽出された局所特徴量ベクトルの組(式(9)に示した組)が、データベース16には登録されている。
しかしながら、画像入力部11に入力される顔(ここでは、入力顔と記述する)の顔画像は、例えば、図4Bに示したように、正面から撮影された顔ではなく(登録顔とは異なり)、斜め方向から撮影された顔の顔画像である場合もある。入力顔が図4Bに示したような斜め方向から撮影された顔画像からも、基本的に17点の特徴位置から、それぞれ局所特徴量ベクトルが算出される。
データベース16に登録されている人であるか否かの判断(識別処理)は、データベース16に登録されている顔(登録顔)の局所特徴量ベクトルと、画像入力部11に入力された顔(入力顔)の顔画像から抽出された局所特徴量ベクトルが用いられることにより行われるが、登録顔と入力顔の方向が、例えば、図4Aと図4Bに示したように異なる場合、単に、登録顔から抽出された局所特徴量ベクトルと入力顔から抽出された局所特徴量ベクトルとを用いて識別を行うことはできない(そのようなことを実行すると、正確な識別結果が得られず、識別精度を低下させてしまう)。
換言すれば、登録顔から抽出された局所特徴量ベクトルと、登録顔と同じ方向から撮影された入力顔から抽出された局所特徴量ベクトルが用いられることで識別処理が行われなければ、識別精度を向上させることはできない。
入力顔と登録顔の方向が異なる場合、入力顔と登録顔とでは、画像上での顔の見え方も大きく異なるため、たとえ、同一人物からの顔画像から抽出された局所特徴量ベクトルであっても、その値などは大きく変化してしまう。このため識別処理を行うとき、登録顔と入力顔の類似度を算出する際、入力顔と登録顔の方向が異なると直接的に局所特徴量ベクトルを用いて比較するだけでは、精度良く識別を行うことは困難である。
このようなことを解決し、入力顔と登録顔の方向が異なるときでも、精度良く識別することができるようにするために、従来の手法では、顔の立体形状モデルを用いて登録顔と同じ方向の入力顔を合成することが行われていた。しかしながら、この手法においては、演算量が増大してしまうばかりでなく、立体形状モデルが、識別対象となる人(データベース16に登録されている人)に適していないと、識別精度が低下してしまう。
本実施の形態においては、立体形状モデルを用いないため、演算量を、立体形状モデルを用いたときより削減することが可能となる。また、立体形状モデルを用いないため、識別対象となる人に立体形状モデルが適していないと識別精度が低下してしまうといったことを防ぐことも可能となる。
本実施の形態においては、写像関数を用いて、局所特徴量ベクトルを写像処理することにより、入力顔と登録顔の方向の違いを吸収した識別が行えるようにする。
図3に示したフローチャートの処理の説明に戻り、写像部15は、ステップS15において、写像処理を行う。写像部15が、“写像する必要がある場合”であると判断するのは、データベース16に登録されている登録顔と異なる方向の入力顔が入力されたときである。なお、写像する必要がある場合は、データベース16に登録されている写像関数により写像処理が実行されるが、写像する必要がない場合には、写像部15による写像処理は全く実行されずに、局所特徴量算出部14からの局所特徴量ベクトルが、そのまま顔識別部17に供給されるようにしても良いし、実質的に写像されない(データ値に変更がない)ような写像関数が用いられて写像処理が行われたあと、顔識別部17に供給さえるようにしても良い。
写像部15における写像に関し、データベース16に登録されている登録顔が、図4Aに示したような正面から撮影された顔であり、その登録顔から抽出された局所特徴量ベクトルの組がデータベース16に登録されているとし、入力顔が、図4Bに示したような斜め45度から撮影された顔であり、その入力顔から抽出された局所特徴量ベクトルが、写像部15に供給される場合を例に挙げて説明する。
このような場合、局所特徴量算出部14により算出され、写像部15に供給される局所特徴量ベクトルとは、次式(10)のようになる。なお、iは、顔特徴位置を識別するための数字であるので、この場合、0乃至16の間の数字である。
Figure 2007065766
式(10)は、斜め45度の方向の顔画像から抽出された局所特徴量ベクトルであり、この局所特徴量ベクトルが、写像関数により、0度(正面)の方向の顔画像から抽出された局所特徴量ベクトルとして扱えるように写像される。写像後の式(10)は、次式(11)のようになる。
Figure 2007065766
式(11)において、Jまたはjの上の“〜”は、近似値であることを示す。登録顔から抽出された局所特徴量ベクトルである式(8)と、入力顔から抽出された局所特徴量ベクトルである式(10)を写像した式(11)は、近似の関係にあることがわかる。
式(11)の各要素(式(11)の右辺の{}内の各要素)は、次式(12)により算出される。
Figure 2007065766
すなわち、式(11)を構成する1つの要素jは、式(10)における全ての要素(i−1乃至i−nまでのn個の要素j)が用いられて、所定の写像関数fにより求められる。写像関数fは、データベース16に登録されており、入力顔の方向に対応した写像関数fが読み出され、利用される。すなわち、この場合、45度のときの写像関数fが、読み出され、利用される。また、写像関数fは、顔特徴位置毎に用意されている。すなわち、この場合、顔特徴位置が17個あるので、17個の写像関数fが1つの方向に対して用意(登録)されている。
写像部15において行われる写像処理に関する式を、一般的に記載すると以下のようになる。
Figure 2007065766
Figure 2007065766
Figure 2007065766
式(13)は、入力顔の特徴位置iにおける局所特徴量ベクトルを表している。式(14)は、登録顔の特徴位置iにおける局所特徴量ベクトルを表している。そして、このようなときの特徴量の写像は、式(15)のように記述することができる。
式(15)において左辺は、特徴位置iにおける局所特徴量ベクトルのk番目の要素の推定値であることを示している。式(15)における右辺のうち、
Figure 2007065766
は、登録顔の角度θRの方向の顔画像の特徴位置iにおける局所特徴量ベクトルのk番目の要素を、入力顔角度θIの方向の顔画像の特徴位置iにおける局所特徴量ベクトルの全ての要素を用いて写像を行う特徴量の写像関数である。
なおここでは全ての要素を用いて写像を行っているが、全ての要素を用いなくても良い。例えば、推定に必要な最低限の要素を決定し、その要素だけが用いられる(写像関数に代入される)ようにしても良い。すなわち、入力される局所特徴量ベクトルと写像後の局所特徴量ベクトルとの間に明白な因果関係があるような場合、写像関数の入力変数として、入力された全ての局所特徴量ベクトルの要素を用いて写像処理が行われるのではなく、因果関係があると判断される要素のみが用いられるようにしても良い。
図3のフローチャートの説明に戻り、ステップS15において、写像部15により写像処理が行われると、その写像結果が、顔識別部17に供給される。顔識別部17は、ステップS16において、データベース16から、登録されている登録顔画像データ(識別対象とされる登録顔から抽出された局所特徴量ベクトルの組)が読み出される。複数の登録顔画像データが登録されていた場合(複数の人を識別するように、複数の人の顔画像データが登録されていた場合)、登録されている複数の顔画像データが読み出される。
ステップS17において、顔認識部17は、類似度ベクトルを算出する。類似度は、入力顔と登録顔のそれぞれの特徴位置を対応付け、対応付けられた特徴位置の局所特徴量ベクトル同士が用いられて算出される。類似度は、例えば、正規化相関演算などの演算手法が用いられて行われる。
ここでは、顔識別部17は、正規化相関演算を用いて、類似度を算出するとして説明を続ける。顔識別部17が、正規化相関演算を用いて類似度を算出する場合、次式(17)と次式(18)に基づいて類似度が算出される。
Figure 2007065766
式(17)に、式(8)と式(11)における各要素が順次代入され、正規化相関演算が行われることにより、式(18)における類似度ベクトルを構成する各要素が算出される。換言すれば、入力顔と登録顔の同じ特徴位置における類似度が、入力顔の局所特徴量ベクトル(写像変換された局所特徴量ベクトル)(式(11))と、登録顔の局所特徴量ベクトル(データベース16に登録されている局所特徴量ベクトル)(式(8))を用いて演算される(式(17))。
式(17)により算出された類似度ci 0から、その集合である類似度ベクトルCd 0が求められる。下側の添え字“d”は、1から始まり、データベース16に登録されている、識別対象となる顔の個数(登録顔画像データの数)で終了する数字である。このようにして、登録顔画像データ毎に、入力顔との類似度ベクトルが算出される。
ステップS17において、類似度ベクトルが算出されると、ステップS18において、顔識別部17は、入力顔は、データベース16に登録されている(識別対象となっている)顔であるか否か(同一人物であるか否か)を判定し、その判定結果を、図示されていない外部の装置などに出力する。その判定は、例えば、サポートベクタマシン(Support Vector Machine:SVM)、ニューラルネットワーク(Neural Network)、AdaboostなどのClassifierが用いて行うことが可能である。
ここでは、サポートベクタマシン(SVM)を適用した場合を例に挙げて説明する。ここで、SVMの一般的な説明を簡便に加える。サポートベクタマシン自体に関しては、例えばB.sholkopf外著の報告(B.Sholkopf、C.Burges、A.Smola,鄭dvance in Kernel Support Vector Learning煤CThe MIT Press、1999.)を挙げることができる。
サポートベクタマシンは、識別関数に線形識別器(パーセプトロン)を用いた学習機械であり、カーネル関数を使うことで非線形空間に拡張することができる。また識別関数の学習では、クラス間分離のマージンを最大にとるように行われ、その解は2次数理計画法を解くことで得られるため、グローバル解に到達できることを理論的に保証することができる。
通常、パターン認識の問題は、テストサンプルx=(x1,x2,・・・,xn)に対して、次式で与えられる識別関数f(x)を求めることである。
Figure 2007065766
ここで、サポートベクタマシンの学習用の教師ラベルを次式のようにおく。
Figure 2007065766
すると、サポートベクタマシンにおける顔パターンの認識を次式に示す制約条件の下での重み因子wの2乗を最小化する問題としてとらえることができる。
Figure 2007065766
このような制約のついた問題は、ラグランジュの未定定数法を用いて解くことができる。すなわち、式(22)に示すラグランジュをまず導入し、次いで、式(23)に示すように、b、wの各々について偏微分する。
Figure 2007065766
Figure 2007065766
この結果、サポートベクタマシンにおける顔パターンの識別を次式に示す2次計画問題としてとらえることができる。
Figure 2007065766
特徴空間の次元数が、訓練サンプルの数よりも少ない場合は、スラック変数ξ≧0を導入して、制約条件を次式のように変更する。
Figure 2007065766
最適化については、次式の目的関数を最小化する。
Figure 2007065766
この式(26)において、Cは、制約条件をどこまで緩めるかを指定する係数であり、実験的に値を決定する必要がある。ラグランジュ定数aに関する問題は次式のように変更される。
Figure 2007065766
しかし、この式(27)のままでは、非線型の問題を解くことはできない。そこで、例えば、カーネル関数K(x,x3)を導入して、一旦、高次元の空間に写像して(カーネル・トリック)、その空間で線形分離することにしている。したがって、元の空間では非線型分離していることと同等となる。
カーネル関数は、ある写像Φを用いて次式のように表される。
Figure 2007065766
また、式(19)に示した識別関数も、次式(29)のように表すことができる。
Figure 2007065766
顔識別部16は、上記したようなサポートベクタマシン(式(29)に基づく判定)により、顔の識別を行う。サポートベクタマシンは、類似度ベクトルの境界面(式(29)のf(x)の値を、例えば、+1または−1と判定する境界面(値が0である位置の面))からの距離を算出し、登録顔と一致するか否かの判定を行う。すなわち、登録顔と一致すると判定される類似度ベクトルが存在しない場合には、未登録の人物の顔が入力されたと判定され、登録顔と一致する判定される類似度ベクトルが存在する場合には、登録されている人物の顔が入力されたと判定する。
このような判定を行うため、顔識別部17は、次式(30)に基づいて判定を行う。式(30)は、式(29)を、式(17)や式(18)などの他の式の記載と合わせ、かつ、sgn関数で表した式である。sgn関数は、sgn(<数値>)という形をとり、数値の符号を調べるときに用いられる関数である。()内の数値が正のときの結果は「1」、負のときの結果は「−1」、0のときの結果は「0」となる関数である。
Figure 2007065766
図3のフローチャートの説明に戻り、ステップS18において、顔識別部17により、入力顔と一致する登録顔が、データベース16に登録されているか否かが判定され、その判定結果が出力される。出力される側の装置としては、例えば、ディスプレイなどであり、判定結果が、メッセージなどの形式で表示される。
入力顔と一致する登録顔がデータベース16に登録されていた場合、一致していると判定された登録顔に関連付けられている人の名前などの情報がデータベース16から読み出され、その名前などの情報が判定結果として出力される。そして、出力先の装置において、その情報に基づく表示などが行われる。
また、入力顔と一致する登録顔がデータベース16に登録されていなかった場合、登録されていないかったことを示す情報が判定結果として出力され、出力先の装置において、例えば、“未登録の人物”といったメッセージなどの表示や警告がなされる。
このように、本実施の形態においては、入力顔と登録顔の方向が異なる場合、入力顔の方向を登録顔の方向と一致させるための処理が実行される。その処理は、入力顔(入力顔の画像)から抽出された局所特徴量ベクトルを、写像関数により写像することにより、登録顔の方向と一致する方向の入力顔から抽出された局所特徴量ベクトルとして扱えるようにするための処理である。
このように局所特徴量ベクトルを写像することにより、入力顔と登録顔の方向の違いを吸収し、識別処理を実行することにより、すなわち、従来の手法と異なり、本実施の形態は、異なる方向の顔画像全体を合成するのではなく、顔画像のいくつかの特徴点における特徴量を推定する手法であるため、以下のような効果を期待することができる。
まず、識別に不必要な部分の計算を行うことがないので、冗長的な処理を行わなくて良く、効率的に識別処理を行うことが可能である。識別に不必要な部分とは、例えば、顔の額、頬といった部分であり、それらの部分を、識別処理には用いないことで、演算に用いられるデータ量を減少させることができ、演算量を減少させることができ、もって、効率的に識別処理ができるようになる。
ところで、上述したように、データベース16には、識別対象となる顔(人)が登録されている。登録されている内容としては、登録顔から抽出された局所特徴量ベクトル(例えば、式(8)に示したようなデータの組)である。また、登録されている局所特徴量ベクトルが、どのような人のデータであるのかを識別するためのデータとして、例えば、名前(ニックネーム)などが、局所特徴量ベクトルのデータと関連付けられて登録されている。
このようなデータ(登録顔画像データ)は、画像入力部11乃至局所特徴量算出部14(図1)の処理が施されることにより、取得され、登録されるデータである。例えば、画像処理装置10の使い初めの期間には、登録するための処理が実行され、データベース16に、登録顔画像データが登録される。登録されるときには、局所特徴量算出部14からの局所特徴量ベクトルが、データベース16に供給されるようにしても良い。また、登録顔が、必ずしも正面からの撮影された顔であるとは限らないので、写像部15により写像の処理が行われた後の局所特徴量ベクトルが、データベース16に登録されるようにしても良い。
このように、本実施の形態においては、写像部15により局所特徴量ベクトルの写像が行われるが、その写像に用いられる写像関数も、データベース16に、識別処理が実行される前の時点で登録されている。登録されている写像関数は、例えば、サンプルとなる複数の顔画像から得られた関数である。換言すれば、画像処理装置10による識別対象とされる顔が、例えば、画像処理装置10が家庭内で用いられる装置に搭載され、その装置を用いる家族を構成する一員の顔であるような場合であっても、その家族の一員(実際のユーザ)の顔画像から取得される写像関数とは異なる写像関数が、データベース16に登録されている。
そのために、データベース16に登録されている写像関数が、識別対象とされる人(登録顔)に適した写像を行えない関数であった場合、識別精度が低下してしまう。そこで、学習できるようにし、識別対象とされる人に適した写像関数に更新されるようにする。
[学習機能付きの画像処理装置について]
図5は、写像関数を学習により更新することができるようにした画像処理装置の構成例を示す図である。図5に示した画像処理装置100は、画像入力部101、任意方向顔検出部102、顔特徴位置検出部103、局所特徴量算出部104、写像部105、データベース106、顔識別部107、正誤判定部108、および、関数更新部109から構成されている。
図1に示した画像処理装置10と図5に示した画像処理装置100を比較するに、画像処理装置100は、画像処理装置10に、正誤判定部108と関数更新部109を追加した構成とされている。すなわち、画像処理装置100の画像入力部101、任意方向顔検出部102、顔特徴位置検出部103、局所特徴量算出部104、写像部105、データベース106、および、顔識別部107は、画像処理装置10の画像入力部11、任意方向顔検出部12、顔特徴位置検出部13、局所特徴量算出部14、写像部15、データベース16、および、顔識別部17と同一の構成とされている。以下の説明においては、画像処理装置10と同一の部分に関する説明は、適宜省略する。
なお、図5に示した画像処理装置100を、図2に示した顔方向検出部31が備えられる構成としても良い。
正誤判定部108は、ユーザからの指示を受け付ける構成とされている。具体的には、ユーザが、顔識別部107から出力された識別結果が、正しいか否かを判断したとき、そのユーザからの判断結果を受け付ける機能を、正誤判定部108は有する。また正誤判定部108は、識別結果が正しいと判断されたか、または、誤っていると判断されたかの情報を、関数更新部109に供給するように構成されている。
関数更新部109は、正誤判定部108からの情報が、識別結果は誤っていたということを示す情報であった場合、データベース109に登録されている写像関数を更新するように構成されている。
図6のフローチャートを参照し、図5に示した画像処理装置100の動作について説明する。ステップS111乃至S118は、図3のステップS11乃至S18と同様の処理なので、その詳細な説明は省略する。すなわち、画像入力部101乃至顔識別部107により、ステップS111乃至S118の処理が実行されることにより、画像処理装置100のユーザに対して、識別結果が提供される。
識別結果は、既に説明したように、ディスプレイにメッセージなどが表示されるなどの方法により、ユーザに提供される。その識別結果が正しいか否かをユーザは判断し、正誤判定部108にその判断結果を入力する。正誤判定部108は、ユーザからの判断結果を入力するための操作部、例えば、正しいときに操作されるボタンと、誤ったときに操作されるボタンが設けられているような操作部を含む構成とされる。
なお、後述するように、識別結果が誤っていたと判断されたときに、写像関数が更新されるので、識別結果が誤っていたときに、そのことを指示できる仕組み(例えば、誤ったときに操作されるボタンのみ)が、少なくとも正誤判定部108に設けられていれば良い。
ステップS119において、正誤判定部108は、ユーザからの、識別結果が正しかったか否かを表す正誤情報を取得する。正誤判定部108は、取得された正誤情報から、ユーザが、識別結果が正解であったと判断したか否かを判定し、その判定結果を、関数更新部109に供給する。
関数更新部109は、ステップS120において、正誤判定部108から供給された判定結果は、正解を示すか否かを判断する。ステップS120において、判定結果は正解を示すと判断された場合、図6に示した学習処理は終了される。この場合、識別結果は正解であったため、写像関数は適切な写像関数であり、そのまま継続して使用することが可能であると考えられるため、写像関数の更新などの処理は行われずに、処理が終了される。
一方、ステップS120において、正誤判定部108から供給された判定結果は、正解を示さない(不正解であることを示す)と判断された場合、ステップS121に処理が進められる。ステップS121において、関数更新部109は、データベース106に記憶されている写像関数を更新する。
このように、データベース106に登録されている写像関数は、識別結果が正しくないときに、正しい識別ができるような写像関数へと更新される。すなわち、写像関数は、学習処理により、画像処理装置100を利用しているユーザ(識別対象となっている人達)に適した写像関数に更新される。
このように、写像関数は更新されるので、写像関数自体は、学習処理により、適宜、更新できるような関数である必要があり、かつ、上述したような写像処理が適切に実行できる関数である必要がある。このような関数としては、例えば、Support Vector Regression(SVR)と称される手法による関数を適用することが可能である。
上記した式(12)における写像関数fは、SVRと称される手法による関数を用いることが可能である。SVRは、非線形関数も近似可能な多次元入力1次元出力の関数推定手法を用いて、予め大量の人物のさまざまな方向の顔画像の特徴点間の局所特徴量ベクトルを学習することにより、式(12)における写像関数fを作成することができる。また、顔の角度に対する局所特徴量に線形性がある場合には、線形回帰分析に基づく関数fの推定も利用することが可能である。
このような写像関数fは、同一人物の異なる方向の顔画像データがあれば学習可能である。すなわち、上記したように、例えば、家族という限られた人数の人達を識別するような場合、同一人物の異なる方向の顔画像データを取得することは容易であるため、学習処理を良好に行うことが可能である。特にSupport Vector Regression(SVR)による関数の学習手法は、Accurate Online SVR(AOSVR)という手法を用いれば逐次学習を行うことが可能となるため、画像処理装置100を備える製品の出荷後に、特定の人物(例えば、家族)や環境に適応できるように追加学習および再学習することが可能になる。
このように、本実施の形態においては、自由視点顔識別(入力顔の方向によらない顔の識別)を行う際に、3次元データ(立体形状モデル)を必要とせず、かつ、逐次学習を行うことが可能となるため、データベース106に写像関数を登録した後(例えば、画像処理装置100を搭載した装置を出荷した後)に、特定の人物や環境(その装置が使用される状況)に適応できるように、追加学習および再学習することが可能となる。追加学習や再学習(写像関数の更新)が行えるため、高精度な識別装置(画像処理装置)を構築することができる。
また、自由視点顔画像識別を行う際に、異なる方向の顔画像全体を合成するのではなく、顔画像のいくつかの特徴点における特徴量を推定する手法であるため、識別に不必要な部分の計算を行う必要がなく、計算効率の高い識別器を構築することができる。
なお、上述した実施の形態においては、顔を識別する例を挙げて説明したが、顔以外の例えば車体などの物体を識別する装置などにも、本発明を適用することが可能である。車体などの物体を識別するようにした場合、識別対象となる物体の特徴となる特徴位置を設定するなどすることにより、上述した実施の形態と同様に、物体を識別することが可能となる。
[記録媒体について]
図7は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、または記憶部208に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)203には、CPU201が実行するプログラムやデータなどが適宜記憶される。これらのCPU201、ROM202、およびRAM203は、バス204により相互に接続されている。
CPU201にはまた、バス204を介して入出力インターフェース205が接続されている。入出力インターフェース205には、キーボード、マウス、マイクロホンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行する。そして、CPU201は、処理の結果を出力部207に出力する。
入出力インターフェース205に接続されている記憶部208は、例えばハードディスクからなり、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
また、通信部209を介してプログラムを取得し、記憶部208に記憶してもよい。
入出力インターフェース205に接続されているドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部208に転送され、記憶される。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム格納媒体からインストールされる。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム格納媒体は、図7に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア211、または、プログラムが一時的もしくは永続的に格納されるROM202や、記憶部208を構成するハードディスクなどにより構成される。プログラム格納媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部209を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
なお、本明細書において、プログラム格納媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用した画像処理装置の一実施の形態の構成を示す図である。 画像処理装置の他の構成例を示す図である。 画像処理装置の動作について説明するためのフローチャートである。 特徴位置について説明するための図である。 画像処理装置のさらに他の構成例を示す図である。 画像処理装置の学習処理について説明するためのフローチャートである。 記録媒体について説明するための図である。
符号の説明
10 画像処理装置, 11 画像入力部, 12 任意方向顔検出部, 13 顔特徴位置検出部, 14 局所特徴量算出部, 15 写像部, 16 データベース, 17 顔識別部, 30 画像処理装置, 31 顔方向検出部, 100 画像処理装置, 101 画像入力部, 102 任意方向顔検出部, 103 顔特徴位置検出部, 104 局所特徴量算出部, 105 写像部, 106 データベース106 顔識別部, 108 正誤判定部, 109 関数更新部, 201 CPU, 202 ROM, 203 RAM, 208 記憶部, 211 リムーバブルメディア

Claims (14)

  1. 供給される画像から、顔画像の部分を検出する顔画像検出手段と、
    前記顔画像検出手段により検出された前記顔画像の顔が向いている方向を検出する顔方向検出手段と、
    前記顔画像検出手段により検出された顔画像と前記顔方向検出手段により検出された前記顔の方向とから、前記顔の特徴となる特徴位置を検出する特徴位置検出手段と、
    前記特徴位置検出手段により検出された前記特徴位置における特徴量を算出する特徴量算出手段と、
    前記特徴量算出手段により算出された前記特徴量を、所定の写像関数により写像する写像手段と、
    前記写像手段により写像された前記特徴量と、予め登録されている特徴量を用いて、前記顔画像検出手段により検出された前記顔は、登録されている顔であるか否かを識別する識別手段と
    を備える画像処理装置。
  2. 前記特徴量算出手段は、Gabor FilterまたはGaussian Derivative Filterにより前記特徴量を算出する
    請求項1に記載の画像処理装置。
  3. 前記写像手段は、写像関数として、Support Vector Regressionを用いる
    請求項1に記載の画像処理装置。
  4. 前記写像手段は、前記特徴量算出手段により算出された前記特徴量を構成する要素のうち、少なくとも1つの要素を前記写像関数により写像する
    請求項1に記載の画像処理装置。
  5. 前記識別手段による識別結果が、不正解であった場合、前記写像関数を更新する更新手段をさらに備える
    請求項1に記載の画像処理装置。
  6. 供給される画像から、顔画像の部分を検出する顔画像検出ステップと、
    前記顔画像検出ステップの処理で検出された前記顔画像の顔が向いている方向を検出する顔方向検出ステップと、
    前記顔画像検出ステップの処理で検出された顔画像と前記顔方向検出ステップの処理で検出された前記顔の方向とから、前記顔の特徴となる特徴位置を検出する特徴位置検出ステップと、
    前記特徴位置検出ステップの処理で検出された前記特徴位置における特徴量を算出する特徴量算出ステップと、
    前記特徴量算出ステップの処理で算出された前記特徴量を、所定の写像関数により写像する写像ステップと、
    前記写像ステップの処理で写像された前記特徴量と、予め登録されている特徴量を用いて、前記顔画像検出ステップの処理で検出された前記顔は、登録されている顔であるか否かを識別する識別ステップと
    を含む画像処理方法。
  7. 供給される画像から、顔画像の部分を検出する顔画像検出ステップと、
    前記顔画像検出ステップの処理で検出された前記顔画像の顔が向いている方向を検出する顔方向検出ステップと、
    前記顔画像検出ステップの処理で検出された顔画像と前記顔方向検出ステップの処理で検出された前記顔の方向とから、前記顔の特徴となる特徴位置を検出する特徴位置検出ステップと、
    前記特徴位置検出ステップの処理で検出された前記特徴位置における特徴量を算出する特徴量算出ステップと、
    前記特徴量算出ステップの処理で算出された前記特徴量を、所定の写像関数により写像する写像ステップと、
    前記写像ステップの処理で写像された前記特徴量と、予め登録されている特徴量を用いて、前記顔画像検出ステップの処理で検出された前記顔は、登録されている顔であるか否かを識別する識別ステップと
    を含む処理をコンピュータに実行させるプログラム。
  8. 供給される画像から、所定の物体を検出する検出手段と、
    前記検出手段により検出された前記物体が向いている方向を検出する方向検出手段と、
    前記検出手段により検出された物体と前記方向検出手段により検出された前記物体が向いている方向とから、前記物体の特徴となる特徴位置を検出する特徴位置検出手段と、
    前記特徴位置検出手段により検出された前記特徴位置における特徴量を算出する特徴量算出手段と、
    前記特徴量算出手段により算出された前記特徴量を、所定の写像関数により写像する写像手段と、
    前記写像手段により写像された前記特徴量と、予め登録されている特徴量を用いて、前記顔画像検出手段により検出された前記物体は、登録されている物体であるか否かを識別する識別手段と
    を備える画像処理装置。
  9. 前記特徴量算出手段は、Gabor FilterまたはGaussian Derivative Filterにより前記特徴量を算出する
    請求項8に記載の画像処理装置。
  10. 前記写像手段は、写像関数として、Support Vector Regressionを用いる
    請求項8に記載の画像処理装置。
  11. 前記写像手段は、前記特徴量算出手段により算出された前記特徴量を構成する要素のうち、少なくとも1つの要素を前記写像関数により写像する
    請求項8に記載の画像処理装置。
  12. 前記識別手段による識別結果が、不正解であった場合、前記写像関数を更新する更新手段をさらに備える
    請求項8に記載の画像処理装置。
  13. 供給される画像から、所定の物体を検出する検出ステップと、
    前記検出ステップの処理で検出された前記物体が向いている方向を検出する方向検出ステップと、
    前記検出ステップの処理で検出された物体と前記方向検出ステップの処理で検出された前記物体が向いている方向とから、前記物体の特徴となる特徴位置を検出する特徴位置検出ステップと、
    前記特徴位置検出ステップの処理で検出された前記特徴位置における特徴量を算出する特徴量算出ステップと、
    前記特徴量算出ステップの処理で算出された前記特徴量を、所定の写像関数の処理で写像する写像ステップと、
    前記写像ステップの処理で写像された前記特徴量と、予め登録されている特徴量を用いて、前記顔画像検出ステップの処理で検出された前記物体は、登録されている物体であるか否かを識別する識別ステップと
    を含む画像処理方法。
  14. 供給される画像から、所定の物体を検出する検出ステップと、
    前記検出ステップの処理で検出された前記物体が向いている方向を検出する方向検出ステップと、
    前記検出ステップの処理で検出された物体と前記方向検出ステップの処理で検出された前記物体が向いている方向とから、前記物体の特徴となる特徴位置を検出する特徴位置検出ステップと、
    前記特徴位置検出ステップの処理で検出された前記特徴位置における特徴量を算出する特徴量算出ステップと、
    前記特徴量算出ステップの処理で算出された前記特徴量を、所定の写像関数の処理で写像する写像ステップと、
    前記写像ステップの処理で写像された前記特徴量と、予め登録されている特徴量を用いて、前記顔画像検出ステップの処理で検出された前記物体は、登録されている物体であるか否かを識別する識別ステップと
    を含む処理をコンピュータに実行させるプログラム。
JP2005247936A 2005-08-29 2005-08-29 画像処理装置および方法、並びにプログラム Expired - Fee Related JP4595750B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2005247936A JP4595750B2 (ja) 2005-08-29 2005-08-29 画像処理装置および方法、並びにプログラム
DE602006011990T DE602006011990D1 (de) 2005-08-29 2006-08-23 Vorrichtung, Verfahren und Programm zur Bildverarbeitung
EP06254422A EP1760635B1 (en) 2005-08-29 2006-08-23 Image processing apparatus and method and program
US11/511,151 US8249310B2 (en) 2005-08-29 2006-08-28 Image processing apparatus and method and program
CN2006101322898A CN1924897B (zh) 2005-08-29 2006-08-29 图像处理装置和方法
KR1020060082095A KR101217349B1 (ko) 2005-08-29 2006-08-29 화상 처리 장치 및 방법, 및 컴퓨터 판독가능한 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005247936A JP4595750B2 (ja) 2005-08-29 2005-08-29 画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2007065766A true JP2007065766A (ja) 2007-03-15
JP4595750B2 JP4595750B2 (ja) 2010-12-08

Family

ID=37189041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005247936A Expired - Fee Related JP4595750B2 (ja) 2005-08-29 2005-08-29 画像処理装置および方法、並びにプログラム

Country Status (6)

Country Link
US (1) US8249310B2 (ja)
EP (1) EP1760635B1 (ja)
JP (1) JP4595750B2 (ja)
KR (1) KR101217349B1 (ja)
CN (1) CN1924897B (ja)
DE (1) DE602006011990D1 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1971194A2 (en) 2007-03-14 2008-09-17 Shinko Electric Industries Co., Ltd. Wiring substrate and manufacturing method thereof
JP2008257460A (ja) * 2007-04-04 2008-10-23 Sony Corp 情報処理装置、情報処理方法、およびプログラム
WO2010021373A1 (ja) 2008-08-22 2010-02-25 ソニー株式会社 画像表示装置、制御方法およびコンピュータプログラム
WO2011027696A1 (ja) 2009-09-07 2011-03-10 ソニー株式会社 表示装置および制御方法
WO2011030624A1 (ja) 2009-09-11 2011-03-17 ソニー株式会社 表示装置および制御方法
WO2011030674A1 (ja) 2009-09-11 2011-03-17 ソニー株式会社 表示方法及び表示装置
WO2011033855A1 (ja) 2009-09-15 2011-03-24 ソニー株式会社 表示装置および制御方法
WO2011037579A1 (en) * 2009-09-25 2011-03-31 Hewlett-Packard Development Company, L.P. Face recognition apparatus and methods
WO2011086803A1 (ja) * 2010-01-12 2011-07-21 日本電気株式会社 画像照合システム、画像照合方法、コンピュータプログラム
EP2437490A2 (en) 2010-09-30 2012-04-04 Sony Corporation Information processing apparatus and information processing method
US8290278B2 (en) 2009-02-10 2012-10-16 Seiko Epson Corporation Specifying position of characteristic portion of face image
EP2530675A2 (en) 2011-05-30 2012-12-05 Sony Corporation Information processing apparatus, information processing method, and program
US8463049B2 (en) 2007-07-05 2013-06-11 Sony Corporation Image processing apparatus and image processing method
US8675136B2 (en) 2008-09-12 2014-03-18 Sony Corporation Image display apparatus and detection method
JP2014071610A (ja) * 2012-09-28 2014-04-21 Keyware Solutions Inc データ処理装置、名寄せ処理方法及びコンピュータプログラム
JP2014142817A (ja) * 2013-01-24 2014-08-07 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
WO2019181144A1 (ja) * 2018-03-20 2019-09-26 ソニー株式会社 情報処理装置及び情報処理方法、並びにロボット装置
CN113536268A (zh) * 2021-07-13 2021-10-22 云南财经大学 基于深度学习的计算机人脸识别方法
US11992930B2 (en) 2018-03-20 2024-05-28 Sony Corporation Information processing apparatus and information processing method, and robot apparatus

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2369021T3 (es) * 2004-10-22 2011-11-24 Shiseido Company, Limited Procedimiento para categorizar labios.
JP4891144B2 (ja) * 2007-05-08 2012-03-07 キヤノン株式会社 画像検索装置及び画像検索方法
WO2009004916A1 (ja) * 2007-06-29 2009-01-08 Nec Corporation なりすまし検知システム、なりすまし検知方法およびなりすまし検知用プログラム
US20120169732A1 (en) * 2008-01-09 2012-07-05 Allergan, Inc. Method for analysis of facial appearance to assist medical procedure
JP5176572B2 (ja) * 2008-02-05 2013-04-03 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2010244381A (ja) * 2009-04-08 2010-10-28 Sony Corp ガボアフィルタ、画像認識装置および方法、プログラム、並びに記録媒体
JP5554984B2 (ja) * 2009-12-24 2014-07-23 キヤノン株式会社 パターン認識方法およびパターン認識装置
JP5567853B2 (ja) * 2010-02-10 2014-08-06 キヤノン株式会社 画像認識装置および方法
US8988512B2 (en) * 2011-04-14 2015-03-24 Mediatek Inc. Method for adjusting playback of multimedia content according to detection result of user status and related apparatus thereof
US9323980B2 (en) * 2011-05-13 2016-04-26 Microsoft Technology Licensing, Llc Pose-robust recognition
US9251402B2 (en) 2011-05-13 2016-02-02 Microsoft Technology Licensing, Llc Association and prediction in facial recognition
JP2012244525A (ja) * 2011-05-23 2012-12-10 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
US9020207B2 (en) 2011-06-07 2015-04-28 Accenture Global Services Limited Biometric authentication technology
JP5143262B1 (ja) * 2011-08-30 2013-02-13 株式会社東芝 立体映像処理装置、立体映像処理方法
KR101818005B1 (ko) * 2011-09-06 2018-01-16 한국전자통신연구원 얼굴 데이터 관리 시스템 및 그 방법
JP5868164B2 (ja) * 2011-12-21 2016-02-24 キヤノン株式会社 撮像装置、情報処理システム、制御方法、及びプログラム
CN104040461A (zh) * 2011-12-27 2014-09-10 惠普发展公司,有限责任合伙企业 用户界面设备
CA2804468C (en) * 2012-01-30 2016-03-29 Accenture Global Services Limited System and method for face capture and matching
JP5900052B2 (ja) * 2012-03-15 2016-04-06 オムロン株式会社 登録判定装置、その制御方法および制御プログラム、並びに電子機器
US9435888B1 (en) * 2012-03-26 2016-09-06 The United States Of America As Represented By The Secretary Of The Navy Shape matching automatic recognition methods, systems and articles of manufacturing
US9361412B1 (en) * 2012-03-26 2016-06-07 The United Sates Of America As Represented By The Secretary Of The Navy Method for the simulation of LADAR sensor range data
US8948465B2 (en) 2012-04-09 2015-02-03 Accenture Global Services Limited Biometric matching technology
US9128188B1 (en) * 2012-07-13 2015-09-08 The United States Of America As Represented By The Secretary Of The Navy Object instance identification using template textured 3-D model matching
US10048858B2 (en) * 2012-11-06 2018-08-14 Nokia Technologies Oy Method and apparatus for swipe shift photo browsing
KR101909006B1 (ko) * 2014-07-24 2018-10-17 고쿠리츠켄큐카이하츠호진 카가쿠기쥬츠신코키코 화상 위치 맞춤 장치, 화상 위치 맞춤 방법, 및 화상 위치 맞춤 프로그램
EP3183689A4 (en) * 2014-08-22 2017-08-23 Microsoft Technology Licensing, LLC Face alignment with shape regression
KR101647803B1 (ko) * 2014-09-18 2016-08-11 한국과학기술연구원 3차원 얼굴모델 투영을 통한 얼굴 인식 방법 및 시스템
US10146797B2 (en) 2015-05-29 2018-12-04 Accenture Global Services Limited Face recognition image data cache
US20180129868A1 (en) * 2016-11-08 2018-05-10 Qualcomm Incorporated System and method associated with object verification
JP7070549B2 (ja) 2017-03-30 2022-05-18 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
JP2019109709A (ja) * 2017-12-18 2019-07-04 株式会社東芝 画像処理装置、画像処理方法およびプログラム
JP6951753B2 (ja) * 2018-03-27 2021-10-20 エバ・ジャパン 株式会社 情報探索システム及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02187866A (ja) * 1989-01-17 1990-07-24 Secom Co Ltd 個人照合方法および装置
JP2001056861A (ja) * 1999-06-08 2001-02-27 Matsushita Electric Ind Co Ltd 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
JP2003281539A (ja) * 2002-03-25 2003-10-03 Oki Electric Ind Co Ltd 顔部品探索装置および顔部品探索方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
JP3926059B2 (ja) 1999-05-12 2007-06-06 日本電気株式会社 画像照合装置及びその画像照合方法並びにその制御プログラムを記録した記録媒体
US6944319B1 (en) * 1999-09-13 2005-09-13 Microsoft Corporation Pose-invariant face recognition system and process
SG91841A1 (en) * 1999-11-03 2002-10-15 Kent Ridge Digital Labs Face direction estimation using a single gray-level image
JP4526639B2 (ja) * 2000-03-02 2010-08-18 本田技研工業株式会社 顔認識装置およびその方法
JP4092059B2 (ja) * 2000-03-03 2008-05-28 日本放送協会 画像認識装置
US7127087B2 (en) * 2000-03-27 2006-10-24 Microsoft Corporation Pose-invariant face recognition system and process
US7127081B1 (en) * 2000-10-12 2006-10-24 Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. Method for tracking motion of a face
US7155036B2 (en) * 2000-12-04 2006-12-26 Sony Corporation Face detection under varying rotation
JP3979007B2 (ja) * 2000-12-22 2007-09-19 富士ゼロックス株式会社 パターン識別方法および装置
US7027620B2 (en) * 2001-06-07 2006-04-11 Sony Corporation Method of recognizing partially occluded and/or imprecisely localized faces
JP4333364B2 (ja) * 2001-08-23 2009-09-16 ソニー株式会社 ロボット装置、顔認識方法及び顔認識装置
US7221809B2 (en) * 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
KR100438841B1 (ko) * 2002-04-23 2004-07-05 삼성전자주식회사 이용자 검증 및 데이터 베이스 자동 갱신 방법, 및 이를이용한 얼굴 인식 시스템
JP4314016B2 (ja) * 2002-11-01 2009-08-12 株式会社東芝 人物認識装置および通行制御装置
US7526123B2 (en) * 2004-02-12 2009-04-28 Nec Laboratories America, Inc. Estimating facial pose from a sparse representation
JP4946730B2 (ja) * 2007-08-27 2012-06-06 ソニー株式会社 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02187866A (ja) * 1989-01-17 1990-07-24 Secom Co Ltd 個人照合方法および装置
JP2001056861A (ja) * 1999-06-08 2001-02-27 Matsushita Electric Ind Co Ltd 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
JP2003281539A (ja) * 2002-03-25 2003-10-03 Oki Electric Ind Co Ltd 顔部品探索装置および顔部品探索方法

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1971194A2 (en) 2007-03-14 2008-09-17 Shinko Electric Industries Co., Ltd. Wiring substrate and manufacturing method thereof
US8107689B2 (en) 2007-04-04 2012-01-31 Sony Corporation Apparatus, method and computer program for processing information
JP2008257460A (ja) * 2007-04-04 2008-10-23 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US8463049B2 (en) 2007-07-05 2013-06-11 Sony Corporation Image processing apparatus and image processing method
WO2010021373A1 (ja) 2008-08-22 2010-02-25 ソニー株式会社 画像表示装置、制御方法およびコンピュータプログラム
US9104408B2 (en) 2008-08-22 2015-08-11 Sony Corporation Image display device, control method and computer program
US8675136B2 (en) 2008-09-12 2014-03-18 Sony Corporation Image display apparatus and detection method
US8290278B2 (en) 2009-02-10 2012-10-16 Seiko Epson Corporation Specifying position of characteristic portion of face image
WO2011027696A1 (ja) 2009-09-07 2011-03-10 ソニー株式会社 表示装置および制御方法
WO2011030624A1 (ja) 2009-09-11 2011-03-17 ソニー株式会社 表示装置および制御方法
US9298258B2 (en) 2009-09-11 2016-03-29 Sony Corporation Display apparatus and control method
US9286850B2 (en) 2009-09-11 2016-03-15 Sony Corporation Display method and display apparatus
WO2011030674A1 (ja) 2009-09-11 2011-03-17 ソニー株式会社 表示方法及び表示装置
US8913007B2 (en) 2009-09-11 2014-12-16 Sony Corporation Display apparatus and control method
US9489043B2 (en) 2009-09-15 2016-11-08 Sony Corporation Display device and controlling method
WO2011033855A1 (ja) 2009-09-15 2011-03-24 ソニー株式会社 表示装置および制御方法
US8952890B2 (en) 2009-09-15 2015-02-10 Sony Corporation Display device and controlling method
WO2011037579A1 (en) * 2009-09-25 2011-03-31 Hewlett-Packard Development Company, L.P. Face recognition apparatus and methods
WO2011086803A1 (ja) * 2010-01-12 2011-07-21 日本電気株式会社 画像照合システム、画像照合方法、コンピュータプログラム
EP2525322A4 (en) * 2010-01-12 2017-04-26 Nec Corporation Image matching system, image matching method, computer program
US8938132B2 (en) 2010-01-12 2015-01-20 Nec Corporation Image collation system, image collation method and computer program
EP2525322A1 (en) * 2010-01-12 2012-11-21 Nec Corporation Image matching system, image matching method, computer program
EP2437490A2 (en) 2010-09-30 2012-04-04 Sony Corporation Information processing apparatus and information processing method
US8953860B2 (en) 2010-09-30 2015-02-10 Sony Corporation Information processing apparatus and information processing method
EP2530675A2 (en) 2011-05-30 2012-12-05 Sony Corporation Information processing apparatus, information processing method, and program
JP2014071610A (ja) * 2012-09-28 2014-04-21 Keyware Solutions Inc データ処理装置、名寄せ処理方法及びコンピュータプログラム
JP2014142817A (ja) * 2013-01-24 2014-08-07 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
US9747496B2 (en) 2013-01-24 2017-08-29 Fujitsu Limited Image processing device, method for processing image
WO2019181144A1 (ja) * 2018-03-20 2019-09-26 ソニー株式会社 情報処理装置及び情報処理方法、並びにロボット装置
JPWO2019181144A1 (ja) * 2018-03-20 2021-04-01 ソニー株式会社 情報処理装置及び情報処理方法、並びにロボット装置
JP7205533B2 (ja) 2018-03-20 2023-01-17 ソニーグループ株式会社 情報処理装置及び情報処理方法、並びにロボット装置
US11992930B2 (en) 2018-03-20 2024-05-28 Sony Corporation Information processing apparatus and information processing method, and robot apparatus
CN113536268A (zh) * 2021-07-13 2021-10-22 云南财经大学 基于深度学习的计算机人脸识别方法

Also Published As

Publication number Publication date
KR101217349B1 (ko) 2012-12-31
KR20070026080A (ko) 2007-03-08
CN1924897A (zh) 2007-03-07
US8249310B2 (en) 2012-08-21
US20070047775A1 (en) 2007-03-01
CN1924897B (zh) 2011-07-13
DE602006011990D1 (de) 2010-03-18
EP1760635B1 (en) 2010-01-27
EP1760635A1 (en) 2007-03-07
JP4595750B2 (ja) 2010-12-08

Similar Documents

Publication Publication Date Title
JP4595750B2 (ja) 画像処理装置および方法、並びにプログラム
Wang et al. Bayesian tactile face
Alp Guler et al. Densereg: Fully convolutional dense shape regression in-the-wild
US10321747B2 (en) Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program
KR101304374B1 (ko) 객체 특징을 위치결정하는 방법
JP4321350B2 (ja) パラメタ推定方法、パラメタ推定装置および照合方法
JP4946730B2 (ja) 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
JP4950787B2 (ja) 画像処理装置及びその方法
US20070122009A1 (en) Face recognition method and apparatus
US20060039600A1 (en) 3D object recognition
Vretos et al. 3D facial expression recognition using Zernike moments on depth images
JP4569186B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
Song et al. Robust 3D face landmark localization based on local coordinate coding
Martins et al. Bayesian constrained local models revisited
Teijeiro-Mosquera et al. Performance of active appearance model-based pose-robust face recognition
Wang et al. Artificial aging of faces by support vector machines
Doukas et al. A fast mobile face recognition system for android OS based on Eigenfaces decomposition
JP2006209582A (ja) 開眼度推定装置および開眼度推定方法
Ding et al. Facial landmark localization
JP2004178210A (ja) 画像処理方法及び画像認識方法並びにこれらの方法をコンピュータにより実行させるプログラム
JP4068888B2 (ja) アイリス推定装置およびアイリス照合装置
Ge et al. Multi-view based face chin contour extraction
Khajeh et al. Bilabial Consonants Recognition in CV Persian Syllable Based on Computer Vision
Canavan et al. 3d face sketch modeling and assessment for component based face recognition
Gao et al. Facial Age Estimation Based on KNN-SVR Regression and AAM Parameters

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100824

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100906

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees