JP5226699B2 - 画像判定装置 - Google Patents

画像判定装置 Download PDF

Info

Publication number
JP5226699B2
JP5226699B2 JP2009546139A JP2009546139A JP5226699B2 JP 5226699 B2 JP5226699 B2 JP 5226699B2 JP 2009546139 A JP2009546139 A JP 2009546139A JP 2009546139 A JP2009546139 A JP 2009546139A JP 5226699 B2 JP5226699 B2 JP 5226699B2
Authority
JP
Japan
Prior art keywords
image
information
feature
determination
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009546139A
Other languages
English (en)
Other versions
JPWO2009078155A1 (ja
Inventor
裕人 冨田
昭彦 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2009546139A priority Critical patent/JP5226699B2/ja
Publication of JPWO2009078155A1 publication Critical patent/JPWO2009078155A1/ja
Application granted granted Critical
Publication of JP5226699B2 publication Critical patent/JP5226699B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像された画像データから、人物や物体などの被写体または被写体の一部を検出する技術に関するものである。
従来の技術として、撮像された画像から、この画像中に含まれている人物や動物や物体などの被写体又は被写体の特徴部(例えば、顔、上半身など)を検出するものがある。このような従来の技術の一例として、デジタルスチルカメラ(以降、デジタルカメラ)にて撮像された画像から人物の顔を検出する技術、即ち顔の検出技術がある。顔の検出とは、任意の画像に対して一定の処理によりサーチを行うことで顔が含まれているか否かを判定する処理である。このようなデジタルカメラでは、検出した顔に合わせてAE(Automatic Exposure)/AF(Automatic Focus)の制御を行っている。
特許文献1、2に、顔を検出する画像処理装置および方法が開示されている。
例えば、特許文献1では、複数の人物の顔のサンプル(標本体)を用いて顔を構成する要素(例えば、目、鼻、口、顎など)の特徴のパターンを学習し、その学習した複数のパラメータ値からなる要素特徴情報を用いて、顔と顔以外(以下、非顔という。)を識別する方法、画像処理装置が開示されている。
特許文献1にて示される識別器は、標本体において顔を構成する要素それぞれに対する要素特徴情報を、標準的に配置された各要素が配された顔を持った標準的な被写体において各要素の配置位置と対応付けて記憶している。また、顔の各要素が取り得る複数の特徴それぞれは、当該要素に対応する要素特徴情報に含まれる互いに異なるパラメータ値が対応付けられている。
図22(a)は特許文献1の画像処理装置を示すものである。画像処理装置は、画像切出部33にて入力された対象画像から顔の存否の判定に用いる画像(以下、判定画像)を切り出す。判定画像は、図22(b)に示すように、撮影画像の左上を起点として、順次、当該撮影画像の右下まで、適当な画素(例えば1画素)分を右側または下側に枠35をずらしながら走査することで、切り出される。
画像処理装置は、切り出した判定画像から各要素の標準的な配置位置に基づく部分画像を抽出して、当該部分画像の抽出に用いた配置位置に対応する要素特徴情報と抽出した部分画像の特徴とを用いて当該判定画像に顔が存在するか否かの判定を行う。
米国特許第7099510号明細書 特開2004−62565号公報
通常、撮影者はデジタルカメラを図24(a)の左図のように持って撮影(通常撮影)を行うため、顔検出を行う入力画像としては図24(a)の右図のように人物(被写体)の天頂方向と入力画像の上方向が一致した画像となる。しかし、デジタルカメラを図24(b)の左図のように持って撮影(縦置き撮影)を行う場合には、顔検出を行う入力画像としては図24(b)の右図のように人物の天頂方向と入力画像の上方向が一致しない画像となる。以下、被写体の天頂方向と入力画像の上方向が一致した画像を通常画像と、一致しない画像を回転画像という。
そこで、特許文献1に開示された技術を用いて通常画像及び回転画像のそれぞれについて顔の検出を行うためには、識別器は、通常画像及び回転画像のそれぞれについて、個別に標本特徴情報を用意(記憶)する必要がある。
なぜなら、図25(a)にて示す通常撮影時における顔を構成する要素(右目、左目、左顎)の位置及び向きと、図25(b)にて示す回転撮影時における顔を構成するこれらの要素の位置及び向きとは異なるため、通常撮影時における要素の特徴と回転撮影時における要素の特徴とが異なるからである。例えば、通常撮影時における左目(ここでは、矩形領域R_B1)の向きは横向きであるが、回転撮影時それぞれにおける左目の向きは縦向きとなり、横向きの目の特徴と、縦向きの目の特徴とは異なる。
通常、1つの要素に対して、非常に多くのパラメータ値が対応付けられている。なぜなら、例えば、目の特徴といっても、目の形、大きさ、目の色、一重まぶた、二重まぶた、眼鏡の有無、目を見開いた状態や閉じた状態等、いろいろなパターンがあるので、これらパターンの組み合わせそれぞれに対するパラメータ値を記憶する必要があるからである。そのため、上述したように、特許文献1にて開示されている技術を用いて通常画像及び回転画像のそれぞれについて顔の存在の判定を行うためには、通常画像及び回転画像のそれぞれについて個別に要素特徴情報を記憶する必要があり、このため、記憶領域における記憶容量が増大するという問題につながる。
そこで、本発明は、上記課題に鑑みて、通常画像及び回転画像から被写体の特徴部の存在を判定する場合において、判定に用いる要素特徴情報を記憶するための記憶容量の増加を防ぐことのできる画像判定装置、画像判定方法及び集積回路を提供することを目的とする。
上記目的を達成するために、本発明の一実施態様である、被写体がその一部に、複数の要素を含む特徴部を有していることを利用して、対象画像に被写体の特徴部が存在するか否かを判定する画像判定装置は、予め準備された正立状態の標本体の、被写体に対応する特徴部に関して、要素毎に、当該要素の特徴に係る要素特徴情報を記憶している第1記憶手段と、各要素が標準的に配された特徴部を持った標準的な被写体を想定し、当該被写体が正立状態であるときの各要素の位置を特定座標系で規定した第1位置情報と、当該被写体が正立状態から回転した場合における各要素の位置を前記特定座標系で規定した第2位置情報とを記憶している第2記憶手段と、対象画像を取得する取得手段と、第1及び第2位置情報のうちのいずれかの位置情報を選択する選択手段と、対象画像に対して前記特定座標系を適用すると共に、第1位置情報が選択された場合には、当該第1位置情報により特定される前記対象画像内の部分画像を抽出し、抽出した前記部分画像に対して前記特定座標系上の第1軸を基準とした特徴抽出方法を適用して、画像特徴情報を求め、第2位置情報が選択された場合には、当該第2位置情報により特定される前記対象画像内の部分画像を抽出し、抽出した前記部分画像に対して前記第1軸を前記回転に応じて回転させた第2軸を基準とした特徴抽出方法を適用して、画像特徴情報を求める抽出処理手段と、抽出した部分画像の前記特定座標系上の位置に相当する、第1記憶手段内の要素の要素特徴情報を特定し、特定した前記要素特徴情報と抽出された前記画像特徴情報とを用いた前記要素に対する前記部分画像の評価により前記要素を含む前記対象画像内の領域における前記特徴部の存在を判定する判定手段とを備えることを特徴とする。
上記の構成によると、画像判定装置は、第1位置情報が選択された場合には第1軸を基準とした特徴抽出方法により画像特徴情報を求め、第2位置情報が選択された場合には第2軸を基準とした特徴抽出方法により画像特徴情報を求めている。ここで、画像判定装置は正立状態における要素特徴情報を記憶しており、第1位置情報が選択された場合に求められた画像特徴情報は想定された標準的な被写体が正立状態の場合における位置情報を用いた部分画像に対するものであるので、画像判定装置は、記憶している要素特徴情報を正立状態における部分画像の画像特徴情報の評価に用いることができる。また、通常、想定された標準的な被写体が回転すると、当該被写体の特徴部の各要素の向きは、当該回転に応じて変更される。このことは、抽出される部分画像や画像特徴情報を求める際の基準となる軸についても同様であり、第2位置情報にて特定される部分画像の向きは第1位置情報にて特定される部分画像の向きを回転に応じて変更したものとなり、第2軸は当該回転に応じて第1軸を回転させたものとなる。そのため、第1位置情報にて特定される部分画像と第1軸との相対関係と第2位置情報にて特定される部分画像と第2軸との相対関係とは同じである。相対関係が同じである以上、第1位置情報が選択された場合に求められた画像特徴情報と、第2位置情報が選択された場合に求められた画像特徴情報とは特徴を表現する形態が同じになる。そのため、第2位置情報が選択された場合に求められた画像特徴情報に対しても、第1記憶手段にて記憶している要素特徴情報を用いることができる。したがって、画像判定装置は、第1位置情報にて示される要素に対応する要素特徴情報と、第2位置情報にて示される前記要素に対応する要素特徴情報とを、それぞれ個別に記憶する必要がない。よって、画像判定装置は、回転画像から被写体の特徴部の存否を判定する場合であっても、判定に用いる要素特徴情報を記憶するための記憶容量の増加を防ぐことができる。
ここで、前記取得手段は、さらに、前記想定された標準的な被写体の特徴部を囲む枠を前記対象画像に適用して、当該枠にて形成される判定画像を前記対象画像から取得し、前記抽出処理手段は、選択された位置情報により特定される部分画像を前記判定画像から取得し、取得した前記部分画像の画像特徴情報を抽出し、前記判定手段は、特定した前記要素特徴情報と抽出された前記画像特徴情報とを用いた前記要素に対する前記部分画像の評価により前記判定画像における前記特徴部の存在を判定するとしてもよい。
この構成によると、画像判定装置は、対象画像内の判定画像において、特徴部が存在するか否かを判定することができる。
ここで、前記画像判定装置は、さらに、前記判定手段が前記判定画像に特徴部が存在しないと判定する場合、前記選択手段に対して選択されていない他の位置情報を選択するよう指示する指示手段を備え、前記選択手段は、さらに、前記指示を受け付けると、選択されていない他の位置情報を選択し、前記抽出処理手段は、さらに、選択された他の位置情報により特定される他の部分画像を抽出し、前記他の位置情報に対応する軸を基準とした特徴抽出方法を適用して当該他の部分画像に対する画像特徴情報を求め、前記判定手段は、さらに、抽出した他の部分画像の前記特定座標上の位置に相当する、第1記憶手段内の前記要素の要素特徴情報を特定し、特定した前記要素特徴情報と抽出された前記他の部分画像に対する画像特徴情報とを用いた前記要素に対する前記他の部分画像の評価により前記対象画像における前記特徴部の存在を判定するとしてもよい。
この構成によると、画像判定装置は、判定画像内に被写体の特徴部が存在しないと判定する場合、選択されていない他の位置情報を切り替える。これにより、従来のようにテンプレート自身の回転、又は対象画像の回転により特定部位の存否の判定を行う場合に比べて、処理時間が短くなる。なお、テンプレート自身の回転、又は対象画像の回転により特定部位の存否の判定を行う技術は、特許文献2に開示されている。
ここで、前記抽出処理手段は、前記判定画像のうち1ライン分のライン画像を所定ライン数分保持する領域を有し、前記判定画像から1ライン分のライン画像を順次読み出し、読み出したライン画像を前記領域に順次格納し、ライン画像の格納数が前記所定ライン数を超える場合には、読み出しが最先のライン画像を前記領域から破棄する画像読出部と、前記画像読出部がライン画像を読み出して格納する度に、選択された位置情報により前記画像読出部にて保持されているライン画像内に配置が示される全ての部分画像を、前記保持されているライン画像から抽出し、抽出した部分画像それぞれの画像特徴情報を求める抽出部とを備え、前記判定手段は、前記抽出部にて部分画像が抽出される度に、前記部分画像それぞれに対して要素特徴情報を前記第1記憶手段から特定する特定部と、前記判定画像内の全ての部分画像の画像特徴情報それぞれと、特定された要素特徴情報それぞれとを用いて、前記判定画像における前記特徴部の存在を判定する判定部とを備えるとしてもよい。
この構成によると、画像判定装置は、ライン画像の読み込み時点において保持されているライン画像から、当該保持されているライン画像内に存在する全ての部分画像を抽出し、抽出した部分画像それぞれに対する要素特徴情報を特定する。これにより、画像判定装置は、検出対象の被写体が回転した場合であっても、被写体の特徴部の存否を判定する処理能力の低下を防ぐことができる。
以下、その理由を述べる。
従来の技術では、図22(a)にて示すように、部分画像に対する処理順序が決まっている。例えば、目、鼻、口の順である。また、通常、枠35にて形成される判定画像は、SRAM(Static Random Access Memory)に格納されており、判定画像を読み出すには1ライン毎に、判定画像の上部から順次読み出す必要がある。つまり、判定画像を1ラインずつ読み出しながら、部分画像(従来技術では、矩形画像)の切り出しが行われ、切り出した部分画像に対して特徴量評価部が評価する部分画像のパラメータを用いた特徴量の評価が行われる。例えば図25(a)にて示すように処理順序が目(矩形画像R_A1、R_B1)、顎(矩形画像R_A2)の順である場合には、a1ライン番目のライン画像を読み込んだ時点で、矩形画像(R_A1、R_B1)が選択され、両者に対する目の評価が並列に行われ、次に、矩形画像(R_A2)が選択され、選択された矩形画像(R_A2)に対する顎の評価が行われる。しかしながら、図25(b)にて示す画像の場合では、顔検出を行う際には、評価順序に基づいて、先ず目の評価を行う。この場合、図25(b)にて示すb1ライン番目における1ライン分の画像を読み出した時点で1の矩形画像R_B1に対して目の評価を行い、その後、b2ライン番目における1ライン分の画像を読み出した時点で矩形画像R_A1に対して目の評価を行う。その後、評価順序に基づいて矩形画像R_A2に対して顎の評価を行う。つまり、従来技術では、回転画像に対してb1番目のライン画像を読み込んだ時点では矩形画像R_B1に対する評価のみを行う、つまり矩形画像R_B1に対する評価と、矩形画像R_A2に対する評価を並列して行うことができないので、回転画像に対する特徴部の存在の判定の処理能力は、通常の画像に対する特徴部の存否の判定の処理能力に比べて低下することとなる。しかしながら、本発明の画像判定装置は、選択する位置情報に関わらず、ライン画像の読み込み時点において抽出した部分画像それぞれに対して、当該部分画像に対する要素特徴情報を取得している。つまり、上記構成を持つ画像判定装置は、図25にて示すところの矩形画像R_B1に対する要素特徴情報と、矩形画像R_A2に対する要素特徴情報とを用いた処理を並列に行うことができる。したがって、画像判定装置は、検出対象の被写体が回転した場合、従来のように被写体の特徴部の存在の判定の処理能力が低下することはない。
ここで、前記第1位置情報は、正立状態における想定された標準的な被写体の特徴部の各要素それぞれにおける前記特定座標系にて配置位置を示す第1配置位置テーブルで表され、前記第2位置情報は、当該被写体が正立状態から回転した場合における当該被写体の特徴部の各要素それぞれにおける前記特定座標系にて配置位置を示す第2配置位置テーブルで表され、前記第2記憶手段は、さらに、正立状態の各要素の配置位置それぞれに対して、当該配置位置に対応する要素の要素特徴情報の前記第1記憶手段における存在位置が対応付けられた第1存在位置テーブルと、回転後の各要素の配置位置それぞれに対して、当該配置位置に対応する要素の要素特徴情報の前記存在位置が対応付けられた第2存在位置テーブルとを記憶しており、前記選択手段は、前記第1配置位置テーブルと前記第1存在位置テーブルとの組み合わせ、及び前記第2配置位置テーブルと前記第2存在位置テーブルとの組み合わせのうち、1の組み合わせを選択し、前記抽出部は、前記選択手段が選択した組み合わせに含まれる配置位置テーブルを用いて前記部分画像を抽出し、前記特定部は、前記取得された部分画像それぞれに対して、当該部分画像の抽出に用いた位置情報と前記選択手段が選択した存在位置テーブルとを用いて、当該部分画像に対する前記要素特徴情報を特定するとしてもよい。
この構成によると、画像判定装置は、第2記憶手段にて、第1配置位置テーブル及び第1存在位置テーブルと、第2配置位置テーブル及び第2存在位置テーブルを用いて前記第1及び第2位置情報の管理、前記第1位置情報と要素特徴情報との関連付け、及び前記第2位置情報と要素特徴情報との関連付けを行うことができる。
ここで、前記第1配置位置テーブル及び第2配置位置テーブルそれぞれは、さらに、各要素の配置位置毎に、取得すべき部分画像の形状を示す形状情報を対応付けて格納しており、前記抽出部は、前記保持されているライン画像から、当該保持されているライン画像内に配置が示される配置位置毎に、当該配置位置に対応付けられた形状情報が示す形状からなる部分画像を抽出するとしてもよい。
この構成によると、画像判定装置は、抽出すべき部分画像の形状を特定することができる。
ここで、 前記要素特徴情報は、対応する要素の近似に対する重み付けがなされた評価値からなる評価値群であり、部分画像を構成する複数の領域の明暗の組み合わせにて示される特徴量それぞれに対して、異なる標本値が対応付けられ、前記存在位置テーブルに含まれる存在位置は、対応する標本値群の前記第1記憶手段における先頭位置を示し、抽出部は、取得した部分画像に対して、前記要素特徴情報として、選択した位置情報に対応する軸を基準とした特徴抽出方法を適用して当該部分画像の特徴量を求め、前記特定部は、前記抽出部にて部分画像が抽出される度に、抽出した部分画像に対して、選択された存在位置テーブルと当該部分画像の抽出に用いられた配置位置とから、評価値群の先頭位置を特定し、前記判定部は、特定した前記先頭位置にて示される前記評価値群から、取得した当該部分画像の特徴量に対応する評価値を取得し、前記判定画像に含まれる全ての部分画像それぞれに対して取得された評価値の累計により、前記特徴部に対する近似の重みの値を算出し、算出した値が所定の閾値以上である場合に前記判定画像において前記特徴部が存在すると判定するとしてもよい。
この構成によると、画像判定装置は、抽出した部分画像それぞれに対する評価値群の先頭位置を、選択手段にて選択された存在位置テーブルを用いて特定し、抽出した部分画像それぞれに対して特定された先頭位置にて示される評価値群から当該部分画像の特徴量に対応する評価値を取得することができる。さらに、画像判定装置は、判定画像から抽出した全ての部分画像それぞれに対して取得した評価値を用いて特徴部に対する近似の重みの値を算出し、算出した値に基づいて判定画像における前記特徴部の存否の判定を行うことができる。
ここで、前記第2記憶手段は、さらに、前記第1配置位置テーブル及び前記第1存在位置テーブルそれぞれに対して、利用の可否を示す第1配置位置テーブル利用フラグ及び第1存在位置テーブル利用フラグを対応付けて記憶し、前記第2配置位置テーブル及び前記第2存在位置テーブルそれぞれに対して、利用の可否を示す第2配置位置テーブル利用フラグ及び第2存在位置テーブル利用フラグが対応付けて記憶し、前記選択手段は、さらに、選択すべき組み合わせにおける配置位置テーブル及び存在位置テーブルそれぞれに対応する配置位置テーブル利用フラグ及び存在位置テーブル利用フラグに対してのみ利用を許可する旨の値を設定し、前記抽出部は、部分画像の抽出に、利用が許可された旨の値が設定された配置位置テーブルを用い、前記特定部は、前記要素特徴情報の特定に、利用が許可された旨の値が設定された存在位置テーブルを用いるとしてもよい。
または、前記第2記憶手段は、参照可能領域と参照不可領域とを有し、前記選択手段は、選択すべき組み合わせにおける配置位置テーブル及び存在位置テーブルのそれぞれを前記参照可能領域で、他の組み合わせにおける配置位置テーブル及び存在位置テーブルを参照不可領域でそれぞれ保持し、前記抽出部は、部分画像の抽出に、前記参照領域で保持されている配置位置テーブルを用い、前記特定部は、前記要素特徴情報の特定に、前記参照領域で保持されている存在位置テーブルを用いるとしてもよい。
または、前記第1配置位置テーブル、前記第2配置位置テーブル、前記第1存在位置テーブル及び前記第2存在位置テーブルのそれぞれには、アクセスの可否を示すアクセス権が対応付けられており、前記選択手段は、選択すべき組み合わせにおける配置位置テーブル及び存在位置テーブルのそれぞれに対してのみアクセスを許可するようアクセス権の設定を行い、他の組み合わせにおける配置位置テーブル及び存在位置テーブルに対してはアクセスを不許可とするようアクセス権の設定を行い、前記抽出部は、部分画像の抽出に、アクセス権にアクセスを許可する旨が設定された存在位置テーブルを用い、前記特定部は、前記要素特徴情報の特定に、アクセス権にアクセスを許可する旨が設定された存在位置テーブルを用いるとしてもよい。
これらの構成によると、画像判定装置は、各テーブルに対する利用フラグ、参照可能領域及び参照不可領域、又は各テーブルに対するアクセス権を用いることで、配置位置テーブルと存在位置テーブルとの組み合わせの選択の切り替えを容易に行うことができる。
ここで、前記選択手段は、外部から前記第1及び前記第2位置情報のうち1の位置情報を選択する旨の指示を受け取り、受け取った指示にて示される位置情報を選択するとしてもよい。
この構成によると、画像判定装置は、外部から指示を受け取ることにより、第1位置情報及び第2位置情報のどちらを選択すべきかを容易に決定することができる。
ここで、前記回転は、90度、180度、270度及び上下反転の何れかであるとしてもよい。
この構成によると、画像判定装置は、前記回転は、90度、180度、270度及び上下反転のうちいずれかに応じた第2位置情報を記憶しているので、従来のようにテンプレート自身、又は画像自身を90度、180度、270度及び上下反転のうちいずれかの回転を行う必要がない。これにより、従来のようにテンプレート自身、又は画像自身の回転により被写体の特徴部の存在の判定を行う場合に比べて、処理時間が短くなる。
ここで、前記被写体は、人物であり、前記特徴部は、顔であるとしてもよい。
この構成によると、画像判定装置は、回転に関わらず、対象画像において人物の顔を存在を判定する際の判定に用いる要素特徴情報を記憶するための記憶領域の増加を防ぐことができる。
ここで、前記画像判定装置は、被写体を撮影する撮像装置に具備されるとしてもよい。
この構成によると、画像判定装置は、撮像装置に具備されるので、撮像装置は被写体の撮影時に被写体の特徴部の存否を判定することができる。
画像処理装置1の構成を示すブロック図である。 画像メモリ4にて格納される画像を模式的に示す図である。 セレクタ回路11a、11bの構成を示す図である。 (a)は基準角度(0度)における選択すべき矩形画像の領域を示す図であり、(b)、(c)及び(d)のそれぞれは回転角度(90度、上下反転、270度)毎における選択すべき矩形画像の領域を示す図である。 (a)は基準角度(0度)における選択すべき矩形画像の領域の座標を示す図であり、(b)、(c)及び(d)のそれぞれは回転角度(90度、上下反転、270度)毎における選択すべき矩形画像の領域の座標を示す図であり、(e)は各角度における選択すべき矩形画像の領域を示す開始位置の座標の関係を示す図である。 回転角度が0度の場合のセレクタテーブルT11aのデータ構造の一例を示す図である。 回転角度が90度の場合のセレクタテーブルT11bのデータ構造の一例を示す図である。 回転角度が上下反転の場合のセレクタテーブルT11cのデータ構造の一例を示す図である。 回転角度が270度の場合のセレクタテーブルT11dのデータ構造の一例を示す図である。 矩形画像を2つに分割した場合において、各角度に対する特徴量を取得するために、分割された各領域における値(画素の総和)の並びについて示す図である。 矩形画像を9つに分割した場合において、各角度に対する特徴量を取得するために、分割された各領域における値(画素の総和)の並びについて示す図である。 矩形情報Aに対するROM9におけるメモリマップを示す図である。 矩形情報Bに対するROM9におけるメモリマップを示す図である。 (a)は、回転角度が0度の場合のアドレス変換テーブルT31aのデータ構造の一例を示す図であり、(b)は、回転角度が90度の場合のアドレス変換テーブルT31bのデータ構造の一例を示す図である。 (a)は、回転角度が上下反転の場合のアドレス変換テーブルT31cのデータ構造の一例を示す図であり、(b)は、回転角度が270度の場合のアドレス変換テーブルT31dのデータ構造の一例を示す図である。 (a)から(d)のそれぞれは、角度設定部10で設定される角度(0度、90度、上下反転、270度)と、検出する顔の角度範囲との関係を示す図である。 切替処理の動作を示す流れ図である。 顔検出処理の動作を示す流れ図である。 画像処理装置1aの構成を示すブロック図である。 半導体集積回路70の構成を示すブロック図である。 撮像装置100の構成を示すブロック図である。 (a)は従来の画像処理装置を示す参考図であり、(b)は顔検出に係る検索窓の走査順序を示す参考図である。 (a)から(e)のそれぞれは、選択すべき矩形領域の一例を示す図である。 (a)はデジタルカメラにおける通常撮影時における人物の天頂方向と入力画像の天頂方向との関係を示す図であり、(b)は、縦置き撮影時における人物の天頂方向と入力画像の天頂方向との関係を示す図である。 (a)は通常撮影時における選択すべき矩形画像の位置を示す図であり、(b)は縦置き撮影時における選択すべき矩形画像の位置を示す図である。
1.第1の実施の形態
以下、本発明の第1の実施の形態について、図面を参照しながら説明する。
1.1 画像処理装置1の構成
図1は、第1の実施の形態における画像処理装置1のブロック図である。
画像処理装置1は、図1に示すように、画像入力部2、顔検出部5、角度設定部10から構成され、入力された画像から人物の顔の存否を判定する画像判定装置である。
画像処理装置1は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニットなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、画像処理装置1は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
(1)画像入力部2
画像入力部2は、図1に示すように、画像獲得部3と画像メモリ4とから構成されている。
画像獲得部3は、撮影された画像データ(入力画像のデータ)を取得するインタフェース回路等から構成されている。
画像メモリ4は、取得した画像データを保持する。具体的には、画像メモリ4は、SRAMで構成されており、1ワード中に1ライン分の画素データ(ここでは、24画素分のデータ)が保持された24ワード構成をとっている。つまり、画像獲得部3により取得された画像データは、一旦画像メモリ4において、図2にて示すような24画素×24画素の顔検出部5の処理単位に保持される。以後、この24画素×24画素などの顔検出部5の処理単位をウィンドウと呼ぶ。画像メモリ4には、1ウィンドウ分の画素データが保持される。
画像獲得部3は、1ウィンドウ分のサイズに基づいて、撮影された入力画像の左上を起点とし、順次入力画像の右下まで、適当な画素(例えば1画素)分を右側または下側にずらしながら走査して、1ウィンドウ分の画素データを取得し、画像メモリ4に保持する。
画像メモリ4の画素データは、顔検出部5からの要求に応じて1ライン単位(ここでは、24画素分の画素データ)毎に顔検出部5に出力される。
ここで、画像メモリ4は、1ウィンドウ分の容量を備えていればよい。しかしながら、これに限定されない。画像メモリ4は、画像獲得部3による画素データの取得と、顔検出部5への画素データの出力を同時に行うことで画素データの取得の遅延を隠蔽するために、1ウィンドウを超える容量を備えても良い。
なお、24画素×24画素である本ウィンドウのサイズ、及びSRAMの構成は一例であり、限定されるものではない。ウィンドウサイズは他のサイズでもよいし、画像メモリ4はSRAM以外の記憶手段であってもよい。
(2)顔検出部5
顔検出部5は、図1に示すように、カウンタ18、矩形画像切出部6、識別部7、ROMアドレス算出部8、ROM9から構成されている。
(2−1)カウンタ18
カウンタ18は、0から23まで値を1ずつカウントアップし、カウンタ値により画像メモリ4の読み出しラインを指定する。
カウンタ18のカウンタ値は、画像メモリ4内の1ウィンドウ分の画素データを全て読み出すためのアドレスとしてカウンタ値が画像メモリ4に出力される。このとき、画像メモリ4において、カウンタ18にて示される値と同一のライン番号に位置する24画素分の画像データが顔検出部5へ出力される。例えば、カウンタ18の値が15である場合には、15ライン番目に位置する24画素分の画素データが顔検出部5へ出力される。
また、カウンタ18のカウンタ値は、ウィンドウにおける読み込み対象のライン番号として、矩形画像切出部6へも出力される。
(2−2)矩形画像切出部6
矩形画像切出部6は、図1にて示すように、切出処理部11と、セレクタテーブル記憶部12とから構成され、画像入力部2から出力されたウィンドウの画像データから矩形画像を切り出す。
セレクタテーブル記憶部12は、矩形画像の切り出し位置の情報を保持している記憶領域である。
切出処理部11は、1つのセレクタテーブルに従って矩形画像の画像データ(以下、矩形画像データともいう。)を選択する(切り出す)。
(2−2−1)切出処理部11
切出処理部11は、図1に示すように、セレクタ回路11a、11bを有している。
セレクタ回路11a、11bは、カウンタ18のカウンタ値と同一のライン番号に対するウィンドウの画素データを、画像メモリ4から1ライン単位で読み出す。ここでは、24サイクルでウィンドウの全データが矩形画像切出部6に入力されることとなる。
セレクタ回路11a、11bでは、予め決まった位置の矩形画像をセレクタテーブル記憶部12に保持されている内容に従って選択する。
セレクタ回路11a(11b)の回路図を図3に示す。セレクタ回路11aは、1画素のデータを保持するレジスタ21と、複数のレジスタ21(ここでは、24個のレジスタ)から構成されるシフトレジスタ群20と、列セレクタ回路22で構成される。
後述する識別部7では矩形画像単位で処理を行うため、セレクタ回路11aでは矩形画像の画素データを揃える必要がある。矩形画像の画素データを揃えるためのバッファをシフトレジスタ群20で構成する。図3では4段のシフトレジスタ群20を備えることで、高さが4画素の矩形画像に対応が可能である。シフトレジスタ群20に保持された矩形画像の画素データは、セレクタテーブル記憶部12に保持されている内容に従って列セレクタ回路22により選択され、識別部7に出力される。
なお、セレクタ回路11bは、セレクタ回路11aと同様の構成であるので、ここでの説明は省略する。
セレクタ回路11aとセレクタ回路11bとは、カウンタ18のカウンタ値にて示されるライン番号が画素データを、同時に読み出すことができ、同一ライン上に2つの矩形画像が存在する場合には、セレクタ回路11a、11bそれぞれを用いて、2つの矩形画像データを同時に選択することができる。
(2−2−2)セレクタテーブル記憶部12
セレクタテーブル記憶部12は、セレクタ回路11a、11bにて切り出される矩形画像データの位置を示す情報を記憶している。ここでは、図4(a)から(d)にて示す4画素×4画素からなる矩形画像B1、B2、B3が選択(切り出し)対象であるとする。以下において、図4(a)から(d)にて示すテンプレートの枠を示すテンプレート枠及び矩形画像を用いて説明する。
セレクタテーブル記憶部12は、図4(a)にて示すテンプレート枠B10を基準として、選択される矩形画像B1、B2、B3の開始位置B1a、B2a、B3aの情報を記憶している。テンプレート枠B10のサイズは、縦24画素×横24画素であり、つまり画像メモリ4にて保持されるウィンドウと同一である。なお、矩形画像B1、B2、B3それぞれは、テンプレート枠B10内に人の顔が存在する場合において、右目、左目、左顎の標準的な位置に配置されている。
さらに、セレクタテーブル記憶部12は、図4(a)にて示すテンプレート枠B10を左回りに90度、270回転させた場合における矩形画像B1、B2、B3の開始位置を記憶している。ここでは、図4(b)、(d)にて示す開始位置B1b、B2b、B3b及び開始位置B1d、B2d、B3dが記憶されている。 また、セレクタテーブル記憶部12は、図4(a)にて示すテンプレート枠B10を上下反転させた場合における矩形画像B1、B2、B3の開始位置を記憶している。ここでは、図4(c)にて示す開始位置B1c、B2c、B3cが記憶されている。
ここで、矩形画像と回転角度の関係を図5に示す。ここでは、図5(a)において、基準角度(0度)のテンプレート枠B11内のh画素×w画素からなる矩形画像B4aの開始位置のX座標及びY座標を(x、y)とする。この場合、テンプレートB11が左回りに90度回転すると、矩形画像B4aは、図5(b)にて示されるように、矩形画像B4bにて示される位置に移り、その開始位置のX座標はyとなり、Y座標は24−x−wとなる。テンプレート枠B11が上下反転、左回りに270度回転した場合における矩形画像B4aは、図5(c)、(d)にて示されるように、矩形画像B4c、B4dにて示される位置に移る。 図5(e)において、基準時における座標位置と、回転及び上下反転後における座標位置との関係を図5(e)にて示す。
以下に、セレクタテーブル記憶部12にて、選択対象の矩形画像の情報を記憶する具体例を示す。
セレクタテーブル記憶部12は、図6から図9にて示す4種類のセレクタテーブルT11a、T11b、T11c、T11dを記憶している。
セレクタテーブルT11a、T11b、T11c、T11dは、ウィンドウのライン番号と、矩形情報A、矩形情報Bとからなる組を1つ以上含む領域から構成されている。
ウィンドウのライン番号は、ウィンドウのライン番号を示す値である。
矩形情報A及び矩形情報Bは、矩形画像の有無を示す情報と、矩形画像のX座標とから構成されている。
矩形画像の有無を示す情報とは、具体的には、値0及び1のうち何れかが設定される矩形画像フラグである。矩形画像フラグの値が0である場合には対応するライン番号を開始位置のY座標とする矩形画像が無いことを示し、矩形画像フラグの値が1である場合には対応するライン番号を開始位置のY座標とする矩形画像が存在することを示す。
矩形画像のX座標は、矩形画像の有無を示す情報、つまり矩形画像フラグの値が1である場合、存在する矩形画像の開始位置のX座標を示す。
ここでは、ウィンドウのライン番号と、矩形画像のX座標とから、存在する矩形画像の開始位置のX座標及びY座標が特定される。
図6にて示すセレクタテーブルT11aは、図4(a)、つまり基準角度(0度)における矩形画像に係る情報を示しており、ウィンドウのライン番号“y_b”に対して2つの矩形画像と、ウィンドウのライン番号“y_c”に対して1つの矩形画像が存在していることを示している。この場合、ウィンドウのライン番号“y_b”と矩形画像のX座標“x_b”とから図4(a)にて示す矩形画像B1が特定され、ウィンドウのライン番号“y_b”と矩形画像のX座標“x_b’”とから図4(a)にて示す矩形画像B2が特定される。また、ウィンドウのライン番号“y_c”と矩形画像のX座標“x_b’”とから図4(a)にて示す矩形画像B3が特定される。
図7から図9にて示すセレクタテーブルT11b、T11c、T11dは、それぞれ、図4(b)から(d)にて示される矩形画像に係る情報を示している。
セレクタテーブルT11bにおけるウィンドウのライン番号“24−x_b’−4”にて特定される2つの矩形画像は図4(b)における矩形画像B2、B3を示している。ここでは、矩形情報Aにて矩形画像B3が示され、矩形情報Bにて矩形画像B2が示される。また、ライン番号“24−x_b−4”にて特定される1つの矩形画像は図4(b)における矩形画像B1を示している。
セレクタテーブルT11cにおけるウィンドウのライン番号“24−y_c−4”にて特定される1つの矩形画像は図4(c)における矩形画像B3を示し、ライン番号“24−y_b−4”にて特定される2つの矩形画像は図4(c)における矩形画像B1、B2を示している。ここでは、矩形情報Aにて矩形画像B1が示され、矩形情報Bにて矩形画像B2が示される。
セレクタテーブルT11dにおけるウィンドウのライン番号“x_b”にて特定される1つの矩形画像は図4(d)における矩形画像B1を示し、ライン番号“x_b’”にて特定される2つの矩形画像は図4(d)における矩形画像B2、B3を示している。ここでは、矩形情報Aにて矩形画像B3が示され、矩形情報Bにて矩形画像B2が示される。
各セレクタテーブルT11a、T11b、T11c、T11dそれぞれは、セレクタ回路11a、11bによる利用が可能であるか否かを示すセレクタテーブル利用フラグと対応付けられている。セレクタテーブル利用フラグの値が0である場合には利用不可を示し、値が1である場合には利用可能であること示す。ここでは、4つのセレクタテーブルT11a、T11b、T11c、T11dのうち1つのセレクタテーブルのセレクタテーブル利用フラグに値“1”が設定され、残りのセレクタテーブルに対応付けられたセレクタテーブル利用フラグに値“0”が設定される。つまり、セレクタ回路11a、11bは、矩形画像データを選択する際には、常に1つのセレクタテーブルを参照することとなる。
なお、本実施の形態では、セレクタ回路11aはウィンドウのライン番号と矩形情報Aとで示される矩形画像データの選択を行い、セレクタ回路11bはウィンドウのライン番号と矩形情報Bとで示される矩形画像データの選択を行うものとする。
(2−2−3)矩形画像データの切り出しの具体例
ここでは、図6のセレクタテーブルT11aを用いて、矩形画像データの切り出しの具体例について説明する。
セレクタテーブルT11aは、セレクタ回路11a、11bに入力されているウィンドウの画素データのライン番号となるカウンタ18のカウンタ値を入力とし、ウィンドウ内の各ラインにおける矩形画像の有無情報、および列方向(X方向)の位置情報を出力する。これらの情報を元にセレクタ回路11a内の列セレクタ回路22は矩形画像データを選択する。図4(a)の矩形画像B1を切り出す場合のセレクタテーブルT11a内の情報を矩形画像情報T12aとして図6に示す。図4(a)の矩形画像B1の開始位置は、ウィンドウ内の座標(x,y)=(x_b,y_b)であるので、図6の矩形画像情報T12aに示す情報となる。セレクタ回路11aにこの情報が入力された時、y_bライン目に矩形画像の有無情報が"1"(矩形画像有)を示しており、かつ矩形画像のX座標がx_bを示しているため、セレクタ回路11aはy_bライン目のデータがシフトレジスタ群のnライン目の位置にシフトされた時に、列セレクタ回路22は列x_bの矩形画像の画素データRect(x_b)(枠T1で示す16画素分の画素データ)を選択し、識別部7に出力する。
なお、このとき、セレクタ回路11bでは、図4(a)にて示す矩形画像B2に対する矩形画像データが選択され、識別部7へ出力される。
(2−3)識別部7
識別部7は、図1にて示すように、特徴量算出部13と、評価値算出部14と、判定部15とから構成され、矩形画像切出部6から出力される複数の矩形画像データからそれぞれの矩形画像の特徴量および評価値を算出し、評価値に基づいてウィンドウに顔が含まれるか否かの識別を行う。
(2−3−1)特徴量算出部13
特徴量算出部13は、セレクタ回路11a、11bにて選択された1つ以上の矩形画像それぞれから特徴量を算出する。
特徴量算出部13は、算出した特徴量をROMアドレス算出部8に出力する。
特徴量の算出方法の一例として、特許文献1にて示す算出方法がある。
例えば、図23(b)の矩形画像の特徴量の算出方法は、矩形画像内の上の横4画素×縦2画素の黒色の矩形領域内の画素の総和と、下の横4画素×縦2画素の白色の矩形領域内の画素の総和の差を用いる。このときの算出順序を上、下の順に行うものとする。また、画素の総和の大きい(明るい)矩形領域の特徴を"1"、画素の総和の小さい(暗い)矩形領域の特徴を"0"とし、矩形画像内の黒色の矩形領域と白色の矩形領域の前記特徴を2進情報として並べることで矩形画像の特徴量とする。図23(b)においては、黒色の矩形領域が暗く、白色の矩形領域が明るいとすると、特徴を上の領域から順に並べて"01"となる。このときに得られる2進数の値“01”が特徴量となる。また、図23(c)の場合、同様に特徴を左の領域から順に並べて"101"となる。
なお、本実施の形態では、基準角度0度にて選択される矩形画像を基準として、図23(b)にて示すように、上の横4画素×縦2画素の矩形領域内の画素の総和と、下の横4画素×縦2画素の矩形領域内の画素の総和の差を用いる。図10(a)から(d)に、本実施の形態における各角度(0度、90度、上下反転、270度)に対する特徴量の値の並びを示す。図10(a)は、基準角度0度における特徴量の値の並びを示している。この場合、特徴量算出部13は、矩形画像を水平方向の軸B103aを用いて上下に分割し、分割されたそれぞれの領域(第1の領域B101aと第2の領域B102a)における画素の総和“A”、“B”を上、下の順に並べて、特徴量“AB”とする。
図10(b)は左回りに90度回転した場合の値の並びを示す。この場合、0度の場合には上下の位置関係となる第1の領域101a及び第2の領域102aに対する位置関係が、左右の位置関係に変更される。そのため、特徴量算出部13は、90度回転後の矩形画像を軸B103aが左回りに90度回転した垂直方向の軸B103bを用いて分割し、分割されたそれぞれの領域(第1の領域B101b及び第2の領域B102b)における画素の総和“A”、“B”を左、右の順に並べて、特徴量“AB”とする。
図10(c)は上下反転した場合の値の並びを示す。この場合、0度の場合と分割の仕方は同じであるが、軸B103cを用いて矩形画像を分割する。このとき、分割後の第1の領域101c及び第2の領域102cの位置関係は、0度の場合と逆になる。そのため、特徴量算出部13は、分割されたそれぞれの領域(第1の領域B101c及び第2の領域B102c)における画素の総和“A”、“B”を下、上の順に並べて、特徴量“AB”とする。
図10(d)は左回りに270度回転した場合の値の並びを示す。この場合、90度回転した場合と分割の仕方は同じであるが、軸B103dを用いて矩形画像を分割する。このとき、分割後の第1の領域101d及び第2の領域102dの位置関係は、90度の場合と逆になる。そのため、特徴量算出部13は、分割されたそれぞれの領域(第1の領域B101d及び第2の領域B102d)における画素の総和“A”、“B”を右、左の順に並べて、特徴量“AB”とする。
上述したように、矩形画像の分割に用いる1本の軸の方向に応じて、特徴量の値の並びが特定されることが分かる。
この算出方法によると、矩形画像に対する特徴量は、回転角度(0度、90度、上下反転、270度)に関係なく同一の値となる。
なお、矩形画像の特徴量の算出方法は一例であり、限定するものではない。
また、本実施の形態では、矩形画像を2つの領域に分割して、当該矩形画像の特徴量を算出したが、これに限定されない。分割の仕方は、他のやり方であってもよい。
ここで、他の分割の仕方として、9画素×9画素からなる矩形画像を9個の領域に分割した場合の特徴量の値の並びについて、図11(a)から(d)に示す。
図11(a)は0度の場合を示す。この場合、特徴量は、矩形画像の左上の領域を起点として、左から右及び上から下の順序で並べられる。つまり、特徴量は、“ABCDEFGHI”となる。
図11(b)は90度の場合を示す。この場合、特徴量は、矩形画像の左下の領域を起点として、下から上及び左から右の順序で並べられる。つまり特徴量は、0度の場合と同様の値“ABCDEFGHI”となる。
図11(c)は上下反転の場合を示す。この場合、特徴量は、矩形画像の左下の領域を起点として、左から右及び下から上の順序で並べられる。つまり特徴量は、0度の場合と同様の値“ABCDEFGHI”となる。
図11(d)は270度の場合を示す。この場合、特徴量は、矩形画像の右上の領域を起点として、上から下及び右から左の順序で並べられる。つまり特徴量は、0度の場合と同様の値“ABCDEFGHI”となる。
したがって、矩形画像の特徴量は、角度に関係なく同一の値となる。
矩形画像を9個の領域に分割する場合、分割に用いる軸は複数存在することとなるが、このうちの1つの軸を用いることで、特徴量の値の並びが特定される。例えば、0度の場合において水平方向右向きの軸(例えば、軸B104a)を用いると、当該角度に対する矩形画像における特徴量の値の並びが特定される。この軸が回転角度に応じて回転すると、回転後の軸(軸B104b、B104c、B104d)を用いて当該回転角度に対する矩形画像における特徴量の値の並びが特定される。
(2−3−2)評価値算出部14
評価値算出部14は、特徴量と、後述する学習パラメータから、ウィンドウに対する評価値を算出する。ここで、学習パラメータとは、ウィンドウに対する評価値の算出に用いるために、特徴量毎に対応付けられ、且つ事前に多数のサンプル画像からの学習により得られた、特徴量に対する重み付け値である。
評価値算出部14は、後述するROMアドレス算出部8から、セレクタ回路にて選択された矩形画像に対応付けられた学習パラメータを受け取る。
評価値算出部14は、1ウィンドウから選択された全ての矩形画像それぞれに対応する学習パラメータを受け取ると、それらの累算値を算出し、算出結果を評価値とする。
評価値算出部14は、算出した評価値を判定部15へ出力する。
(2−3−3)判定部15
判定部15は、1ウィンドウ分の評価値を元にウィンドウに顔が含まれるか否かの判定を行う。
顔が含まれるか否かの判定方法として、具体的には、判定部15は、前記評価値と、判定部15内に予め保持する閾値との大小比較を行う。
判定部15は、前記評価値が閾値以上である場合には顔である、つまりウィンドウ内に顔が含まれる判定し、評価値が閾値より小さい場合には非顔である、つまりウィンドウ内に顔が含まれないと判定する。判定結果は、識別部7より外部へ出力される。
なお、評価値の算出方法、及び顔と非顔の判定方法は一例であり、限定されるものでない。
(2−4)ROM9
ROM9は、評価値算出部14において評価値を算出際に用いられる学習パラメータを保持する学習パラメータ保持手段である。
ROM9にて格納される学習パラメータのメモリマップT20、T21の例を図12及び図13に示す。
メモリマップT20には、セレクタテーブル内の図矩形情報A欄にて示される1つ以上の矩形画像それぞれに対して、当該矩形画像が取り得る特徴量毎に学習パラメータが格納されている。
メモリマップT21には、セレクタテーブル内の図矩形情報B欄にて示される1つ以上の矩形画像それぞれに対して、当該矩形画像が取り得る特徴量毎に学習パラメータが格納されている。
例えば、図12におけるオフセットアドレス“offset An”以降の4つの学習パラメータは、図4にて示す矩形画像B1が取り得る特徴量に対する学習パラメータであり、図12におけるオフセットアドレス“offset Am”以降の4つの学習パラメータは、図4にて示す矩形画像B3が取り得る特徴量に対する学習パラメータである。また、図13におけるオフセットアドレス“offset Bn”以降の4つの学習パラメータは、図4にて示す矩形画像B2が取り得る特徴量に対する学習パラメータである。
なお、矩形画像の対応する学習パラメータの特定方法については、後述する。
(2−5)ROMアドレス算出部8
ROMアドレス算出部8は、図1にて示すように、アドレス変換テーブル記憶部16とアドレス生成部17とから構成され、識別部7から出力される特徴量からROM9の参照アドレスを算出する学習パラメータ参照先算出手段である。
(2−5−1)アドレス変換テーブル記憶部16
アドレス変換テーブル記憶部16は、ROM9の参照アドレス変換の変換情報からなるアドレス変換テーブルを保持している。
アドレス変換テーブル記憶部16は、図4(a)から(d)にて示すテンプレート枠それぞれに対して、当該テンプレート枠に基づき選択された各矩形画像が参照すべき学習パラメータのROM9上の格納位置のオフセットアドレスを示すアドレス変換テーブルT31a、T31b、T31c、T31dを格納している。アドレス変換テーブルT31a、T31b、T31c、T31dの一例を、図14(a)、(b)及び図15(a)、(b)に示す。アドレス変換テーブルT31aは、図4(a)にて示される各矩形画像が参照すべきROM9上のオフセットアドレスを示し、アドレス変換テーブルT31bは、図4(b)にて示される各矩形画像が参照すべきROM9上のオフセットアドレスを示す。また、アドレス変換テーブルT31cは、図4(c)にて示される各矩形画像が参照すべきROM9上のオフセットアドレスを示し、アドレス変換テーブルT31dは、図4(d)にて示される各矩形画像が参照すべきROM9上のオフセットアドレスを示す。つまり、アドレス変換テーブルT31a、T31b、T31c、T31dのそれぞれは、セレクタテーブルT11a、T11b、T11c、T11dに対応している。
アドレス変換テーブルT31aからT31dは、ウィンドウのライン番号と、矩形情報Aに対する出力(オフセット)と、矩形情報Bに対する出力(オフセット)とからなる組を1つ以上含む記憶領域を有している。
ウィンドウのライン番号は、ウィンドウのライン番号を示す値である。
矩形情報Aに対する出力(オフセット)は、ウィンドウのライン番号にて示される値を開始位置のY座標とし、対応するセレクタテーブルの矩形情報Aにて特定される矩形画像が参照すべきオフセットを示す。
矩形情報Bに対する出力(オフセット)は、ウィンドウのライン番号にて示される値を当該値を開始位置のY座標とし、対応するセレクタテーブルの矩形情報Bにて特定される矩形画像が参照すべきオフセットを示す。
各アドレス変換テーブルT31a、T31b、T31c、T31dそれぞれは、後述するアドレス生成部17による利用が可能であるか否かを示すアドレス変換テーブル利用フラグと対応付けられている。アドレス変換テーブル利用フラグの値が0である場合には利用不可を示し、値が1である場合には利用可能であること示す。ここでは、4つのアドレス変換テーブルT31a、T31b、T31c、T31dのうち1つのアドレス変換テーブルのアドレス変換テーブル利用フラグに値“1”が設定され、残りのアドレス変換テーブルに対応付けられたアドレス変換テーブル利用フラグに値“0”が設定される。つまり、アドレス生成部17は、常に1つのアドレス変換テーブルを参照することとなる。
(2−5−2)アドレス生成部17
アドレス生成部17は、利用可能なアドレス変換テーブルに従って識別部7が出力する特徴量から学習パラメータの参照アドレス(ROMアドレス)を生成(算出)する。
アドレス生成部17は、特徴量算出部13から特徴量を受け取ると、利用可能なアドレス変換テーブルと、以下に示す数式1とを用いて、ROM9のアクセス先を示すROMアドレスを算出する。
(数式1) ROMアドレス = Table(ウィンドウのライン番号) + 特徴量
数式1におけるTable(ウィンドウのライン番号)は、利用可能なアドレス変換テーブルから引かれるオフセットアドレスである。また、特徴量は、識別部7より入力される特徴量であり、前記明るさ及び暗さ情報を並べたものである。
なお、オフセットアドレスが引かれるテーブルの入力をウィンドウのライン番号としているのは一例であり、限定されるものではない。例えば、予め学習で決定した矩形画像の順番でも良い。
アドレス生成部17は、算出したROMアドレスに基づいてROM9にアクセスを行い、処理中の矩形画像から算出された特徴量に対応した学習パラメータを得る。得られた学習パラメータは、識別部7の評価値算出部14に出力される。
例えば、図4にて示す矩形画像B1の特徴が、図23(b)の矩形画像の特徴と同一である場合、つまり特徴量が“01”である場合について考える。この場合、矩形画像B1は、図6に示すセレクタテーブルT11aの矩形情報Aにて特定されるので、先ず、アドレス生成部17は、アドレス変換テーブルT31aのウィンドウのライン番号y_bによりオフセットアドレス“offset An”を取得する。また、矩形画像B1の特徴量は“01”であるので、アドレス生成部17は数式1と取得したオフセットアドレス“offset An”とを用いてROMアドレス“offset Am+1”を算出する。矩形画像B1に対応する学習パラメータは、算出されたROMアドレス“offset An+1”にて示されるアドレスに格納されていることとなる。アドレス生成部17は、算出したROMアドレス“offset An+1”に基づいて、矩形画像B1に対応する学習パラメータを取得し、取得した学習パラメータを識別部7の評価値算出部14へ出力する。
(3)角度設定部10
角度設定部10は、識別部7にて識別する対象物体を切り替える。具体的には、角度設定部10は、セレクタ回路11a及び11bが利用するセレクタテーブルと、アドレス生成部17が利用するアドレス変換テーブルとを切り替えることにより、識別する対象物体を切り替える。
角度設定部10は、検出する顔の基準角度(0度)及び回転角度(90度、上下反転、270度)の何れかの角度を示す、つまり利用可能なセレクタテーブル及びアドレス変換テーブルを示す角度設定信号を、顔検出部5の矩形画像切出部6及びROMアドレス算出部8へ出力する。
図16(a)から(d)に角度設定部10で設定される角度と、検出する顔の角度範囲を示す。ここで角度とは、入力画像に対する垂線から反時計周りの角度を指す。図16(a)が角度0度(基準角度)の場合である。顔検出部5は、正立した状態から±α度(例えば、±45度)の範囲の顔検出を行う。同様に、図16(b)は角度90度(回転角度90度)の場合、図16(c)は角度180度(回転角度が上下反転)の場合、図16(d)は角度270度(回転角度270度)の場合それぞれを示し、顔検出の角度範囲も図16(a)同様である。
なお、顔検出の基準角度である0度及び回転角度90度、上下反転、270度は一例であり、角度および種類いずれも限定されるものではない。また、顔検出の角度範囲を示すαは、45度であれば360度の全回転方向の顔検出が可能であるが、45度に限定されるものではない。
角度設定信号は、矩形画像切出部6、およびROMアドレス算出部8に入力される。角度設定信号が示す角度に応じて、各セレクタテーブルのうち1のセレクタテーブルが利用可能となる。また、利用可能となるセレクタテーブルに対応する1のアドレス変換テーブルも利用可能となる。具体的には、角度設定信号が示す角度に応じて、利用すべきセレクタテーブルに対応するセレクタテーブル利用フラグ、及び当該セレクタテーブルに対応するアドレス変換テーブルに対応するアドレス変換テーブル利用フラグそれぞれに値“1”を設定し、他のセレクタテーブルそれぞれに対応するセレクタテーブル利用フラグに値“0”を、他のアドレス変換テーブルそれぞれに対応するアドレス変換テーブル利用フラグに値“0”を設定する。例えば、角度設定信号が示す角度が基準角度0度である場合には、セレクタテーブルT11aに対応するセレクタテーブル利用フラグに値“1”を設定し、他のセレクタテーブルそれぞれに対応するセレクタテーブル利用フラグに値“0”を設定する。さらに、セレクタテーブルT11aに対応するアドレス変換テーブルT31aに対応するアドレス変換テーブル利用フラグに値“1”を設定し、他のアドレス変換テーブルそれぞれに対応するアドレス変換テーブル利用フラグに値“0”を設定する。これにより、セレクタ回路11a、1b及びアドレス生成部17は、基準角度0度である場合において利用すべきセレクタテーブルT11a、及び当該セレクタテーブルT11aに対応するアドレス変換テーブルT31aを特定することができる。
セレクタテーブル及びアドレス変換テーブルは、矩形画像の切り出し位置が設定される角度に応じて回転された位置に変わるため、利用できる各テーブルを切り替える必要があるが、具体例にて示すように、対応するフラグの値を変更することで利用できるテーブルの切り替えを実現することができる。
角度設定部10は、処理制御部19から角度の変更を指示する変更情報を受け取る。ここで、変更情報は、変更後の角度を示す情報を含んでいる。
角度設定部10は、受け取った変更情報に含まれる角度を示す角度設定信号を矩形画像切出部6及びROMアドレス算出部8へ出力して、角度に応じて、各セレクタテーブルのうち1のセレクタテーブルを、各アドレス変換テーブルのうち1のアドレス変換テーブルをそれぞれ利用可能とする。
例えば、変更情報に角度0度(基準角度0度)を示す情報が含まれている場合には、角度設定部10は、基準角度0度を示す角度設定信号により、セレクタテーブルT11a及びアドレス変換テーブルT31aに対応する第1及びアドレス変換テーブル利用フラグに値“1”を設定し、他のセレクタテーブル及びアドレス変換テーブルそれぞれに対応する第1及びアドレス変換テーブル利用フラグそれぞれに値“0”を設定する。
(4)その他
ここでは、角度設定部10が処理制御部19から出力される変更情報を受け取るタイミングについて説明する。
処理制御部19は、画像処理装置1にて顔検出の処理が行われるとき、顔が検出されるまで、若しくは全ての角度(0度、90度、上下反転、270度)に対して顔検出処理が行われるまで、セレクタセーブル及びアドレス変換テーブルが切り替わるよう変更情報を角度設定部10へ出力する。例えば、顔検出の処理の開始時には、処理制御部19は、基準角度0度を示す変更情報を角度設定部10へ出力する。識別部7による判定結果により顔が含まれていないとすると、処理制御部19は、回転角度90度を示す角度設定信号を角度設定部10へ出力する。判定結果により顔が含まれるとすると、処理制御部19は、角度設定部10への角度設定信号の出力を抑止する。つまり、処理制御部19は、判定結果により顔が含まれるとするまで、角度が0度、90度、上下反転、270度であるの順にセレクタセーブル及びアドレス変換テーブルが切り替わるよう変更情報を角度設定部10へ出力する。なお、全ての角度に対して顔が検出されない場合には、処理制御部19は、検出対象のウィンドウに対しての顔検出の処理を抑止する。
なお、上記の一例では、検出開始時には角度0度を用いて、1のウィンドウにおいて顔が検出されるまで90度、上下反転、270度の順に角度設定の切り替えを行ったが、これに限定されない。検出開始時の角度は、0度、90度、上下反転、270度の何れかであればよい。また、角度設定の切替順序については、利用が許可されていないテーブルに対する角度をランダムに選択するものであってもよい。
1.2 画像処理装置1の動作
ここでは、画像処理装置1の動作、特に、識別する対象物体の切り替えに係る切替処理及び顔検出に係る顔検出処理について、以下に説明する。
(1)切替処理
ここでは、切替処理の動作について、図17に示す流れ図を用いて説明する。
角度設定部10は、外部から切替情報を受け取る(ステップS5)。
角度設定部10は切替情報に含まれる角度が0度である場合(ステップS10における「0度」)、角度設定部10は、角度0度を示す角度設定信号により、セレクタテーブルT11aのみを有効、他のセレクタテーブルを無効にする(ステップS15)。具体的には、角度設定部10は、角度0度を示す角度設定信号により、セレクタテーブルT11aに対応するセレクタテーブル利用フラグに値“1”を設定し、他のセレクタテーブルそれぞれに対応するセレクタテーブル利用フラグに値“0”を設定する。さらに、角度設定部10は、角度0度を示す角度設定信号により、アドレス変換テーブルT31aのみを有効、他のアドレス変換テーブルを無効にする(ステップS20)。具体的には、角度設定部10は、角度0度を示す角度設定信号により、アドレス変換テーブルT31aに対応するアドレス変換テーブル利用フラグに値“1”を設定し、他のアドレス変換テーブルそれぞれに対応するアドレス変換テーブル利用フラグに値“0”を設定する。
角度設定部10は切替情報に含まれる角度が90度である場合(ステップS10における「90度」)、角度設定部10は、角度90度を示す角度設定信号により、セレクタテーブルT11bのみを有効、他のセレクタテーブルを無効にする(ステップS25)。具体的には、角度設定部10は、角度90度を示す角度設定信号により、セレクタテーブルT11bに対応するセレクタテーブル利用フラグに値“1”を設定し、他のセレクタテーブルそれぞれに対応するセレクタテーブル利用フラグに値“0”を設定する。さらに、角度設定部10は、角度90度を示す角度設定信号により、アドレス変換テーブルT31bのみを有効、他のアドレス変換テーブルを無効にする(ステップS30)。具体的には、角度設定部10は、角度90度を示す角度設定信号により、アドレス変換テーブルT31bに対応するアドレス変換テーブル利用フラグに値“1”を設定し、他のアドレス変換テーブルそれぞれに対応するアドレス変換テーブル利用フラグに値“0“を設定する。
角度設定部10は切替情報に含まれる角度が上下反転(180度)である場合(ステップS10における「上下反転」)、角度設定部10は、角度として上下反転を示す角度設定信号により、セレクタテーブルT11cのみを有効、他のセレクタテーブルを無効にする(ステップS35)。具体的には、角度設定部10は、角度として上下反転を示す角度設定信号により、セレクタテーブルT11cに対応するセレクタテーブル利用フラグに値“1”を設定し、他のセレクタテーブルそれぞれに対応するセレクタテーブル利用フラグに値“0”を設定する。さらに、角度設定部10は、角度として上下反転を示す角度設定信号により、アドレス変換テーブルT31cのみを有効、他のアドレス変換テーブルを無効にする(ステップS40)。具体的には、角度設定部10は、角度として上下反転を示す角度設定信号により、アドレス変換テーブルT31cに対応するアドレス変換テーブル利用フラグに値“1”を設定し、他のアドレス変換テーブルそれぞれに対応するアドレス変換テーブル利用フラグに値“0”を設定する。
角度設定部10は切替情報に含まれる角度が270度である場合(ステップS10における「270度」)、角度設定部10は、角度270度を示す角度設定信号により、セレクタテーブルT11dのみを有効、他のセレクタテーブルを無効にする(ステップS45)。具体的には、角度設定部10は、角度270度を示す角度設定信号により、セレクタテーブルT11dに対応するセレクタテーブル利用フラグに値“1”を設定し、他のセレクタテーブルそれぞれに対応するセレクタテーブル利用フラグに値“0”を設定する。さらに、角度設定部10は、角度270度を示す角度設定信号により、アドレス変換テーブルT31dのみを有効、他のアドレス変換テーブルを無効にする(ステップS50)。具体的には、角度設定部10は、角度270度を示す角度設定信号により、アドレス変換テーブルT31dに対応するアドレス変換テーブル利用フラグに値“1”を設定し、他のアドレス変換テーブルそれぞれに対応するアドレス変換テーブル利用フラグに値“0”を設定する。
(2)顔検出処理の動作
ここでは、顔検出処理の動作について、図18にて示す流れ図を用いて説明する。
セレクタ回路11a、11bは、有効なセレクタテーブル、つまり対応するセレクタテーブル利用フラグの値が1であるセレクタテーブルを用いて、1つのウィンドウに対して、ウィンドウのライン毎に存在する1つ以上の矩形画像を切り出す(ステップS100)。
特徴量算出部13は、セレクタ回路11a、11bが切り出した1つ以上の矩形画像それぞれに対する特徴量を算出する(ステップS105)。
アドレス生成部17は、セレクタ回路11a、11bが切り出した1つ以上の矩形画像それぞれに対して、特徴量算出部13にて算出された当該矩形画像の特徴量と、有効なアドレス変換テーブル(つまり、対応するアドレス変換テーブル利用フラグの値が1であるアドレス変換テーブル)とを用いて、参照すべき学習パラメータのROMアドレス(参照アドレス)を算出し(ステップS110)、算出したROMアドレスに基づいて、当該矩形画像に対する学習パラメータを取得する(ステップS115)。
評価値算出部14は、セレクタ回路11a、11bが切り出した1つ以上の矩形画像それぞれに対して取得された学習パラメータを用いて、ウィンドウに対する評価値を算出する(ステップS120)。
判定部15は、算出された評価値を用いて、当該ウィンドウに顔が含まれているか否かを判断し(ステップS125)、その結果を外部に出力する(ステップS130)。
1.3 変形例
なお、本発明を上記第1の実施の形態に基づいて説明してきたが、本発明は、上記第1の実施の形態に限定されないのは、もちろんである。以下のような場合も本発明に含まれる。
(1)上記第1の実施の形態において、シフトレジスタの段数、矩形画像のサイズなどの形状は一例であり、限定するものではない。
シフトレジスタの段数は、選択すべき(切り出すべき)矩形画像の最大の縦のサイズと同数以上であればよい。
また、矩形画像に対して、縦の画素数と横の画素数が同一でなくてもよい。
また、矩形画像の形状は、複数種類あってもよい。この場合、図6から9にて示すセレクタテーブルの矩形情報A及び矩形情報Bのそれぞれの欄に矩形画像の形状情報(例えば、矩形画像のサイズを示す情報)が加わり、セレクタ回路11a及び11bそれぞれに対して列セレクタ回路22に加えて矩形画像の形状を選択する形状セレクタが加わり、当該形状セレクタが形状情報が示す形状からなる選択すべき矩形画像を選択する。
また、選択すべき画像の形状は、矩形に限定されない。例えば、選択すべき形状は円、楕円であってもよい。選択すべき円の大きさが固定されている場合には、開始位置として、選択すべき円の中心を示す座標を与える。選択すべき円の大きさが可変である場合には、さらには、形状情報として選択すべき円の半径を与える。
(2)上記第1の実施の形態において、セレクタ回路は、1ラインあたり1つの矩形画像のみ選択する(切り出す)としたが、これに限定されない。
1つのセレクタ回路で、1ラインあたり複数の矩形画像を選択(切り出し)してもよい。
(3)上記第1の実施の形態において、セレクタ回路11a及び11bは、共通のセレクタテーブルを参照して、矩形画像の選択(切り出し)を行ったが、これに限定されない。
各セレクタ回路に対して、セレクタテーブルを個別に対応付けてもよい。
例えば、セレクタ回路11aには、図6から9にて示すウィンドウのライン番号と、矩形情報Aとからなる各セレクタテーブルを対応付ける。そして、セレクタ回路11bには、ウィンドウのライン番号と、矩形情報Bとからなる各セレクタテーブルを対応付ける。
(4)上記第1の実施の形態において、画像処理装置1は、矩形画像の選択後に特徴量を求めているが、これに限定されない。図19に示すように、画像処理装置1aは、全画素位置に対応する矩形画像の特徴量をあらかじめ算出し、その結果を選択しても良い。矩形画像の数が多い場合、予め算出することで特徴量の算出結果を共有することが出来るため、全体の演算量を減らすことが出来る場合がある。
(5)上記第1の実施の形態において、画像処理装置1は、物体検出の一例として顔検出処理を行うものを示しているが、限定されるものではない。
検出対象として、動物の顔、人物の上半身や全身のように、検出対象の物体として識別できる特徴部分を有しているものであればよい。
(6)上記第1の実施の形態において、各セレクタテーブル及び各アドレス変換テーブルの有効、無効の識別をフラグを用いて行ったが、これに限定されない。
テーブルの有効、無効が識別できれば、どのような実現方法であってもよい。例えば、セレクタテーブル記憶部12には、参照可能領域と参照不可領域とが存在し、4つのセレクタテーブルは参照不可領域に格納されている。角度設定部10が有効なセレクタテーブルのみを参照可能領域にコピーすることにより、参照可能領域に保持されているセレクタテーブルのみが利用される。アドレス変換テーブル記憶部においても参照可能領域と、参照不可領域を持つことで実現してもよい。つまり、有効なセレクタテーブル及びアドレス変換テーブルそれぞれを、セレクタテーブル記憶部及びアドレス変換テーブル記憶部それぞれの参照可能領域に格納し、他のセレクタテーブル及び他のアドレス変換テーブルそれぞれを、セレクタテーブル記憶部及びアドレス変換テーブル記憶部それぞれの参照不可領域に格納する。ここで、参照可能領域とは外部(ここでは、セレクタ回路11a、11bやアドレス生成部17)からのアクセスが許可された領域であり、参照不可領域とはアクセスが許可されていない領域である。
または、各セレクタテーブル及び各アドレス変換テーブルに対してアクセスの可否を示すアクセス権が対応付けてもよい。この場合、角度設定部10は、利用可とすべきセレクタテーブル及びアドレス変換テーブルに対してのみアクセスを許可、利用不可とすべき残りのセレクタテーブル及びアドレス変換テーブルに対してはアクセスを不許可とするよう、アクセス権の設定を行う。
(7)上記第1の実施の形態において、角度は、基準角度0度と、基準角度に対して左回りの回転角度90度、270度、及び上下反転としたが、これに限定されない。
回転角度は、基準角度に対して右回りに0度、90度、270度、及び上下反転としてもよい。
または、上下反転の代わりに、180度としてもよい。この場合の180度回転後の矩形画像の開始位置、例えば、図5(a)にて示す矩形画像B4aの開始位置(x、y)が(24−x−w、24−y−h)に変更される。セレクタテーブルT11c及びアドレス変換テーブルT31cそれぞれを、角度0度の開始位置(x、y)と180度回転後の開始位置(24−x−w、24−y−h)との関係に基づいて、変更することで実現できる。例えば、矩形画像B1は、角度180度の場合には、開始位置の座標は(24−x_b−4、24−y_b−4)となる。
(8)上記第1の実施の形態において、処理制御部19は、画像処理装置1の外部に存在するとしたが、これに限定されない。
処理制御部19は、画像処理装置1の内部に存在してもよい。
(9)上記第1の実施の形態において、セレクタテーブル記憶部とアドレス変換テーブル記憶部とを個別の構成し、それぞれにセレクタテーブル11a〜11dとアドレス変換テーブル31a〜31dとを格納したが、これに限定されない。
記憶部を1つとして、セレクタテーブル11a〜11dとアドレス変換テーブル31a〜31dとを同一の記憶部に格納してもよい。
また、セレクタテーブルと対応するアドレス変換テーブルとを1つの管理テーブルで管理してもよい。この場合、例えば、管理テーブルは、ウィンドウのライン番号、矩形情報A、矩形情報Bとからなる組を1つ以上格納する領域を有している。ウィンドウのライン番号は、ウィンドウのライン番号を示す値である。矩形情報A及び矩形情報Bは、矩形画像の有無を示す情報と、矩形画像のX座標と、出力(オフセットアドレス)とから構成されている。矩形画像の有無を示す情報と、矩形画像のX座標と、出力(オフセットアドレス)とについては、上述しているので、ここでの説明は省略する。
(10)上記第1の実施の形態では、1のウィンドウに対して、顔が検出されるまでの間、角度設定の変更を行ったが、これに限定されない。
撮影された画像データ(入力画像)に対して1の角度を用いて顔検出を行い、顔が検出されない場合には、他の角度にて前記入力画像に対して顔検出を行ってもよい。
(11)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
2.第2の実施の形態
図20を用いて、本発明の第2の実施の形態について説明する。
半導体集積回路70は、一般的にはCMOSなどのMOSトランジスタで構成され、MOSトランジスタの接続構成により、特定の論理回路を実現する。近年、半導体集積回路の集積度が進み、非常に複雑な論理回路(例えば、本発明における画像処理装置)を、一つないしは数個の半導体集積回路で実現できる。
半導体集積回路70は、第1の実施の形態で説明した画像処理装置1、画像符号化回路71、音声処理部72、ROM73、動き検出回路75、プロセッサ76、制御バス77、解像度変換回路78、カメラ入力回路79、LCD(液晶ディスプレイ:Liquid Crystal Display)出力回路81、内部バス83を備えている。各構成要素は、内部バス83を介して接続され、データの入出力を行う。
ここでは、画像処理装置1は、画像メモリ74から内部バス83を介して、入力画像を取得する。
カメラ入力回路79は、カメラ80からの動画像を入力として受け取り、受け取った動画像をデジタルデータ化する処理を行う。
動き検出回路75は、デジタルデータ化された動画像に対して、動き補償に係る処理を行う。
画像符号化回路71は、デジタルデータ化された動画像に対して動き補償に係る処理が施された後、画像メモリ74に格納するために、画像の符号化に係る処理を行う。また、画像符号化回路71は、画像メモリ74から符号化された画像データを読み出し、読み出した符号化された画像データの復元を行う。画像処理装置1は、この復元された画像データを取得することとなる。
音声処理部72は、カメラ80から入力された音声を音声データへと変換する処理を行う。
ROM73は、処理すべきデータを格納する領域を有する。例えば、音声処理部72にて処理が施された音声データを格納する。
解像度変換回路78は、画像処理装置1で処理される画像データの解像度を変換する処理を行う。
LCD出力回路81は、LCD(液晶ディスプレイ)82へ表示すべき画像データを出力する。また、顔が検出された領域に対しては、当該領域を囲む枠を、LCD82に表示させる。
プロセッサ76は、半導体集積回路70の全体の動作に係る処理の制御を行う。
プロセッサ76は、上記第1の実施の形態にて示す処理制御部19と同じ動作を行い、画像処理装置1にて顔が検出されるまで、若しくは全ての角度に対して顔検出処理が行われるまで、セレクタセーブル及びアドレス変換テーブルの切り替えの制御を行う。
また、プロセッサ76は、制御バス77を介して、当該制御バス77と接続された構成要素に対する動作の制御を行う。
なお、本実施の形態において、角度設定部10は、第1の実施の形態と同様に、画像処理装置1が具備しているものとしたが、これに限定されない。角度設定部10は、プロセッサ76が具備してもよい。つまり、角度設定部10が行う動作をプロセッサ76が行ってもよい。
半導体集積回路70が備える画像処理装置1は、第1の実施の形態で説明したとおり、テーブルの情報を置き換えるだけで顔が回転した画像の顔検出処理を実現している。従って、カメラ80から入力された画像に対して顔検出処理を行うことができる。
また、画像処理装置1が半導体集積回路70で実現されることで、デジタルビデオカメラや監視カメラの小型化、低消費電力化などが実現される。
3.第3の実施の形態
図21は、本発明の第3の実施の形態を説明するブロック図である。
撮像装置100は、半導体集積回路170と、レンズ89と、絞り機構88と、センサ87と、A/D変換回路86と、角度センサ90とから構成される。
レンズ89は、被写体を結像するためのものであり、具体的は、ズーム機能を実現するためのズームレンズと、被写体に合焦させるためのフォーカスレンズとからなる。
絞り88は、メカニカルシャッタ、被写体の明るさを調整するための絞りや、フィルタ等からなり、シャッターや絞りなどを行う。
センサ87は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などからなり、レンズ89により結像された被写体像を電気信号に変換して、アナログの画像データを生成し、A/D変換回路86へ出力する。
A/D変換回路86は、センサ87からのアナログ出力に対してゲイン調整やA/D(analogue/digital)変換を行い、画像データをデジタルデータとして出力する。
半導体集積回路170には、第2の実施の形態に記載の半導体集積回路70が具備する構成要素に加え、レンズ89を制御するズーム制御84、絞り機構88を制御する露出制御85を備える。
角度センサ90は、撮像装置100の撮影角度を検出する。検出した撮影角度をに基づき設定すべき角度を示す変更情報を角度設定部10へ出力する。
ここでは、図16(a)から(d)にて示すように、検出した撮影角度が±α度(例えば、±45度)である場合には、角度センサ90は、角度0度を示す角度設定信号を角度設定部10へ出力する。撮影角度が基準角度0度に対して45度から135度、若しくは−225度から−315度の間である場合には、角度センサ90は、角度90度を示す角度設定信号を角度設定部10へ出力する。また、撮影角度が角度0度に対して135度から225度、若しくは−135度から−225度の間である場合には、角度センサ90は、角度として上下反転を示す角度設定信号を角度設定部10へ出力する。また、撮影角度が角度0度に対して225度から315度、若しくは−45度から−135度の間である場合には、角度センサ90は、角度270度を示す角度設定信号を角度設定部10へ出力する。
なお、ここでは、角度センサ90が、角度設定信号を角度設定部10へ出力するとしたが、これに限定されない。角度センサ90は、撮像装置100の撮影角度を検出するのみであり、角度センサ90による検出結果に基づいてプロセッサ76が角度設定信号を角度設定部10へ出力するとしてもよい。
半導体集積回路170の画像処理装置1で検出した顔の位置情報を用いることで、撮像装置100は、顔の位置に合わせたズーム制御84によるフォーカス制御、露出制御85による露出制御が可能となり、顔をきれいに撮影可能な撮像装置が実現される。
なお、本実施の形態では、撮像装置100は、角度センサ90を具備し、角度センサ90による検出結果に応じて、角度設定部10が利用するセレクタセーブル及びアドレス変換テーブルを切り替えるとしたが、これに限定されない。例えば、撮像装置100は、角度センサ90を具備しなくてもよい。この場合、第2の実施の形態にて示したように、プロセッサ76が、識別部7による判定結果により顔が含まれるとするまで、角度0度、90度、上下反転、270度の順にセレクタセーブル及びアドレス変換テーブルが切り替わるよう変更情報を角度設定部10へ出力する。なお、第2の実施の形態にて述べたように、全ての角度に対して顔が検出されない場合には、プロセッサ76は、検出対象のウィンドウに対しての顔検出を抑止する。
4.その他の変形例
なお、本発明を上記第1から第3の実施の形態及び第1の実施の形態の変形例に基づいて説明してきたが、本発明は、上記各実施の形態及び変形例に限定されないのは、もちろんである。以下のような場合も本発明に含まれる。
(1)上記第1の実施の形態における処理制御部19、及び第2の実施の形態におけるプロセッサ76は、画像処理装置1にて顔検出の処理が行われるとき、顔が検出されるまで、若しくは全ての角度に対して顔検出処理が行われるまで、セレクタセーブル及びアドレス変換テーブルが切り替わるよう変更情報を角度設定部10へ出力するとしたが、これに限定されない。以降、当該動作を第1の動作という。
第3の実施の形態にて示すように、角度センサが又は角度センサによる検出結果に応じて処理制御部19(プロセッサ76)が、セレクタセーブル及びアドレス変換テーブルが切り替わるよう変更情報を角度設定部10へ出力するとしてもよい。以降、当該動作を第2の動作という。
または、第1の動作及び第2の動作の双方とも利用したテーブルの切り替えを行ってもよい。この場合、角度センサにて検出された撮影角度に基づいて有効となったセレクタセーブル及びアドレス変換テーブルを顔検出の利用する最初のテーブルとし、顔が検出されるまで、順次セレクタセーブル及びアドレス変換テーブルが切り替わる。例えば、角度が90度のセレクタセーブル及びアドレス変換テーブルを顔検出の利用する最初のテーブルとした場合、顔が検出されるまで、角度が上下反転、270度、角度0度に対応するセレクタセーブル及びアドレス変換テーブルへと順次切り替わる。
また、第3の実施の形態においても、第1の動作及び第2の動作の双方とも利用したテーブルの切り替えを行ってもよい。
(2)本発明は、ソフトウェアにて実現してもよい。
(3)上記の画像処理装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
(4)上記の画像処理装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
また、上記の各装置を構成する構成要素の各部は、個別に1チップ化されていても良いし、一部又は全てを含むように1チップ化されてもよい。
また、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
(5)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記コンピュータプログラムまたは前記デジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい
(6)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
5.まとめ
(1)本発明の一態様である画像処理装置は、画像を入力する画像入力手段と、前記画像入力手段から入力された画像から矩形画像を切り出す矩形画像切り出し手段と、前記矩形画像切り出し手段で切り出した複数の矩形画像からそれぞれ特徴量を算出し、その特徴量から評価値を算出し、算出した評価値をもとに対象物体であるか否かを識別する識別手段と、前記識別手段において前記矩形画像の評価値の算出に用いる学習パラメータを保持する学習パラメータ保持手段と、前記矩形画像の評価値算出に必要な前記学習パラメータの参照先を示す学習パラメータ参照先算出手段と、設定される回転角度によって、前記矩形画像切り出し手段で切り出される矩形画像の切り出し位置、および前記学習パラメータ参照先算出手段が示す前記学習パラメータの参照先を変更することで、前記矩形画像の切り出し位置を切り替える切り替え手段とを備えることを特徴とする。
この構成によると、画像処理装置は、入力画像の回転角度ごとに前記矩形画像と前記学習パラメータの関係を設定できるため、回転画像に対する顔検出処理を検出処理速度の低下を招くことなく実現することが出来る。
また、当該画像処理装置によれば、複数の特徴量を用いた顔検出方法においても、回転画像に対する顔検出速度が低下することなく顔検出処理を行うことが可能となる。
(2)ここで、前記矩形画像切り出し手段は、画素データの切り出し位置の情報を保持するセレクタテーブルと、前記セレクタテーブルに従って前記画像入力手段から画素データを選択するセレクタ手段を備え、前記セレクタテーブルの情報を変更することで、前記矩形画像の切り出し位置が変わるとしてもよい。
(3)ここで、前記セレクタテーブルは、前記切り替え手段により前記セレクタテーブルに保持する画素データの切り出し位置の情報を切り替えるとしてもよい。
(4)ここで、前記学習パラメータ参照先算出手段は、前記矩形画像の評価値算出に必要な前記学習パラメータの参照先情報を保持する学習パラメータ参照テーブルを備え、前記学習パラメータ参照テーブルの情報を変更することで、前記矩形画像の評価値算出に必要な前記学習パラメータの参照先情報が変わるとしてもよい。
(5)ここで、前記学習パラメータ参照テーブルは、前記切り替え手段により前記矩形画像の評価値算出に必要な前記学習パラメータの参照先情報が切り替わるとしてもよい。
(6)ここで、前記切り替え手段は、前記画像入力手段から入力された画像から対象物体を識別処理する際の識別する対象物体の角度で定められるとしてもよい。
(7)ここで、前記切り替え手段により切り替わる前記矩形画像の切り出し位置は、0度の切り出し位置を基準に前記切り替え手段により設定される角度情報の角度回転した位置に相当するとしてもよい。
(8)ここで、前記切り替え手段は、90度、180度、または270度が設定されるとしてもよい。
(9)ここで、前記学習パラメータ保持手段は、ROMであるとしてもよい。
(10)ここで、前記学習パラメータの参照先情報は、前記ROMのアドレスであるとしてもよい。
(11)また、本発明の一態様である画像処理方法は、画像を入力する画像入力ステップと、前記画像入力ステップから入力された画像から矩形画像を切り出す矩形画像切り出しステップと、前記矩形画像切り出しステップで切り出した複数の矩形画像からそれぞれ特徴量を算出し、その特徴量から評価値を算出し、算出した評価値をもとに対象物体であるか否かを識別する識別ステップと、前記識別ステップにおいて前記矩形画像の評価値の算出に用いる学習パラメータを保持する学習パラメータ保持ステップと、前記矩形画像の評価値算出に必要な前記学習パラメータの参照先を示す学習パラメータ参照先算出ステップと、前記矩形画像切り出しステップで切り出される矩形画像の切り出し位置、および前記学習パラメータ参照先算出ステップが示す前記学習パラメータの参照先を変更することで、前記識別ステップで識別する対象物体を切り替える切り替えステップを備えることを特徴とする。
(12)また、本発明の一態様である半導体集積回路は、画像を入力する画像入力手段と、前記画像入力手段から入力された画像から矩形画像を切り出す矩形画像切り出し手段と、前記矩形画像切り出し手段で切り出した複数の矩形画像からそれぞれ特徴量を算出し、その特徴量から評価値を算出し、算出した評価値をもとに対象物体であるか否かを識別する識別手段と、前記識別手段において前記矩形画像の評価値の算出に用いる学習パラメータを保持する学習パラメータ保持手段と、前記矩形画像の評価値算出に必要な前記学習パラメータの参照先を示す学習パラメータ参照先算出手段と、前記矩形画像切り出し手段で切り出される矩形画像の切り出し位置、および前記学習パラメータ参照先算出手段が示す前記学習パラメータの参照先を変更することで、前記識別手段で識別する対象物体を切り替える切り替え手段を備えることを特徴とする。
(13)また、本発明の一態様である撮像装置は、画像を入力する画像入力手段と、 前記画像入力手段から入力された画像から矩形画像を切り出す矩形画像切り出し手段と、前記矩形画像切り出し手段で切り出した複数の矩形画像からそれぞれ特徴量を算出し、その特徴量から評価値を算出し、算出した評価値をもとに対象物体であるか否かを識別する識別手段と、前記識別手段において前記矩形画像の評価値の算出に用いる学習パラメータを保持する学習パラメータ保持手段と、前記矩形画像の評価値算出に必要な前記学習パラメータの参照先を示す学習パラメータ参照先算出手段と、前記矩形画像切り出し手段で切り出される矩形画像の切り出し位置、および前記学習パラメータ参照先算出手段が示す前記学習パラメータの参照先を変更することで、前記識別手段で識別する対象物体を切り替える切り替え手段を備えることを特徴とする。
(14)本発明によると、選択すべき矩形画像の位置と、テンプレート枠にて示される矩形領域との関係を可変にしているので、回転画像でも通常の状態と同様の画像メモリのアクセスに対応している。これにより、例えば、図25(a)から(b)へと画像が回転する場合、矩形領域R_B1のマッチング処理を行う位置で同時にマッチング処理を行う矩形領域が、矩形領域R_A1から矩形領域R_A2に変更することができる。さらに言うと、矩形領域R_B1をアクセスする位置で同時にアクセスする矩形領域が、矩形領域R_A1から矩形領域R_A2へと変更することができる。
これにより、回転画像に対する従来の顔検出処理よりも、当該発明は画像メモリのアクセス効率を高めることができる。
(15)通常、画像を格納する画像メモリは容量が大きいため、一般的にSRAMで構成される。SRAMはワード単位のアクセスはアクセス効率が高く、ビット単位のアクセスはアクセス効率が低いという特徴がある。1ワード分のデータは1回のアクセスで取得できるのに対して、1列分のデータの取得には複数回のアクセスが必要なためである。そのため、SRAMで構成された画像メモリは、SRAM同様のアクセス効率に関する特徴を持つ。
顔検出処理は処理量が大きなため、予め決められた時間(例えば1秒当たり30フレーム処理が必要な時は33ms)内で処理を終わらせるには、顔検出手段内のマッチング処理を並列に実行することが考えられる。図25(a)及び(b)に被検出対象画像の画像メモリへの格納状態を示す。(a)が通常の画像の場合であり、(b)が回転画像の場合である。R_A1は右目の特徴量を算出するための矩形領域であり、R_B1は左目の特徴量を算出するための矩形領域である。そして、上下方向がワード方向であり、左右方向がビット方向を示しており、例えば、図25(a)の矩形領域R_A1の画素データと矩形領域R_B1の画素データはアドレス(a1)にアクセスすることで同時に取得可能である。そのため、矩形領域R_A1および矩形領域R_B1は並列にマッチング処理が実行可能である。しかし、回転画像の場合(図25(b))、矩形領域R_A1の画素データと矩形領域R_B1の画素データは同時に取得できないため、アドレス(b1)とアドレス(b2)に逐次にアクセスして画素データを取得する必要があり、マッチング処理も逐次にしか行うことが出来ない。
そこで、上記第1の実施の形態で示すように、回転角度(0度、90度、上下反転、270度)毎に、セレクタテーブル及びアドレス変換テーブルを持つことで、セレクタ回路による1ライン分の画像を読み出した時点において選択すべき矩形画像及び当該矩形画像の評価に用いられるべきパラメータを正確に特定することができる。つまり、複数の特徴量を用いた顔検出方法の場合でも、回転画像に対する顔検出が可能となる。
(16)ここで、本発明における画像判定装置は、上記実施の形態にて示す画像処理装置1に相当する。
本発明における第1記憶手段は、上記実施の形態におけるROM9に相当する。
本発明における第2記憶手段は、上記実施の形態におけるセレクタテーブル記憶部12とアドレス変換テーブル記憶部16とからなる構成要素に相当する。
本発明における取得手段は、上記実施の形態における画像入力部2に相当する。
本発明における選択手段は、上記実施の形態における角度設定部10に相当する。
本発明における抽出処理手段は、上記実施の形態における切出処理部11と特徴量算出部13とからなる構成要素に相当する。
本発明における判定手段は、上記実施の形態における評価値算出部14、判定部15及びアドレス生成部17とからなる構成要素に相当する。
本発明における指示手段は、上記実施の形態における処理制御部19に相当する。
本発明における第1配置位置テーブル及び第2配置位置テーブルは、上記実施の形態におけるセレクタテーブルに相当する。
本発明における第1存在位置テーブル及び第2存在位置テーブルは、上記実施の形態におけるアドレス変換テーブルに相当する。
本発明にかかる画像処理装置は、顔が回転した状態の入力画像に対して顔検出処理を行うことを有しており、デジタルカメラにおける顔検出装置として有用である。また、デジタルムービー、および監視カメラ等の用途にも応用できる。
本発明は、画像処理装置、当該画像処理装置を含むデジタルビデオカメラやデジタルカメラを製造及び販売する産業において、経営的、つまり反復的かつ継続的に利用されうる。
1 画像処理装置
2 画像入力部
3 画像獲得部
4 画像メモリ
5 顔検出部
6 矩形画像切出部
7 識別部
8 ROMアドレス算出部
9 ROM
10 角度設定部
11 切出処理部
11a、11b セレクタ回路
12 セレクタテーブル記憶部
13 特徴量算出部
14 評価値算出部
15 判定部
16 アドレス変換テーブル記憶部
17 アドレス生成部
18 カウンタ
19 処理制御部

Claims (17)

  1. 被写体がその一部に、複数の要素を含む特徴部を有していることを利用して、対象画像に被写体の特徴部が存在するか否かを判定する画像判定装置であって、
    予め準備された正立状態の標本体の、被写体に対応する特徴部に関して、要素毎に、当該要素の特徴に係る要素特徴情報を記憶している第1記憶手段と、
    各要素が標準的に配された特徴部を持った標準的な被写体を想定し、当該被写体が正立状態であるときの各要素の位置を特定座標系で規定した第1位置情報と、当該被写体が正立状態から回転した場合における各要素の位置を前記特定座標系で規定した第2位置情報とを記憶している第2記憶手段と、
    対象画像を取得する取得手段と、
    第1及び第2位置情報のうちのいずれかの位置情報を選択する選択手段と、
    対象画像に対して前記特定座標系を適用すると共に、第1位置情報が選択された場合には、当該第1位置情報により特定される前記対象画像内の部分画像を取得し、取得した前記部分画像に対して前記特定座標系上の第1軸を基準とした順序で画像特徴情報を求め、第2位置情報が選択された場合には、当該第2位置情報により特定される前記対象画像内の部分画像を取得し、取得した前記部分画像に対して前記第1軸を前記回転に応じて回転させた第2軸を基準として、前記第1軸を基準とした順序と同一の順序で画像特徴情報を求める抽出処理手段と、
    取得した部分画像の前記特定座標系上の位置に相当する、第1記憶手段内の要素の要素特徴情報を特定し、特定した前記要素特徴情報と取得した前記画像特徴情報とを用いた前記要素に対する前記部分画像の評価により前記要素を含む前記対象画像内の領域における前記特徴部の存在を判定する判定手段と
    を備えることを特徴とする画像判定装置。
  2. 前記抽出処理手段は、
    前記第1軸を用いる場合、前記第1位置情報により取得された第1部分画像を第1軸の方向を基準とした位置で所定の分割を行う分割方法により複数の領域に分割し、分割した前記複数の領域のうち一の領域を基準領域と定め、前記基準領域を起点として当該第1軸の方向に基づく走査方向により前記複数の領域を順次走査して前記第1部分画像に対する画像特徴情報を求め、
    前記第2軸を用いる場合、前記第2位置情報により取得された第2部分画像を前記第2軸の方向を基準として変更された前記所定の分割方法を用いて複数の領域に分割し、当該第2軸の方向に基づく走査方向により、当該第2軸を基準として前記基準領域と相対的に同位置となる領域を起点として前記第1部分画像における走査順序と同一となるよう前記第2部分画像から分割された複数の領域を順次走査して前記第2部分画像に対する画像特徴情報を求める
    ことを特徴とする請求項1に記載の画像判定装置。
  3. 前記取得手段は、さらに、
    前記想定された標準的な被写体の特徴部を囲む枠を前記対象画像に適用して、当該枠にて形成される判定画像を前記対象画像から取得し、
    前記抽出処理手段は、
    選択された位置情報により特定される部分画像を前記判定画像から取得し、取得した前記部分画像の画像特徴情報を取得し、
    前記判定手段は、
    特定した前記要素特徴情報と取得された前記画像特徴情報とを用いた前記要素に対する前記部分画像の評価により前記判定画像における前記特徴部の存在を判定する
    ことを特徴とする請求項1に記載の画像判定装置。
  4. 前記画像判定装置は、さらに、
    前記判定手段が前記判定画像に特徴部が存在しないと判定する場合、前記選択手段に対して選択されていない他の位置情報を選択するよう指示する指示手段を備え、
    前記選択手段は、さらに、前記指示を受け付けると、選択されていない他の位置情報を選択し、
    前記抽出処理手段は、さらに、選択された他の位置情報により特定される他の部分画像を取得し、前記他の位置情報に対応する軸を基準とした順序で当該他の部分画像に対する画像特徴情報を求め、
    前記判定手段は、さらに、取得した他の部分画像の前記特定座標上の位置に相当する、第1記憶手段内の前記要素の要素特徴情報を特定し、特定した前記要素特徴情報と取得された前記他の部分画像に対する画像特徴情報とを用いた前記要素に対する前記他の部分画像の評価により前記対象画像における前記特徴部の存在を判定する
    ことを特徴とする請求項3に記載の画像判定装置。
  5. 前記抽出処理手段は、
    前記判定画像のうち1ライン分のライン画像を所定ライン数分保持する領域を有し、前記判定画像から1ライン分のライン画像を順次読み出し、読み出したライン画像を前記領域に順次格納し、ライン画像の格納数が前記所定ライン数を超える場合には、読み出しが最先のライン画像を前記領域から破棄する画像読出部と、
    前記画像読出部がライン画像を読み出して格納する度に、選択された位置情報により前記画像読出部にて保持されているライン画像内に配置が示される全ての部分画像を、前記保持されているライン画像から取得し、取得した部分画像それぞれの画像特徴情報を求める抽出部とを備え、
    前記判定手段は、
    前記抽出部にて部分画像が取得される度に、前記部分画像それぞれに対して要素特徴情報を前記第1記憶手段から特定する特定部と、
    前記判定画像内の全ての部分画像の画像特徴情報それぞれと、特定された要素特徴情報それぞれとを用いて、前記判定画像における前記特徴部の存在を判定する判定部とを備える
    ことを特徴とする請求項3に記載の画像判定装置。
  6. 前記第1位置情報は、正立状態における想定された標準的な被写体の特徴部の各要素それぞれにおける前記特定座標系にて配置位置を示す第1配置位置テーブルで表され、
    前記第2位置情報は、当該被写体が正立状態から回転した場合における当該被写体の特徴部の各要素それぞれにおける前記特定座標系にて配置位置を示す第2配置位置テーブルで表され、
    前記第2記憶手段は、さらに、
    正立状態の各要素の配置位置それぞれに対して、当該配置位置に対応する要素の要素特徴情報の前記第1記憶手段における存在位置が対応付けられた第1存在位置テーブルと、回転後の各要素の配置位置それぞれに対して、当該配置位置に対応する要素の要素特徴情報の前記存在位置が対応付けられた第2存在位置テーブルとを記憶しており、
    前記選択手段は、前記第1配置位置テーブルと前記第1存在位置テーブルとの組み合わせ、及び前記第2配置位置テーブルと前記第2存在位置テーブルとの組み合わせのうち、1の組み合わせを選択し、
    前記抽出部は、前記選択手段が選択した組み合わせに含まれる配置位置テーブルを用いて前記部分画像を取得し、
    前記特定部は、前記取得された部分画像それぞれに対して、当該部分画像の取得に用いた位置情報と前記選択手段が選択した存在位置テーブルとを用いて、当該部分画像に対する前記要素特徴情報を特定する
    ことを特徴とする請求項5に記載の画像判定装置。
  7. 前記第1配置位置テーブル及び第2配置位置テーブルそれぞれは、さらに、各要素の配置位置毎に、取得すべき部分画像の形状を示す形状情報を対応付けて格納しており、
    前記抽出部は、前記保持されているライン画像から、当該保持されているライン画像内に配置が示される配置位置毎に、当該配置位置に対応付けられた形状情報が示す形状からなる部分画像を取得する
    ことを特徴とする請求項6に記載の画像判定装置。
  8. 前記要素特徴情報は、対応する要素の近似に対する重み付けがなされた評価値からなる評価値群であり、
    部分画像を構成する複数の領域の明暗の組み合わせにて示される特徴量それぞれに対して、異なる標本値が対応付けられ、
    前記存在位置テーブルに含まれる存在位置は、対応する標本値群の前記第1記憶手段における先頭位置を示し、
    前記抽出部は、取得した部分画像に対して、前記画像特徴情報として、選択した位置情報に対応する軸を基準とした順序で当該部分画像の特徴量を求め、
    前記特定部は、前記抽出部にて部分画像が取得される度に、取得した部分画像に対して、選択された存在位置テーブルと当該部分画像の取得に用いられた配置位置とから、評価値群の先頭位置を特定し、
    前記判定部は、特定した前記先頭位置にて示される前記評価値群から、取得した当該部分画像の特徴量に対応する評価値を取得し、前記判定画像に含まれる全ての部分画像それぞれに対して取得された評価値の累計により、前記特徴部に対する近似の重みの値を算出し、算出した値が所定の閾値以上である場合に前記判定画像において前記特徴部が存在すると判定する
    ことを特徴とする請求項6に記載の画像判定装置。
  9. 前記第2記憶手段は、さらに、
    前記第1配置位置テーブル及び前記第1存在位置テーブルそれぞれに対して、利用の可否を示す第1配置位置テーブル利用フラグ及び第1存在位置テーブル利用フラグを対応付けて記憶し、
    前記第2配置位置テーブル及び前記第2存在位置テーブルそれぞれに対して、利用の可否を示す第2配置位置テーブル利用フラグ及び第2存在位置テーブル利用フラグが対応付けて記憶し、
    前記選択手段は、さらに、
    選択すべき組み合わせにおける配置位置テーブル及び存在位置テーブルそれぞれに対応する配置位置テーブル利用フラグ及び存在位置テーブル利用フラグに対してのみ利用を許可する旨の値を設定し、
    前記抽出部は、部分画像の取得に、利用が許可された旨の値が設定された配置位置テーブルを用い、
    前記特定部は、前記要素特徴情報の特定に、利用が許可された旨の値が設定された存在位置テーブルを用いる
    ことを特徴とする請求項6に記載の画像判定装置。
  10. 前記第2記憶手段は、参照可能領域と参照不可領域とを有し、
    前記選択手段は、
    選択すべき組み合わせにおける配置位置テーブル及び存在位置テーブルのそれぞれを前記参照可能領域で、他の組み合わせにおける配置位置テーブル及び存在位置テーブルを参照不可領域でそれぞれ保持し、
    前記抽出部は、部分画像の取得に、前記参照領域で保持されている配置位置テーブルを用い、
    前記特定部は、前記要素特徴情報の特定に、前記参照領域で保持されている存在位置テーブルを用いる
    ことを特徴とする請求項6に記載の画像判定装置。
  11. 前記第1配置位置テーブル、前記第2配置位置テーブル、前記第1存在位置テーブル及び前記第2存在位置テーブルのそれぞれには、アクセスの可否を示すアクセス権が対応付けられており、
    前記選択手段は、
    選択すべき組み合わせにおける配置位置テーブル及び存在位置テーブルのそれぞれに対してのみアクセスを許可するようアクセス権の設定を行い、他の組み合わせにおける配置位置テーブル及び存在位置テーブルに対してはアクセスを不許可とするようアクセス権の設定を行い、
    前記抽出部は、部分画像の取得に、アクセス権にアクセスを許可する旨が設定された存在位置テーブルを用い、
    前記特定部は、前記要素特徴情報の特定に、アクセス権にアクセスを許可する旨が設定された存在位置テーブルを用いる
    ことを特徴とする請求項6に記載の画像判定装置。
  12. 前記選択手段は、
    外部から前記第1及び前記第2位置情報のうち1の位置情報を選択する旨の指示を受け取り、受け取った指示にて示される位置情報を選択する
    ことを特徴とする請求項1に記載の画像判定装置。
  13. 前記回転は、90度、180度、270度及び上下反転の何れかである
    ことを特徴とする請求項1に記載の画像判定装置。
  14. 前記被写体は、人物であり、
    前記特徴部は、顔である
    ことを特徴とする請求項1に記載の画像判定装置。
  15. 前記画像判定装置は、被写体を撮影する撮像装置に具備される
    ことを特徴とする請求項1に記載の画像判定装置。
  16. 被写体がその一部に、複数の要素を含む特徴部を有していることを利用して、対象画像に被写体の特徴部が存在するか否かを判定する画像判定装置で用いられる画像判定方法であって、
    前記画像判定装置は、
    予め準備された正立状態の標本体の、被写体に対応する特徴部に関して、要素毎に、当該要素の特徴に係る要素特徴情報を記憶している第1記憶手段と、
    各要素が標準的に配された特徴部を持った標準的な被写体を想定し、当該被写体が正立状態であるときの各要素の位置を特定座標系で規定した第1位置情報と、当該被写体が正立状態から回転した場合における各要素の位置を前記特定座標系で規定した第2位置情報とを記憶している第2記憶手段とを備え、
    前記画像判定方法は、
    対象画像を取得する取得ステップと、
    第1及び第2位置情報のうちのいずれかの位置情報を選択する選択ステップと、
    対象画像に対して前記特定座標系を適用すると共に、第1位置情報が選択された場合には、当該第1位置情報により特定される前記対象画像内の部分画像を取得し、取得した前記部分画像に対して前記特定座標系上の第1軸を基準とした順序で画像特徴情報を求め、第2位置情報が選択された場合には、当該第2位置情報により特定される前記対象画像内の部分画像を取得し、取得した前記部分画像に対して前記第1軸を前記回転に応じて回転させた第2軸を基準として、前記第1軸を基準とした順序と同一の順序で画像特徴情報を求める抽出処理ステップと、
    取得した部分画像の前記特定座標系上の位置に相当する、第1記憶手段内の要素の要素特徴情報を特定し、特定した前記要素特徴情報と取得された前記画像特徴情報とを用いた前記要素に対する前記部分画像の評価により前記要素を含む前記対象画像内の領域における前記特徴部の存在を判定する判定ステップと
    を含むことを特徴とする画像判定方法。
  17. 被写体がその一部に、複数の要素を含む特徴部を有していることを利用して、対象画像に被写体の特徴部が存在するか否かを判定する画像判定装置で用いられる集積回路であって、
    予め準備された正立状態の標本体の、被写体に対応する特徴部に関して、要素毎に、当該要素の特徴に係る要素特徴情報を記憶している第1記憶手段と、
    各要素が標準的に配された特徴部を持った標準的な被写体を想定し、当該被写体が正立状態であるときの各要素の位置を特定座標系で規定した第1位置情報と、当該被写体が正立状態から回転した場合における各要素の位置を前記特定座標系で規定した第2位置情報とを記憶している第2記憶手段と、
    対象画像を取得する取得手段と、
    第1及び第2位置情報のうちのいずれかの位置情報を選択する選択手段と、
    対象画像に対して前記特定座標系を適用すると共に、第1位置情報が選択された場合には、当該第1位置情報により特定される前記対象画像内の部分画像を取得し、取得した前記部分画像に対して前記特定座標系上の第1軸を基準とした順序で画像特徴情報を求め、第2位置情報が選択された場合には、当該第2位置情報により特定される前記対象画像内の部分画像を取得し、取得した前記部分画像に対して前記第1軸を前記回転に応じて回転させた第2軸を基準として、前記第1軸を基準とした順序と同一の順序で画像特徴情報を求める抽出処理手段と、
    抽出した部分画像の前記特定座標系上の位置に相当する、第1記憶手段内の要素の要素特徴情報を特定し、特定した前記要素特徴情報と抽出された前記画像特徴情報とを用いた前記要素に対する前記部分画像の評価により前記要素を含む前記対象画像内の領域における前記特徴部の存在を判定する判定手段と
    を備えることを特徴とする集積回路。
JP2009546139A 2007-12-14 2008-12-12 画像判定装置 Expired - Fee Related JP5226699B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009546139A JP5226699B2 (ja) 2007-12-14 2008-12-12 画像判定装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2007322784 2007-12-14
JP2007322784 2007-12-14
JP2009546139A JP5226699B2 (ja) 2007-12-14 2008-12-12 画像判定装置
PCT/JP2008/003736 WO2009078155A1 (ja) 2007-12-14 2008-12-12 画像判定装置

Publications (2)

Publication Number Publication Date
JPWO2009078155A1 JPWO2009078155A1 (ja) 2011-04-28
JP5226699B2 true JP5226699B2 (ja) 2013-07-03

Family

ID=40795277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009546139A Expired - Fee Related JP5226699B2 (ja) 2007-12-14 2008-12-12 画像判定装置

Country Status (5)

Country Link
US (1) US8503721B2 (ja)
EP (1) EP2221768A1 (ja)
JP (1) JP5226699B2 (ja)
CN (1) CN101809621B (ja)
WO (1) WO2009078155A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5095790B2 (ja) * 2010-09-02 2012-12-12 株式会社東芝 特徴量算出装置及び識別装置
KR20120078980A (ko) * 2011-01-03 2012-07-11 삼성전자주식회사 휴대단말기에서 영상의 방향정보 추출장치 및 방법
JP2012234257A (ja) * 2011-04-28 2012-11-29 Sony Corp 画像処理装置と画像処理方法およびプログラム
AU2013205535B2 (en) * 2012-05-02 2018-03-15 Samsung Electronics Co., Ltd. Apparatus and method of controlling mobile terminal based on analysis of user's face
KR20150011714A (ko) * 2013-07-23 2015-02-02 주식회사 케이티 영상 방향 판단 장치
JP6448204B2 (ja) 2014-03-28 2019-01-09 キヤノン株式会社 物体検出装置、物体検出方法及びプログラム
WO2018066141A1 (ja) * 2016-10-07 2018-04-12 株式会社ディー・ディー・エス 情報処理プログラム及び情報処理装置
CN111242932A (zh) * 2020-01-15 2020-06-05 中国银联股份有限公司 一种卡片样式的校验方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043364A (ja) * 1999-08-03 2001-02-16 Fujitsu Ltd ラベリング回路
JP2002358522A (ja) * 2001-05-31 2002-12-13 Olympus Optical Co Ltd 画像選出支援装置および画像選出支援方法ならびに画像選出支援プログラム
JP2003141444A (ja) * 2001-10-30 2003-05-16 Canon Inc 画像処理装置および画像処理装置の制御方法およびプログラムおよび記憶媒体
WO2007029625A1 (ja) * 2005-09-06 2007-03-15 Tosho Inc. 処方箋受付装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3766910A (en) * 1970-10-09 1973-10-23 P Lake Disposable delicate tissue retractor
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
JP2004062565A (ja) * 2002-07-30 2004-02-26 Canon Inc 画像処理装置及び方法並びにプログラム記憶媒体
KR100814143B1 (ko) * 2003-10-03 2008-03-14 아사히 가세이 가부시키가이샤 데이터 처리 장치 및 데이터 처리 장치 제어 프로그램
ITRM20050192A1 (it) * 2005-04-20 2006-10-21 Consiglio Nazionale Ricerche Sistema per la rilevazione e la classificazione di eventi durante azioni in movimento.
CN1869994A (zh) * 2006-03-15 2006-11-29 张小粤 医学影像/图像特征提取和解剖位置注册方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043364A (ja) * 1999-08-03 2001-02-16 Fujitsu Ltd ラベリング回路
JP2002358522A (ja) * 2001-05-31 2002-12-13 Olympus Optical Co Ltd 画像選出支援装置および画像選出支援方法ならびに画像選出支援プログラム
JP2003141444A (ja) * 2001-10-30 2003-05-16 Canon Inc 画像処理装置および画像処理装置の制御方法およびプログラムおよび記憶媒体
WO2007029625A1 (ja) * 2005-09-06 2007-03-15 Tosho Inc. 処方箋受付装置

Also Published As

Publication number Publication date
US8503721B2 (en) 2013-08-06
JPWO2009078155A1 (ja) 2011-04-28
CN101809621A (zh) 2010-08-18
CN101809621B (zh) 2012-07-25
US20100290669A1 (en) 2010-11-18
WO2009078155A1 (ja) 2009-06-25
EP2221768A1 (en) 2010-08-25

Similar Documents

Publication Publication Date Title
JP5226699B2 (ja) 画像判定装置
CN107087107B (zh) 基于双摄像头的图像处理装置及方法
CN108012080B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
US10872420B2 (en) Electronic device and method for automatic human segmentation in image
TWI380232B (ja)
JP6106921B2 (ja) 撮像装置、撮像方法および撮像プログラム
US7801360B2 (en) Target-image search apparatus, digital camera and methods of controlling same
CN101416219B (zh) 数字图像中的前景/背景分割
CN107301665B (zh) 具有可变焦光学摄像头的深度摄像头及其控制方法
WO2023024697A1 (zh) 图像拼接方法和电子设备
KR102400283B1 (ko) 화상 처리 장치, 화상 처리 방법 및 프로그램
CN102096898A (zh) 图像处理的方法和设备
CN101764934A (zh) 摄像装置及图像处理方法
TWI719472B (zh) 圖像採集方法、裝置和系統、電子設備以及電腦可讀儲存媒體
WO2015008717A1 (en) Image processing device and imaging apparatus
JP2021051573A (ja) 画像処理装置、および画像処理装置の制御方法
CN112017137B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
WO2009123628A1 (en) Systems and methods to increase speed of object detection in a digital image
CN116762356A (zh) 具有多深度的对象的场景的图像融合
CN108259769B (zh) 图像处理方法、装置、存储介质及电子设备
JP5796611B2 (ja) 画像処理装置、画像処理方法、プログラムおよび撮像システム
JP5389592B2 (ja) 特定被写体検出方法及び装置
JP2005202477A (ja) 顔画像の天地方向判定方法、画像記録装置および画像再生装置
JP6079838B2 (ja) 画像処理装置、プログラム、画像処理方法および撮像システム
JP2008181439A (ja) 顔検出装置及び方法並びに撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130314

R150 Certificate of patent or registration of utility model

Ref document number: 5226699

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees