JPWO2009078155A1 - 画像判定装置 - Google Patents
画像判定装置 Download PDFInfo
- Publication number
- JPWO2009078155A1 JPWO2009078155A1 JP2009546139A JP2009546139A JPWO2009078155A1 JP WO2009078155 A1 JPWO2009078155 A1 JP WO2009078155A1 JP 2009546139 A JP2009546139 A JP 2009546139A JP 2009546139 A JP2009546139 A JP 2009546139A JP WO2009078155 A1 JPWO2009078155 A1 JP WO2009078155A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- information
- rectangular
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003860 storage Methods 0.000 claims abstract description 121
- 238000000605 extraction Methods 0.000 claims abstract description 70
- 238000012545 processing Methods 0.000 claims description 215
- 238000011156 evaluation Methods 0.000 claims description 140
- 238000000034 method Methods 0.000 claims description 66
- 238000003384 imaging method Methods 0.000 claims description 33
- 239000000284 extract Substances 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 description 206
- 238000001514 detection method Methods 0.000 description 134
- 238000004364 calculation method Methods 0.000 description 91
- 230000008859 change Effects 0.000 description 32
- 239000004065 semiconductor Substances 0.000 description 32
- 238000004590 computer program Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 22
- 238000013519 translation Methods 0.000 description 18
- 238000005520 cutting process Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 10
- 230000010354 integration Effects 0.000 description 10
- 238000004886 process control Methods 0.000 description 10
- 238000007796 conventional method Methods 0.000 description 7
- 210000000887 face Anatomy 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 4
- 210000000744 eyelid Anatomy 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
2 画像入力部
3 画像獲得部
4 画像メモリ
5 顔検出部
6 矩形画像切出部
7 識別部
8 ROMアドレス算出部
9 ROM
10 角度設定部
11 切出処理部
11a、11b セレクタ回路
12 セレクタテーブル記憶部
13 特徴量算出部
14 評価値算出部
15 判定部
16 アドレス変換テーブル記憶部
17 アドレス生成部
18 カウンタ
19 処理制御部
以下、本発明の第1の実施の形態について、図面を参照しながら説明する。
1.1 画像処理装置1の構成
図1は、第1の実施の形態における画像処理装置1のブロック図である。
(1)画像入力部2
画像入力部2は、図1に示すように、画像獲得部3と画像メモリ4とから構成されている。
(2)顔検出部5
顔検出部5は、図1に示すように、カウンタ18、矩形画像切出部6、識別部7、ROMアドレス算出部8、ROM9から構成されている。
(2−1)カウンタ18
カウンタ18は、0から23まで値を1ずつカウントアップし、カウンタ値により画像メモリ4の読み出しラインを指定する。
(2−2)矩形画像切出部6
矩形画像切出部6は、図1にて示すように、切出処理部11と、セレクタテーブル記憶部12とから構成され、画像入力部2から出力されたウィンドウの画像データから矩形画像を切り出す。
切出処理部11は、図1に示すように、セレクタ回路11a、11bを有している。
セレクタテーブル記憶部12は、セレクタ回路11a、11bにて切り出される矩形画像データの位置を示す情報を記憶している。ここでは、図4(a)から(d)にて示す4画素×4画素からなる矩形画像B1、B2、B3が選択(切り出し)対象であるとする。以下において、図4(a)から(d)にて示すテンプレートの枠を示すテンプレート枠及び矩形画像を用いて説明する。
(2−2−3)矩形画像データの切り出しの具体例
ここでは、図6のセレクタテーブルT11aを用いて、矩形画像データの切り出しの具体例について説明する。
(2−3)識別部7
識別部7は、図1にて示すように、特徴量算出部13と、評価値算出部14と、判定部15とから構成され、矩形画像切出部6から出力される複数の矩形画像データからそれぞれの矩形画像の特徴量および評価値を算出し、評価値に基づいてウィンドウに顔が含まれるか否かの識別を行う。
(2−3−1)特徴量算出部13
特徴量算出部13は、セレクタ回路11a、11bにて選択された1つ以上の矩形画像それぞれから特徴量を算出する。
(2−3−2)評価値算出部14
評価値算出部14は、特徴量と、後述する学習パラメータから、ウィンドウに対する評価値を算出する。ここで、学習パラメータとは、ウィンドウに対する評価値の算出に用いるために、特徴量毎に対応付けられ、且つ事前に多数のサンプル画像からの学習により得られた、特徴量に対する重み付け値である。
(2−3−3)判定部15
判定部15は、1ウィンドウ分の評価値を元にウィンドウに顔が含まれるか否かの判定を行う。
ROM9は、評価値算出部14において評価値を算出際に用いられる学習パラメータを保持する学習パラメータ保持手段である。
(2−5)ROMアドレス算出部8
ROMアドレス算出部8は、図1にて示すように、アドレス変換テーブル記憶部16とアドレス生成部17とから構成され、識別部7から出力される特徴量からROM9の参照アドレスを算出する学習パラメータ参照先算出手段である。
(2−5−1)アドレス変換テーブル記憶部16
アドレス変換テーブル記憶部16は、ROM9の参照アドレス変換の変換情報からなるアドレス変換テーブルを保持している。
(2−5−2)アドレス生成部17
アドレス生成部17は、利用可能なアドレス変換テーブルに従って識別部7が出力する特徴量から学習パラメータの参照アドレス(ROMアドレス)を生成(算出)する。
数式1におけるTable(ウィンドウのライン番号)は、利用可能なアドレス変換テーブルから引かれるオフセットアドレスである。また、特徴量は、識別部7より入力される特徴量であり、前記明るさ及び暗さ情報を並べたものである。
(3)角度設定部10
角度設定部10は、識別部7にて識別する対象物体を切り替える。具体的には、角度設定部10は、セレクタ回路11a及び11bが利用するセレクタテーブルと、アドレス生成部17が利用するアドレス変換テーブルとを切り替えることにより、識別する対象物体を切り替える。
(4)その他
ここでは、角度設定部10が処理制御部19から出力される変更情報を受け取るタイミングについて説明する。
1.2 画像処理装置1の動作
ここでは、画像処理装置1の動作、特に、識別する対象物体の切り替えに係る切替処理及び顔検出に係る顔検出処理について、以下に説明する。
(1)切替処理
ここでは、切替処理の動作について、図17に示す流れ図を用いて説明する。
(2)顔検出処理の動作
ここでは、顔検出処理の動作について、図18にて示す流れ図を用いて説明する。
1.3 変形例
なお、本発明を上記第1の実施の形態に基づいて説明してきたが、本発明は、上記第1の実施の形態に限定されないのは、もちろんである。以下のような場合も本発明に含まれる。
2.第2の実施の形態
図20を用いて、本発明の第2の実施の形態について説明する。
3.第3の実施の形態
図21は、本発明の第3の実施の形態を説明するブロック図である。
4.その他の変形例
なお、本発明を上記第1から第3の実施の形態及び第1の実施の形態の変形例に基づいて説明してきたが、本発明は、上記各実施の形態及び変形例に限定されないのは、もちろんである。以下のような場合も本発明に含まれる。
(6)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
5.まとめ
(1)本発明の一態様である画像処理装置は、画像を入力する画像入力手段と、前記画像入力手段から入力された画像から矩形画像を切り出す矩形画像切り出し手段と、前記矩形画像切り出し手段で切り出した複数の矩形画像からそれぞれ特徴量を算出し、その特徴量から評価値を算出し、算出した評価値をもとに対象物体であるか否かを識別する識別手段と、前記識別手段において前記矩形画像の評価値の算出に用いる学習パラメータを保持する学習パラメータ保持手段と、前記矩形画像の評価値算出に必要な前記学習パラメータの参照先を示す学習パラメータ参照先算出手段と、設定される回転角度によって、前記矩形画像切り出し手段で切り出される矩形画像の切り出し位置、および前記学習パラメータ参照先算出手段が示す前記学習パラメータの参照先を変更することで、前記矩形画像の切り出し位置を切り替える切り替え手段とを備えることを特徴とする。
例えば、特許文献1では、複数の人物の顔のサンプル(標本体)を用いて顔を構成する要素(例えば、目、鼻、口、顎など)の特徴のパターンを学習し、その学習した複数のパラメータ値からなる要素特徴情報を用いて、顔と顔以外(以下、非顔という。)を識別する方法、画像処理装置が開示されている。
なぜなら、図25(a)にて示す通常撮影時における顔を構成する要素(右目、左目、左顎)の位置及び向きと、図25(b)にて示す回転撮影時における顔を構成するこれらの要素の位置及び向きとは異なるため、通常撮影時における要素の特徴と回転撮影時における要素の特徴とが異なるからである。例えば、通常撮影時における左目(ここでは、矩形領域R_B1)の向きは横向きであるが、回転撮影時それぞれにおける左目の向きは縦向きとなり、横向きの目の特徴と、縦向きの目の特徴とは異なる。
ここで、前記画像判定装置は、さらに、前記判定手段が前記判定画像に特徴部が存在しないと判定する場合、前記選択手段に対して選択されていない他の位置情報を選択するよう指示する指示手段を備え、前記選択手段は、さらに、前記指示を受け付けると、選択されていない他の位置情報を選択し、前記抽出処理手段は、さらに、選択された他の位置情報により特定される他の部分画像を抽出し、前記他の位置情報に対応する軸を基準とした特徴抽出方法を適用して当該他の部分画像に対する画像特徴情報を求め、前記判定手段は、さらに、抽出した他の部分画像の前記特定座標上の位置に相当する、第1記憶手段内の前記要素の要素特徴情報を特定し、特定した前記要素特徴情報と抽出された前記他の部分画像に対する画像特徴情報とを用いた前記要素に対する前記他の部分画像の評価により前記対象画像における前記特徴部の存在を判定するとしてもよい。
従来の技術では、図22(a)にて示すように、部分画像に対する処理順序が決まっている。例えば、目、鼻、口の順である。また、通常、枠35にて形成される判定画像は、SRAM(Static Random Access Memory)に格納されており、判定画像を読み出すには1ライン毎に、判定画像の上部から順次読み出す必要がある。つまり、判定画像を1ラインずつ読み出しながら、部分画像(従来技術では、矩形画像)の切り出しが行われ、切り出した部分画像に対して特徴量評価部が評価する部分画像のパラメータを用いた特徴量の評価が行われる。例えば図25(a)にて示すように処理順序が目(矩形画像R_A1、R_B1)、顎(矩形画像R_A2)の順である場合には、a1ライン番目のライン画像を読み込んだ時点で、矩形画像(R_A1、R_B1)が選択され、両者に対する目の評価が並列に行われ、次に、矩形画像(R_A2)が選択され、選択された矩形画像(R_A2)に対する顎の評価が行われる。しかしながら、図25(b)にて示す画像の場合では、顔検出を行う際には、評価順序に基づいて、先ず目の評価を行う。この場合、図25(b)にて示すb1ライン番目における1ライン分の画像を読み出した時点で1の矩形画像R_B1に対して目の評価を行い、その後、b2ライン番目における1ライン分の画像を読み出した時点で矩形画像R_A1に対して目の評価を行う。その後、評価順序に基づいて矩形画像R_A2に対して顎の評価を行う。つまり、従来技術では、回転画像に対してb1番目のライン画像を読み込んだ時点では矩形画像R_B1に対する評価のみを行う、つまり矩形画像R_B1に対する評価と、矩形画像R_A2に対する評価を並列して行うことができないので、回転画像に対する特徴部の存在の判定の処理能力は、通常の画像に対する特徴部の存否の判定の処理能力に比べて低下することとなる。しかしながら、本発明の画像判定装置は、選択する位置情報に関わらず、ライン画像の読み込み時点において抽出した部分画像それぞれに対して、当該部分画像に対する要素特徴情報を取得している。つまり、上記構成を持つ画像判定装置は、図25にて示すところの矩形画像R_B1に対する要素特徴情報と、矩形画像R_A2に対する要素特徴情報とを用いた処理を並列に行うことができる。したがって、画像判定装置は、検出対象の被写体が回転した場合、従来のように被写体の特徴部の存在の判定の処理能力が低下することはない。
ここで、前記第1配置位置テーブル及び第2配置位置テーブルそれぞれは、さらに、各要素の配置位置毎に、取得すべき部分画像の形状を示す形状情報を対応付けて格納しており、前記抽出部は、前記保持されているライン画像から、当該保持されているライン画像内に配置が示される配置位置毎に、当該配置位置に対応付けられた形状情報が示す形状からなる部分画像を抽出するとしてもよい。
ここで、 前記要素特徴情報は、対応する要素の近似に対する重み付けがなされた評価値からなる評価値群であり、部分画像を構成する複数の領域の明暗の組み合わせにて示される特徴量それぞれに対して、異なる標本値が対応付けられ、前記存在位置テーブルに含まれる存在位置は、対応する標本値群の前記第1記憶手段における先頭位置を示し、抽出部は、取得した部分画像に対して、前記要素特徴情報として、選択した位置情報に対応する軸を基準とした特徴抽出方法を適用して当該部分画像の特徴量を求め、前記特定部は、前記抽出部にて部分画像が抽出される度に、抽出した部分画像に対して、選択された存在位置テーブルと当該部分画像の抽出に用いられた配置位置とから、評価値群の先頭位置を特定し、前記判定部は、特定した前記先頭位置にて示される前記評価値群から、取得した当該部分画像の特徴量に対応する評価値を取得し、前記判定画像に含まれる全ての部分画像それぞれに対して取得された評価値の累計により、前記特徴部に対する近似の重みの値を算出し、算出した値が所定の閾値以上である場合に前記判定画像において前記特徴部が存在すると判定するとしてもよい。
ここで、前記選択手段は、外部から前記第1及び前記第2位置情報のうち1の位置情報を選択する旨の指示を受け取り、受け取った指示にて示される位置情報を選択するとしてもよい。
ここで、前記回転は、90度、180度、270度及び上下反転の何れかであるとしてもよい。
この構成によると、画像判定装置は、前記回転は、90度、180度、270度及び上下反転のうちいずれかに応じた第2位置情報を記憶しているので、従来のようにテンプレート自身、又は画像自身を90度、180度、270度及び上下反転のうちいずれかの回転を行う必要がない。これにより、従来のようにテンプレート自身、又は画像自身の回転により被写体の特徴部の存在の判定を行う場合に比べて、処理時間が短くなる。
この構成によると、画像判定装置は、回転に関わらず、対象画像において人物の顔を存在を判定する際の判定に用いる要素特徴情報を記憶するための記憶領域の増加を防ぐことができる。
ここで、前記画像判定装置は、被写体を撮影する撮像装置に具備されるとしてもよい。
以下、本発明の第1の実施の形態について、図面を参照しながら説明する。
1.1 画像処理装置1の構成
図1は、第1の実施の形態における画像処理装置1のブロック図である。
画像処理装置1は、図1に示すように、画像入力部2、顔検出部5、角度設定部10から構成され、入力された画像から人物の顔の存否を判定する画像判定装置である。
(1)画像入力部2
画像入力部2は、図1に示すように、画像獲得部3と画像メモリ4とから構成されている。
画像メモリ4は、取得した画像データを保持する。具体的には、画像メモリ4は、SRAMで構成されており、1ワード中に1ライン分の画素データ(ここでは、24画素分のデータ)が保持された24ワード構成をとっている。つまり、画像獲得部3により取得された画像データは、一旦画像メモリ4において、図2にて示すような24画素×24画素の顔検出部5の処理単位に保持される。以後、この24画素×24画素などの顔検出部5の処理単位をウィンドウと呼ぶ。画像メモリ4には、1ウィンドウ分の画素データが保持される。
画像メモリ4の画素データは、顔検出部5からの要求に応じて1ライン単位(ここでは、24画素分の画素データ)毎に顔検出部5に出力される。
なお、24画素×24画素である本ウィンドウのサイズ、及びSRAMの構成は一例であり、限定されるものではない。ウィンドウサイズは他のサイズでもよいし、画像メモリ4はSRAM以外の記憶手段であってもよい。
(2)顔検出部5
顔検出部5は、図1に示すように、カウンタ18、矩形画像切出部6、識別部7、ROMアドレス算出部8、ROM9から構成されている。
(2−1)カウンタ18
カウンタ18は、0から23まで値を1ずつカウントアップし、カウンタ値により画像メモリ4の読み出しラインを指定する。
(2−2)矩形画像切出部6
矩形画像切出部6は、図1にて示すように、切出処理部11と、セレクタテーブル記憶部12とから構成され、画像入力部2から出力されたウィンドウの画像データから矩形画像を切り出す。
切出処理部11は、1つのセレクタテーブルに従って矩形画像の画像データ(以下、矩形画像データともいう。)を選択する(切り出す)。
(2−2−1)切出処理部11
切出処理部11は、図1に示すように、セレクタ回路11a、11bを有している。
セレクタ回路11a、11bでは、予め決まった位置の矩形画像をセレクタテーブル記憶部12に保持されている内容に従って選択する。
後述する識別部7では矩形画像単位で処理を行うため、セレクタ回路11aでは矩形画像の画素データを揃える必要がある。矩形画像の画素データを揃えるためのバッファをシフトレジスタ群20で構成する。図3では4段のシフトレジスタ群20を備えることで、高さが4画素の矩形画像に対応が可能である。シフトレジスタ群20に保持された矩形画像の画素データは、セレクタテーブル記憶部12に保持されている内容に従って列セレクタ回路22により選択され、識別部7に出力される。
セレクタ回路11aとセレクタ回路11bとは、カウンタ18のカウンタ値にて示されるライン番号が画素データを、同時に読み出すことができ、同一ライン上に2つの矩形画像が存在する場合には、セレクタ回路11a、11bそれぞれを用いて、2つの矩形画像データを同時に選択することができる。
セレクタテーブル記憶部12は、セレクタ回路11a、11bにて切り出される矩形画像データの位置を示す情報を記憶している。ここでは、図4(a)から(d)にて示す4画素×4画素からなる矩形画像B1、B2、B3が選択(切り出し)対象であるとする。以下において、図4(a)から(d)にて示すテンプレートの枠を示すテンプレート枠及び矩形画像を用いて説明する。
セレクタテーブル記憶部12は、図6から図9にて示す4種類のセレクタテーブルT11a、T11b、T11c、T11dを記憶している。
セレクタテーブルT11a、T11b、T11c、T11dは、ウィンドウのライン番号と、矩形情報A、矩形情報Bとからなる組を1つ以上含む領域から構成されている。
矩形情報A及び矩形情報Bは、矩形画像の有無を示す情報と、矩形画像のX座標とから構成されている。
矩形画像の有無を示す情報とは、具体的には、値0及び1のうち何れかが設定される矩形画像フラグである。矩形画像フラグの値が0である場合には対応するライン番号を開始位置のY座標とする矩形画像が無いことを示し、矩形画像フラグの値が1である場合には対応するライン番号を開始位置のY座標とする矩形画像が存在することを示す。
ここでは、ウィンドウのライン番号と、矩形画像のX座標とから、存在する矩形画像の開始位置のX座標及びY座標が特定される。
図6にて示すセレクタテーブルT11aは、図4(a)、つまり基準角度(0度)における矩形画像に係る情報を示しており、ウィンドウのライン番号“y_b”に対して2つの矩形画像と、ウィンドウのライン番号“y_c”に対して1つの矩形画像が存在していることを示している。この場合、ウィンドウのライン番号“y_b”と矩形画像のX座標“x_b”とから図4(a)にて示す矩形画像B1が特定され、ウィンドウのライン番号“y_b”と矩形画像のX座標“x_b’”とから図4(a)にて示す矩形画像B2が特定される。また、ウィンドウのライン番号“y_c”と矩形画像のX座標“x_b’”とから図4(a)にて示す矩形画像B3が特定される。
セレクタテーブルT11bにおけるウィンドウのライン番号“24−x_b’−4”にて特定される2つの矩形画像は図4(b)における矩形画像B2、B3を示している。ここでは、矩形情報Aにて矩形画像B3が示され、矩形情報Bにて矩形画像B2が示される。また、ライン番号“24−x_b−4”にて特定される1つの矩形画像は図4(b)における矩形画像B1を示している。
各セレクタテーブルT11a、T11b、T11c、T11dそれぞれは、セレクタ回路11a、11bによる利用が可能であるか否かを示すセレクタテーブル利用フラグと対応付けられている。セレクタテーブル利用フラグの値が0である場合には利用不可を示し、値が1である場合には利用可能であること示す。ここでは、4つのセレクタテーブルT11a、T11b、T11c、T11dのうち1つのセレクタテーブルのセレクタテーブル利用フラグに値“1”が設定され、残りのセレクタテーブルに対応付けられたセレクタテーブル利用フラグに値“0”が設定される。つまり、セレクタ回路11a、11bは、矩形画像データを選択する際には、常に1つのセレクタテーブルを参照することとなる。
(2−2−3)矩形画像データの切り出しの具体例
ここでは、図6のセレクタテーブルT11aを用いて、矩形画像データの切り出しの具体例について説明する。
(2−3)識別部7
識別部7は、図1にて示すように、特徴量算出部13と、評価値算出部14と、判定部15とから構成され、矩形画像切出部6から出力される複数の矩形画像データからそれぞれの矩形画像の特徴量および評価値を算出し、評価値に基づいてウィンドウに顔が含まれるか否かの識別を行う。
(2−3−1)特徴量算出部13
特徴量算出部13は、セレクタ回路11a、11bにて選択された1つ以上の矩形画像それぞれから特徴量を算出する。
特徴量の算出方法の一例として、特許文献1にて示す算出方法がある。
例えば、図23(b)の矩形画像の特徴量の算出方法は、矩形画像内の上の横4画素×縦2画素の黒色の矩形領域内の画素の総和と、下の横4画素×縦2画素の白色の矩形領域内の画素の総和の差を用いる。このときの算出順序を上、下の順に行うものとする。また、画素の総和の大きい(明るい)矩形領域の特徴を"1"、画素の総和の小さい(暗い)矩形領域の特徴を"0"とし、矩形画像内の黒色の矩形領域と白色の矩形領域の前記特徴を2進情報として並べることで矩形画像の特徴量とする。図23(b)においては、黒色の矩形領域が暗く、白色の矩形領域が明るいとすると、特徴を上の領域から順に並べて"01"となる。このときに得られる2進数の値“01”が特徴量となる。また、図23(c)の場合、同様に特徴を左の領域から順に並べて"101"となる。
この算出方法によると、矩形画像に対する特徴量は、回転角度(0度、90度、上下反転、270度)に関係なく同一の値となる。
なお、矩形画像の特徴量の算出方法は一例であり、限定するものではない。
ここで、他の分割の仕方として、9画素×9画素からなる矩形画像を9個の領域に分割した場合の特徴量の値の並びについて、図11(a)から(d)に示す。
図11(a)は0度の場合を示す。この場合、特徴量は、矩形画像の左上の領域を起点として、左から右及び上から下の順序で並べられる。つまり、特徴量は、“ABCDEFGHI”となる。
図11(c)は上下反転の場合を示す。この場合、特徴量は、矩形画像の左下の領域を起点として、左から右及び下から上の順序で並べられる。つまり特徴量は、0度の場合と同様の値“ABCDEFGHI”となる。
したがって、矩形画像の特徴量は、角度に関係なく同一の値となる。
矩形画像を9個の領域に分割する場合、分割に用いる軸は複数存在することとなるが、このうちの1つの軸を用いることで、特徴量の値の並びが特定される。例えば、0度の場合において水平方向右向きの軸(例えば、軸B104a)を用いると、当該角度に対する矩形画像における特徴量の値の並びが特定される。この軸が回転角度に応じて回転すると、回転後の軸(軸B104b、B104c、B104d)を用いて当該回転角度に対する矩形画像における特徴量の値の並びが特定される。
(2−3−2)評価値算出部14
評価値算出部14は、特徴量と、後述する学習パラメータから、ウィンドウに対する評価値を算出する。ここで、学習パラメータとは、ウィンドウに対する評価値の算出に用いるために、特徴量毎に対応付けられ、且つ事前に多数のサンプル画像からの学習により得られた、特徴量に対する重み付け値である。
評価値算出部14は、1ウィンドウから選択された全ての矩形画像それぞれに対応する学習パラメータを受け取ると、それらの累算値を算出し、算出結果を評価値とする。
評価値算出部14は、算出した評価値を判定部15へ出力する。
(2−3−3)判定部15
判定部15は、1ウィンドウ分の評価値を元にウィンドウに顔が含まれるか否かの判定を行う。
判定部15は、前記評価値が閾値以上である場合には顔である、つまりウィンドウ内に顔が含まれる判定し、評価値が閾値より小さい場合には非顔である、つまりウィンドウ内に顔が含まれないと判定する。判定結果は、識別部7より外部へ出力される。
(2−4)ROM9
ROM9は、評価値算出部14において評価値を算出際に用いられる学習パラメータを保持する学習パラメータ保持手段である。
メモリマップT20には、セレクタテーブル内の図矩形情報A欄にて示される1つ以上の矩形画像それぞれに対して、当該矩形画像が取り得る特徴量毎に学習パラメータが格納されている。
例えば、図12におけるオフセットアドレス“offset An”以降の4つの学習パラメータは、図4にて示す矩形画像B1が取り得る特徴量に対する学習パラメータであり、図12におけるオフセットアドレス“offset Am”以降の4つの学習パラメータは、図4にて示す矩形画像B3が取り得る特徴量に対する学習パラメータである。また、図13におけるオフセットアドレス“offset Bn”以降の4つの学習パラメータは、図4にて示す矩形画像B2が取り得る特徴量に対する学習パラメータである。
(2−5)ROMアドレス算出部8
ROMアドレス算出部8は、図1にて示すように、アドレス変換テーブル記憶部16とアドレス生成部17とから構成され、識別部7から出力される特徴量からROM9の参照アドレスを算出する学習パラメータ参照先算出手段である。
(2−5−1)アドレス変換テーブル記憶部16
アドレス変換テーブル記憶部16は、ROM9の参照アドレス変換の変換情報からなるアドレス変換テーブルを保持している。
ウィンドウのライン番号は、ウィンドウのライン番号を示す値である。
矩形情報Aに対する出力(オフセット)は、ウィンドウのライン番号にて示される値を開始位置のY座標とし、対応するセレクタテーブルの矩形情報Aにて特定される矩形画像が参照すべきオフセットを示す。
各アドレス変換テーブルT31a、T31b、T31c、T31dそれぞれは、後述するアドレス生成部17による利用が可能であるか否かを示すアドレス変換テーブル利用フラグと対応付けられている。アドレス変換テーブル利用フラグの値が0である場合には利用不可を示し、値が1である場合には利用可能であること示す。ここでは、4つのアドレス変換テーブルT31a、T31b、T31c、T31dのうち1つのアドレス変換テーブルのアドレス変換テーブル利用フラグに値“1”が設定され、残りのアドレス変換テーブルに対応付けられたアドレス変換テーブル利用フラグに値“0”が設定される。つまり、アドレス生成部17は、常に1つのアドレス変換テーブルを参照することとなる。
(2−5−2)アドレス生成部17
アドレス生成部17は、利用可能なアドレス変換テーブルに従って識別部7が出力する特徴量から学習パラメータの参照アドレス(ROMアドレス)を生成(算出)する。
(数式1) ROMアドレス = Table(ウィンドウのライン番号) + 特徴量
数式1におけるTable(ウィンドウのライン番号)は、利用可能なアドレス変換テーブルから引かれるオフセットアドレスである。また、特徴量は、識別部7より入力される特徴量であり、前記明るさ及び暗さ情報を並べたものである。
アドレス生成部17は、算出したROMアドレスに基づいてROM9にアクセスを行い、処理中の矩形画像から算出された特徴量に対応した学習パラメータを得る。得られた学習パラメータは、識別部7の評価値算出部14に出力される。
(3)角度設定部10
角度設定部10は、識別部7にて識別する対象物体を切り替える。具体的には、角度設定部10は、セレクタ回路11a及び11bが利用するセレクタテーブルと、アドレス生成部17が利用するアドレス変換テーブルとを切り替えることにより、識別する対象物体を切り替える。
図16(a)から(d)に角度設定部10で設定される角度と、検出する顔の角度範囲を示す。ここで角度とは、入力画像に対する垂線から反時計周りの角度を指す。図16(a)が角度0度(基準角度)の場合である。顔検出部5は、正立した状態から±α度(例えば、±45度)の範囲の顔検出を行う。同様に、図16(b)は角度90度(回転角度90度)の場合、図16(c)は角度180度(回転角度が上下反転)の場合、図16(d)は角度270度(回転角度270度)の場合それぞれを示し、顔検出の角度範囲も図16(a)同様である。
角度設定信号は、矩形画像切出部6、およびROMアドレス算出部8に入力される。角度設定信号が示す角度に応じて、各セレクタテーブルのうち1のセレクタテーブルが利用可能となる。また、利用可能となるセレクタテーブルに対応する1のアドレス変換テーブルも利用可能となる。具体的には、角度設定信号が示す角度に応じて、利用すべきセレクタテーブルに対応するセレクタテーブル利用フラグ、及び当該セレクタテーブルに対応するアドレス変換テーブルに対応するアドレス変換テーブル利用フラグそれぞれに値“1”を設定し、他のセレクタテーブルそれぞれに対応するセレクタテーブル利用フラグに値“0”を、他のアドレス変換テーブルそれぞれに対応するアドレス変換テーブル利用フラグに値“0”を設定する。例えば、角度設定信号が示す角度が基準角度0度である場合には、セレクタテーブルT11aに対応するセレクタテーブル利用フラグに値“1”を設定し、他のセレクタテーブルそれぞれに対応するセレクタテーブル利用フラグに値“0”を設定する。さらに、セレクタテーブルT11aに対応するアドレス変換テーブルT31aに対応するアドレス変換テーブル利用フラグに値“1”を設定し、他のアドレス変換テーブルそれぞれに対応するアドレス変換テーブル利用フラグに値“0”を設定する。これにより、セレクタ回路11a、1b及びアドレス生成部17は、基準角度0度である場合において利用すべきセレクタテーブルT11a、及び当該セレクタテーブルT11aに対応するアドレス変換テーブルT31aを特定することができる。
角度設定部10は、処理制御部19から角度の変更を指示する変更情報を受け取る。ここで、変更情報は、変更後の角度を示す情報を含んでいる。
例えば、変更情報に角度0度(基準角度0度)を示す情報が含まれている場合には、角度設定部10は、基準角度0度を示す角度設定信号により、セレクタテーブルT11a及びアドレス変換テーブルT31aに対応する第1及びアドレス変換テーブル利用フラグに値“1”を設定し、他のセレクタテーブル及びアドレス変換テーブルそれぞれに対応する第1及びアドレス変換テーブル利用フラグそれぞれに値“0”を設定する。
(4)その他
ここでは、角度設定部10が処理制御部19から出力される変更情報を受け取るタイミングについて説明する。
1.2 画像処理装置1の動作
ここでは、画像処理装置1の動作、特に、識別する対象物体の切り替えに係る切替処理及び顔検出に係る顔検出処理について、以下に説明する。
(1)切替処理
ここでは、切替処理の動作について、図17に示す流れ図を用いて説明する。
角度設定部10は切替情報に含まれる角度が0度である場合(ステップS10における「0度」)、角度設定部10は、角度0度を示す角度設定信号により、セレクタテーブルT11aのみを有効、他のセレクタテーブルを無効にする(ステップS15)。具体的には、角度設定部10は、角度0度を示す角度設定信号により、セレクタテーブルT11aに対応するセレクタテーブル利用フラグに値“1”を設定し、他のセレクタテーブルそれぞれに対応するセレクタテーブル利用フラグに値“0”を設定する。さらに、角度設定部10は、角度0度を示す角度設定信号により、アドレス変換テーブルT31aのみを有効、他のアドレス変換テーブルを無効にする(ステップS20)。具体的には、角度設定部10は、角度0度を示す角度設定信号により、アドレス変換テーブルT31aに対応するアドレス変換テーブル利用フラグに値“1”を設定し、他のアドレス変換テーブルそれぞれに対応するアドレス変換テーブル利用フラグに値“0”を設定する。
(2)顔検出処理の動作
ここでは、顔検出処理の動作について、図18にて示す流れ図を用いて説明する。
特徴量算出部13は、セレクタ回路11a、11bが切り出した1つ以上の矩形画像それぞれに対する特徴量を算出する(ステップS105)。
判定部15は、算出された評価値を用いて、当該ウィンドウに顔が含まれているか否かを判断し(ステップS125)、その結果を外部に出力する(ステップS130)。
1.3 変形例
なお、本発明を上記第1の実施の形態に基づいて説明してきたが、本発明は、上記第1の実施の形態に限定されないのは、もちろんである。以下のような場合も本発明に含まれる。
シフトレジスタの段数は、選択すべき(切り出すべき)矩形画像の最大の縦のサイズと同数以上であればよい。
また、矩形画像に対して、縦の画素数と横の画素数が同一でなくてもよい。
(2)上記第1の実施の形態において、セレクタ回路は、1ラインあたり1つの矩形画像のみ選択する(切り出す)としたが、これに限定されない。
(3)上記第1の実施の形態において、セレクタ回路11a及び11bは、共通のセレクタテーブルを参照して、矩形画像の選択(切り出し)を行ったが、これに限定されない。
例えば、セレクタ回路11aには、図6から9にて示すウィンドウのライン番号と、矩形情報Aとからなる各セレクタテーブルを対応付ける。そして、セレクタ回路11bには、ウィンドウのライン番号と、矩形情報Bとからなる各セレクタテーブルを対応付ける。
(4)上記第1の実施の形態において、画像処理装置1は、矩形画像の選択後に特徴量を求めているが、これに限定されない。図19に示すように、画像処理装置1aは、全画素位置に対応する矩形画像の特徴量をあらかじめ算出し、その結果を選択しても良い。矩形画像の数が多い場合、予め算出することで特徴量の算出結果を共有することが出来るため、全体の演算量を減らすことが出来る場合がある。
検出対象として、動物の顔、人物の上半身や全身のように、検出対象の物体として識別できる特徴部分を有しているものであればよい。
(6)上記第1の実施の形態において、各セレクタテーブル及び各アドレス変換テーブルの有効、無効の識別をフラグを用いて行ったが、これに限定されない。
回転角度は、基準角度に対して右回りに0度、90度、270度、及び上下反転としてもよい。
または、上下反転の代わりに、180度としてもよい。この場合の180度回転後の矩形画像の開始位置、例えば、図5(a)にて示す矩形画像B4aの開始位置(x、y)が(24−x−w、24−y−h)に変更される。セレクタテーブルT11c及びアドレス変換テーブルT31cそれぞれを、角度0度の開始位置(x、y)と180度回転後の開始位置(24−x−w、24−y−h)との関係に基づいて、変更することで実現できる。例えば、矩形画像B1は、角度180度の場合には、開始位置の座標は(24−x_b−4、24−y_b−4)となる。
処理制御部19は、画像処理装置1の内部に存在してもよい。
(9)上記第1の実施の形態において、セレクタテーブル記憶部とアドレス変換テーブル記憶部とを個別の構成し、それぞれにセレクタテーブル11a〜11dとアドレス変換テーブル31a〜31dとを格納したが、これに限定されない。
また、セレクタテーブルと対応するアドレス変換テーブルとを1つの管理テーブルで管理してもよい。この場合、例えば、管理テーブルは、ウィンドウのライン番号、矩形情報A、矩形情報Bとからなる組を1つ以上格納する領域を有している。ウィンドウのライン番号は、ウィンドウのライン番号を示す値である。矩形情報A及び矩形情報Bは、矩形画像の有無を示す情報と、矩形画像のX座標と、出力(オフセットアドレス)とから構成されている。矩形画像の有無を示す情報と、矩形画像のX座標と、出力(オフセットアドレス)とについては、上述しているので、ここでの説明は省略する。
撮影された画像データ(入力画像)に対して1の角度を用いて顔検出を行い、顔が検出されない場合には、他の角度にて前記入力画像に対して顔検出を行ってもよい。
(11)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
2.第2の実施の形態
図20を用いて、本発明の第2の実施の形態について説明する。
半導体集積回路70は、第1の実施の形態で説明した画像処理装置1、画像符号化回路71、音声処理部72、ROM73、動き検出回路75、プロセッサ76、制御バス77、解像度変換回路78、カメラ入力回路79、LCD(液晶ディスプレイ:Liquid Crystal Display)出力回路81、内部バス83を備えている。各構成要素は、内部バス83を介して接続され、データの入出力を行う。
カメラ入力回路79は、カメラ80からの動画像を入力として受け取り、受け取った動画像をデジタルデータ化する処理を行う。
動き検出回路75は、デジタルデータ化された動画像に対して、動き補償に係る処理を行う。
ROM73は、処理すべきデータを格納する領域を有する。例えば、音声処理部72にて処理が施された音声データを格納する。
解像度変換回路78は、画像処理装置1で処理される画像データの解像度を変換する処理を行う。
プロセッサ76は、半導体集積回路70の全体の動作に係る処理の制御を行う。
プロセッサ76は、上記第1の実施の形態にて示す処理制御部19と同じ動作を行い、画像処理装置1にて顔が検出されるまで、若しくは全ての角度に対して顔検出処理が行われるまで、セレクタセーブル及びアドレス変換テーブルの切り替えの制御を行う。
なお、本実施の形態において、角度設定部10は、第1の実施の形態と同様に、画像処理装置1が具備しているものとしたが、これに限定されない。角度設定部10は、プロセッサ76が具備してもよい。つまり、角度設定部10が行う動作をプロセッサ76が行ってもよい。
また、画像処理装置1が半導体集積回路70で実現されることで、デジタルビデオカメラや監視カメラの小型化、低消費電力化などが実現される。
3.第3の実施の形態
図21は、本発明の第3の実施の形態を説明するブロック図である。
レンズ89は、被写体を結像するためのものであり、具体的は、ズーム機能を実現するためのズームレンズと、被写体に合焦させるためのフォーカスレンズとからなる。
絞り88は、メカニカルシャッタ、被写体の明るさを調整するための絞りや、フィルタ等からなり、シャッターや絞りなどを行う。
A/D変換回路86は、センサ87からのアナログ出力に対してゲイン調整やA/D(analogue/digital)変換を行い、画像データをデジタルデータとして出力する。
角度センサ90は、撮像装置100の撮影角度を検出する。検出した撮影角度をに基づき設定すべき角度を示す変更情報を角度設定部10へ出力する。
半導体集積回路170の画像処理装置1で検出した顔の位置情報を用いることで、撮像装置100は、顔の位置に合わせたズーム制御84によるフォーカス制御、露出制御85による露出制御が可能となり、顔をきれいに撮影可能な撮像装置が実現される。
4.その他の変形例
なお、本発明を上記第1から第3の実施の形態及び第1の実施の形態の変形例に基づいて説明してきたが、本発明は、上記各実施の形態及び変形例に限定されないのは、もちろんである。以下のような場合も本発明に含まれる。
または、第1の動作及び第2の動作の双方とも利用したテーブルの切り替えを行ってもよい。この場合、角度センサにて検出された撮影角度に基づいて有効となったセレクタセーブル及びアドレス変換テーブルを顔検出の利用する最初のテーブルとし、顔が検出されるまで、順次セレクタセーブル及びアドレス変換テーブルが切り替わる。例えば、角度が90度のセレクタセーブル及びアドレス変換テーブルを顔検出の利用する最初のテーブルとした場合、顔が検出されるまで、角度が上下反転、270度、角度0度に対応するセレクタセーブル及びアドレス変換テーブルへと順次切り替わる。
(2)本発明は、ソフトウェアにて実現してもよい。
(3)上記の画像処理装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
また、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
(5)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
(6)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
5.まとめ
(1)本発明の一態様である画像処理装置は、画像を入力する画像入力手段と、前記画像入力手段から入力された画像から矩形画像を切り出す矩形画像切り出し手段と、前記矩形画像切り出し手段で切り出した複数の矩形画像からそれぞれ特徴量を算出し、その特徴量から評価値を算出し、算出した評価値をもとに対象物体であるか否かを識別する識別手段と、前記識別手段において前記矩形画像の評価値の算出に用いる学習パラメータを保持する学習パラメータ保持手段と、前記矩形画像の評価値算出に必要な前記学習パラメータの参照先を示す学習パラメータ参照先算出手段と、設定される回転角度によって、前記矩形画像切り出し手段で切り出される矩形画像の切り出し位置、および前記学習パラメータ参照先算出手段が示す前記学習パラメータの参照先を変更することで、前記矩形画像の切り出し位置を切り替える切り替え手段とを備えることを特徴とする。
また、当該画像処理装置によれば、複数の特徴量を用いた顔検出方法においても、回転画像に対する顔検出速度が低下することなく顔検出処理を行うことが可能となる。
(3)ここで、前記セレクタテーブルは、前記切り替え手段により前記セレクタテーブルに保持する画素データの切り出し位置の情報を切り替えるとしてもよい。
(5)ここで、前記学習パラメータ参照テーブルは、前記切り替え手段により前記矩形画像の評価値算出に必要な前記学習パラメータの参照先情報が切り替わるとしてもよい。
(7)ここで、前記切り替え手段により切り替わる前記矩形画像の切り出し位置は、0度の切り出し位置を基準に前記切り替え手段により設定される角度情報の角度回転した位置に相当するとしてもよい。
(9)ここで、前記学習パラメータ保持手段は、ROMであるとしてもよい。
(10)ここで、前記学習パラメータの参照先情報は、前記ROMのアドレスであるとしてもよい。
(15)通常、画像を格納する画像メモリは容量が大きいため、一般的にSRAMで構成される。SRAMはワード単位のアクセスはアクセス効率が高く、ビット単位のアクセスはアクセス効率が低いという特徴がある。1ワード分のデータは1回のアクセスで取得できるのに対して、1列分のデータの取得には複数回のアクセスが必要なためである。そのため、SRAMで構成された画像メモリは、SRAM同様のアクセス効率に関する特徴を持つ。
本発明における第1記憶手段は、上記実施の形態におけるROM9に相当する。
本発明における第2記憶手段は、上記実施の形態におけるセレクタテーブル記憶部12とアドレス変換テーブル記憶部16とからなる構成要素に相当する。
本発明における選択手段は、上記実施の形態における角度設定部10に相当する。
本発明における抽出処理手段は、上記実施の形態における切出処理部11と特徴量算出部13とからなる構成要素に相当する。
本発明における判定手段は、上記実施の形態における評価値算出部14、判定部15及びアドレス生成部17とからなる構成要素に相当する。
本発明における第1配置位置テーブル及び第2配置位置テーブルは、上記実施の形態におけるセレクタテーブルに相当する。
本発明における第1存在位置テーブル及び第2存在位置テーブルは、上記実施の形態におけるアドレス変換テーブルに相当する。
本発明は、画像処理装置、当該画像処理装置を含むデジタルビデオカメラやデジタルカメラを製造及び販売する産業において、経営的、つまり反復的かつ継続的に利用されうる。
2 画像入力部
3 画像獲得部
4 画像メモリ
5 顔検出部
6 矩形画像切出部
7 識別部
8 ROMアドレス算出部
9 ROM
10 角度設定部
11 切出処理部
11a、11b セレクタ回路
12 セレクタテーブル記憶部
13 特徴量算出部
14 評価値算出部
15 判定部
16 アドレス変換テーブル記憶部
17 アドレス生成部
18 カウンタ
19 処理制御部
Claims (16)
- 被写体がその一部に、複数の要素を含む特徴部を有していることを利用して、対象画像に被写体の特徴部が存在するか否かを判定する画像判定装置であって、
予め準備された正立状態の標本体の、被写体に対応する特徴部に関して、要素毎に、当該要素の特徴に係る要素特徴情報を記憶している第1記憶手段と、
各要素が標準的に配された特徴部を持った標準的な被写体を想定し、当該被写体が正立状態であるときの各要素の位置を特定座標系で規定した第1位置情報と、当該被写体が正立状態から回転した場合における各要素の位置を前記特定座標系で規定した第2位置情報とを記憶している第2記憶手段と、
対象画像を取得する取得手段と、
第1及び第2位置情報のうちのいずれかの位置情報を選択する選択手段と、
対象画像に対して前記特定座標系を適用すると共に、第1位置情報が選択された場合には、当該第1位置情報により特定される前記対象画像内の部分画像を抽出し、抽出した前記部分画像に対して前記特定座標系上の第1軸を基準とした特徴抽出方法を適用して、画像特徴情報を求め、第2位置情報が選択された場合には、当該第2位置情報により特定される前記対象画像内の部分画像を抽出し、抽出した前記部分画像に対して前記第1軸を前記回転に応じて回転させた第2軸を基準とした特徴抽出方法を適用して、画像特徴情報を求める抽出処理手段と、
抽出した部分画像の前記特定座標系上の位置に相当する、第1記憶手段内の要素の要素特徴情報を特定し、特定した前記要素特徴情報と抽出された前記画像特徴情報とを用いた前記要素に対する前記部分画像の評価により前記要素を含む前記対象画像内の領域における前記特徴部の存在を判定する判定手段と
を備えることを特徴とする画像判定装置。 - 前記取得手段は、さらに、
前記想定された標準的な被写体の特徴部を囲む枠を前記対象画像に適用して、当該枠にて形成される判定画像を前記対象画像から取得し、
前記抽出処理手段は、
選択された位置情報により特定される部分画像を前記判定画像から取得し、取得した前記部分画像の画像特徴情報を抽出し、
前記判定手段は、
特定した前記要素特徴情報と抽出された前記画像特徴情報とを用いた前記要素に対する前記部分画像の評価により前記判定画像における前記特徴部の存在を判定する
ことを特徴とする請求項1に記載の画像判定装置。 - 前記画像判定装置は、さらに、
前記判定手段が前記判定画像に特徴部が存在しないと判定する場合、前記選択手段に対して選択されていない他の位置情報を選択するよう指示する指示手段を備え、
前記選択手段は、さらに、前記指示を受け付けると、選択されていない他の位置情報を選択し、
前記抽出処理手段は、さらに、選択された他の位置情報により特定される他の部分画像を抽出し、前記他の位置情報に対応する軸を基準とした特徴抽出方法を適用して当該他の部分画像に対する画像特徴情報を求め、
前記判定手段は、さらに、抽出した他の部分画像の前記特定座標上の位置に相当する、第1記憶手段内の前記要素の要素特徴情報を特定し、特定した前記要素特徴情報と抽出された前記他の部分画像に対する画像特徴情報とを用いた前記要素に対する前記他の部分画像の評価により前記対象画像における前記特徴部の存在を判定する
ことを特徴とする請求項2に記載の画像判定装置。 - 前記抽出処理手段は、
前記判定画像のうち1ライン分のライン画像を所定ライン数分保持する領域を有し、前記判定画像から1ライン分のライン画像を順次読み出し、読み出したライン画像を前記領域に順次格納し、ライン画像の格納数が前記所定ライン数を超える場合には、読み出しが最先のライン画像を前記領域から破棄する画像読出部と、
前記画像読出部がライン画像を読み出して格納する度に、選択された位置情報により前記画像読出部にて保持されているライン画像内に配置が示される全ての部分画像を、前記保持されているライン画像から抽出し、抽出した部分画像それぞれの画像特徴情報を求める抽出部とを備え、
前記判定手段は、
前記抽出部にて部分画像が抽出される度に、前記部分画像それぞれに対して要素特徴情報を前記第1記憶手段から特定する特定部と、
前記判定画像内の全ての部分画像の画像特徴情報それぞれと、特定された要素特徴情報それぞれとを用いて、前記判定画像における前記特徴部の存在を判定する判定部とを備える
ことを特徴とする請求項2に記載の画像判定装置。 - 前記第1位置情報は、正立状態における想定された標準的な被写体の特徴部の各要素それぞれにおける前記特定座標系にて配置位置を示す第1配置位置テーブルで表され、
前記第2位置情報は、当該被写体が正立状態から回転した場合における当該被写体の特徴部の各要素それぞれにおける前記特定座標系にて配置位置を示す第2配置位置テーブルで表され、
前記第2記憶手段は、さらに、
正立状態の各要素の配置位置それぞれに対して、当該配置位置に対応する要素の要素特徴情報の前記第1記憶手段における存在位置が対応付けられた第1存在位置テーブルと、回転後の各要素の配置位置それぞれに対して、当該配置位置に対応する要素の要素特徴情報の前記存在位置が対応付けられた第2存在位置テーブルとを記憶しており、
前記選択手段は、前記第1配置位置テーブルと前記第1存在位置テーブルとの組み合わせ、及び前記第2配置位置テーブルと前記第2存在位置テーブルとの組み合わせのうち、1の組み合わせを選択し、
前記抽出部は、前記選択手段が選択した組み合わせに含まれる配置位置テーブルを用いて前記部分画像を抽出し、
前記特定部は、前記取得された部分画像それぞれに対して、当該部分画像の抽出に用いた位置情報と前記選択手段が選択した存在位置テーブルとを用いて、当該部分画像に対する前記要素特徴情報を特定する
ことを特徴とする請求項4に記載の画像判定装置。 - 前記第1配置位置テーブル及び第2配置位置テーブルそれぞれは、さらに、各要素の配置位置毎に、取得すべき部分画像の形状を示す形状情報を対応付けて格納しており、
前記抽出部は、前記保持されているライン画像から、当該保持されているライン画像内に配置が示される配置位置毎に、当該配置位置に対応付けられた形状情報が示す形状からなる部分画像を抽出する
ことを特徴とする請求項5に記載の画像判定装置。 - 前記要素特徴情報は、対応する要素の近似に対する重み付けがなされた評価値からなる評価値群であり、
部分画像を構成する複数の領域の明暗の組み合わせにて示される特徴量それぞれに対して、異なる標本値が対応付けられ、
前記存在位置テーブルに含まれる存在位置は、対応する標本値群の前記第1記憶手段における先頭位置を示し、
抽出部は、取得した部分画像に対して、前記要素特徴情報として、選択した位置情報に対応する軸を基準とした特徴抽出方法を適用して当該部分画像の特徴量を求め、
前記特定部は、前記抽出部にて部分画像が抽出される度に、抽出した部分画像に対して、選択された存在位置テーブルと当該部分画像の抽出に用いられた配置位置とから、評価値群の先頭位置を特定し、
前記判定部は、特定した前記先頭位置にて示される前記評価値群から、取得した当該部分画像の特徴量に対応する評価値を取得し、前記判定画像に含まれる全ての部分画像それぞれに対して取得された評価値の累計により、前記特徴部に対する近似の重みの値を算出し、算出した値が所定の閾値以上である場合に前記判定画像において前記特徴部が存在すると判定する
ことを特徴とする請求項5に記載の画像判定装置。 - 前記第2記憶手段は、さらに、
前記第1配置位置テーブル及び前記第1存在位置テーブルそれぞれに対して、利用の可否を示す第1配置位置テーブル利用フラグ及び第1存在位置テーブル利用フラグを対応付けて記憶し、
前記第2配置位置テーブル及び前記第2存在位置テーブルそれぞれに対して、利用の可否を示す第2配置位置テーブル利用フラグ及び第2存在位置テーブル利用フラグが対応付けて記憶し、
前記選択手段は、さらに、
選択すべき組み合わせにおける配置位置テーブル及び存在位置テーブルそれぞれに対応する配置位置テーブル利用フラグ及び存在位置テーブル利用フラグに対してのみ利用を許可する旨の値を設定し、
前記抽出部は、部分画像の抽出に、利用が許可された旨の値が設定された配置位置テーブルを用い、
前記特定部は、前記要素特徴情報の特定に、利用が許可された旨の値が設定された存在位置テーブルを用いる
ことを特徴とする請求項5に記載の画像判定装置。 - 前記第2記憶手段は、参照可能領域と参照不可領域とを有し、
前記選択手段は、
選択すべき組み合わせにおける配置位置テーブル及び存在位置テーブルのそれぞれを前記参照可能領域で、他の組み合わせにおける配置位置テーブル及び存在位置テーブルを参照不可領域でそれぞれ保持し、
前記抽出部は、部分画像の抽出に、前記参照領域で保持されている配置位置テーブルを用い、
前記特定部は、前記要素特徴情報の特定に、前記参照領域で保持されている存在位置テーブルを用いる
ことを特徴とする請求項5に記載の画像判定装置。 - 前記第1配置位置テーブル、前記第2配置位置テーブル、前記第1存在位置テーブル及び前記第2存在位置テーブルのそれぞれには、アクセスの可否を示すアクセス権が対応付けられており、
前記選択手段は、
選択すべき組み合わせにおける配置位置テーブル及び存在位置テーブルのそれぞれに対してのみアクセスを許可するようアクセス権の設定を行い、他の組み合わせにおける配置位置テーブル及び存在位置テーブルに対してはアクセスを不許可とするようアクセス権の設定を行い、
前記抽出部は、部分画像の抽出に、アクセス権にアクセスを許可する旨が設定された存在位置テーブルを用い、
前記特定部は、前記要素特徴情報の特定に、アクセス権にアクセスを許可する旨が設定された存在位置テーブルを用いる
ことを特徴とする請求項5に記載の画像判定装置。 - 前記選択手段は、
外部から前記第1及び前記第2位置情報のうち1の位置情報を選択する旨の指示を受け取り、受け取った指示にて示される位置情報を選択する
ことを特徴とする請求項1に記載の画像判定装置。 - 前記回転は、90度、180度、270度及び上下反転の何れかである
ことを特徴とする請求項1に記載の画像判定装置。 - 前記被写体は、人物であり、
前記特徴部は、顔である
ことを特徴とする請求項1に記載の画像判定装置。 - 前記画像判定装置は、被写体を撮影する撮像装置に具備される
ことを特徴とする請求項1に記載の画像判定装置。 - 被写体がその一部に、複数の要素を含む特徴部を有していることを利用して、対象画像に被写体の特徴部が存在するか否かを判定する画像判定装置で用いられる画像判定方法であって、
前記画像判定装置は、
予め準備された正立状態の標本体の、被写体に対応する特徴部に関して、要素毎に、当該要素の特徴に係る要素特徴情報を記憶している第1記憶手段と、
各要素が標準的に配された特徴部を持った標準的な被写体を想定し、当該被写体が正立状態であるときの各要素の位置を特定座標系で規定した第1位置情報と、当該被写体が正立状態から回転した場合における各要素の位置を前記特定座標系で規定した第2位置情報とを記憶している第2記憶手段とを備え、
前記画像判定方法は、
対象画像を取得する取得ステップと、
第1及び第2位置情報のうちのいずれかの位置情報を選択する選択ステップと、
対象画像に対して前記特定座標系を適用すると共に、第1位置情報が選択された場合には、当該第1位置情報により特定される前記対象画像内の部分画像を抽出し、抽出した前記部分画像に対して前記特定座標系上の第1軸を基準とした特徴抽出方法を適用して、画像特徴情報を求め、第2位置情報が選択された場合には、当該第2位置情報により特定される前記対象画像内の部分画像を抽出し、抽出した前記部分画像に対して前記第1軸を前記回転に応じて回転させた第2軸を基準とした特徴抽出方法を適用して、画像特徴情報を求める抽出処理ステップと、
抽出した部分画像の前記特定座標系上の位置に相当する、第1記憶手段内の要素の要素特徴情報を特定し、特定した前記要素特徴情報と抽出された前記画像特徴情報とを用いた前記要素に対する前記部分画像の評価により前記要素を含む前記対象画像内の領域における前記特徴部の存在を判定する判定ステップと
を含むことを特徴とする画像判定方法。 - 被写体がその一部に、複数の要素を含む特徴部を有していることを利用して、対象画像に被写体の特徴部が存在するか否かを判定する画像判定装置で用いられる集積回路であって、
予め準備された正立状態の標本体の、被写体に対応する特徴部に関して、要素毎に、当該要素の特徴に係る要素特徴情報を記憶している第1記憶手段と、
各要素が標準的に配された特徴部を持った標準的な被写体を想定し、当該被写体が正立状態であるときの各要素の位置を特定座標系で規定した第1位置情報と、当該被写体が正立状態から回転した場合における各要素の位置を前記特定座標系で規定した第2位置情報とを記憶している第2記憶手段と、
対象画像を取得する取得手段と、
第1及び第2位置情報のうちのいずれかの位置情報を選択する選択手段と、
対象画像に対して前記特定座標系を適用すると共に、第1位置情報が選択された場合には、当該第1位置情報により特定される前記対象画像内の部分画像を抽出し、抽出した前記部分画像に対して前記特定座標系上の第1軸を基準とした特徴抽出方法を適用して、画像特徴情報を求め、第2位置情報が選択された場合には、当該第2位置情報により特定される前記対象画像内の部分画像を抽出し、抽出した前記部分画像に対して前記第1軸を前記回転に応じて回転させた第2軸を基準とした特徴抽出方法を適用して、画像特徴情報を求める抽出処理手段と、
抽出した部分画像の前記特定座標系上の位置に相当する、第1記憶手段内の要素の要素特徴情報を特定し、特定した前記要素特徴情報と抽出された前記画像特徴情報とを用いた前記要素に対する前記部分画像の評価により前記要素を含む前記対象画像内の領域における前記特徴部の存在を判定する判定手段と
を備えることを特徴とする集積回路。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009546139A JP5226699B2 (ja) | 2007-12-14 | 2008-12-12 | 画像判定装置 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007322784 | 2007-12-14 | ||
JP2007322784 | 2007-12-14 | ||
JP2009546139A JP5226699B2 (ja) | 2007-12-14 | 2008-12-12 | 画像判定装置 |
PCT/JP2008/003736 WO2009078155A1 (ja) | 2007-12-14 | 2008-12-12 | 画像判定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2009078155A1 true JPWO2009078155A1 (ja) | 2011-04-28 |
JP5226699B2 JP5226699B2 (ja) | 2013-07-03 |
Family
ID=40795277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009546139A Expired - Fee Related JP5226699B2 (ja) | 2007-12-14 | 2008-12-12 | 画像判定装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8503721B2 (ja) |
EP (1) | EP2221768A1 (ja) |
JP (1) | JP5226699B2 (ja) |
CN (1) | CN101809621B (ja) |
WO (1) | WO2009078155A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5095790B2 (ja) * | 2010-09-02 | 2012-12-12 | 株式会社東芝 | 特徴量算出装置及び識別装置 |
KR20120078980A (ko) * | 2011-01-03 | 2012-07-11 | 삼성전자주식회사 | 휴대단말기에서 영상의 방향정보 추출장치 및 방법 |
JP2012234257A (ja) * | 2011-04-28 | 2012-11-29 | Sony Corp | 画像処理装置と画像処理方法およびプログラム |
AU2013205535B2 (en) * | 2012-05-02 | 2018-03-15 | Samsung Electronics Co., Ltd. | Apparatus and method of controlling mobile terminal based on analysis of user's face |
KR20150011714A (ko) * | 2013-07-23 | 2015-02-02 | 주식회사 케이티 | 영상 방향 판단 장치 |
JP6448204B2 (ja) | 2014-03-28 | 2019-01-09 | キヤノン株式会社 | 物体検出装置、物体検出方法及びプログラム |
WO2018066141A1 (ja) * | 2016-10-07 | 2018-04-12 | 株式会社ディー・ディー・エス | 情報処理プログラム及び情報処理装置 |
CN111242932A (zh) * | 2020-01-15 | 2020-06-05 | 中国银联股份有限公司 | 一种卡片样式的校验方法及装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3766910A (en) * | 1970-10-09 | 1973-10-23 | P Lake | Disposable delicate tissue retractor |
JP2001043364A (ja) * | 1999-08-03 | 2001-02-16 | Fujitsu Ltd | ラベリング回路 |
US7099510B2 (en) * | 2000-11-29 | 2006-08-29 | Hewlett-Packard Development Company, L.P. | Method and system for object detection in digital images |
JP4778158B2 (ja) * | 2001-05-31 | 2011-09-21 | オリンパス株式会社 | 画像選出支援装置 |
JP2003141444A (ja) * | 2001-10-30 | 2003-05-16 | Canon Inc | 画像処理装置および画像処理装置の制御方法およびプログラムおよび記憶媒体 |
JP2004062565A (ja) | 2002-07-30 | 2004-02-26 | Canon Inc | 画像処理装置及び方法並びにプログラム記憶媒体 |
EP1881443B1 (en) * | 2003-10-03 | 2009-04-08 | Asahi Kasei Kogyo Kabushiki Kaisha | Data processing unit, method and control program |
ITRM20050192A1 (it) * | 2005-04-20 | 2006-10-21 | Consiglio Nazionale Ricerche | Sistema per la rilevazione e la classificazione di eventi durante azioni in movimento. |
WO2007029625A1 (ja) * | 2005-09-06 | 2007-03-15 | Tosho Inc. | 処方箋受付装置 |
CN1869994A (zh) * | 2006-03-15 | 2006-11-29 | 张小粤 | 医学影像/图像特征提取和解剖位置注册方法 |
-
2008
- 2008-12-12 EP EP08861191A patent/EP2221768A1/en not_active Withdrawn
- 2008-12-12 WO PCT/JP2008/003736 patent/WO2009078155A1/ja active Application Filing
- 2008-12-12 CN CN2008801096409A patent/CN101809621B/zh not_active Expired - Fee Related
- 2008-12-12 US US12/676,987 patent/US8503721B2/en not_active Expired - Fee Related
- 2008-12-12 JP JP2009546139A patent/JP5226699B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
WO2009078155A1 (ja) | 2009-06-25 |
CN101809621A (zh) | 2010-08-18 |
JP5226699B2 (ja) | 2013-07-03 |
US8503721B2 (en) | 2013-08-06 |
US20100290669A1 (en) | 2010-11-18 |
CN101809621B (zh) | 2012-07-25 |
EP2221768A1 (en) | 2010-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5226699B2 (ja) | 画像判定装置 | |
US10872420B2 (en) | Electronic device and method for automatic human segmentation in image | |
CN108012080B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN107087107B (zh) | 基于双摄像头的图像处理装置及方法 | |
TWI380232B (ja) | ||
CN107301665B (zh) | 具有可变焦光学摄像头的深度摄像头及其控制方法 | |
CN102761706B (zh) | 成像设备和成像方法 | |
US8055016B2 (en) | Apparatus and method for normalizing face image used for detecting drowsy driving | |
US20070086648A1 (en) | Target-image search apparatus, digital camera and methods of controlling same | |
JP5939705B2 (ja) | 被写体判定装置、被写体判定方法及びプログラム | |
KR102400283B1 (ko) | 화상 처리 장치, 화상 처리 방법 및 프로그램 | |
TWI719472B (zh) | 圖像採集方法、裝置和系統、電子設備以及電腦可讀儲存媒體 | |
CN102096898A (zh) | 图像处理的方法和设备 | |
JPWO2010044214A1 (ja) | 顔認識装置および顔認識方法 | |
WO2015008717A1 (en) | Image processing device and imaging apparatus | |
JP2021051573A (ja) | 画像処理装置、および画像処理装置の制御方法 | |
CN112017137B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
JP2011081803A (ja) | 赤目オブジェクト候補を分類する方法、コンピューター読み取り可能な媒体および画像処理装置 | |
CN107105172A (zh) | 一种用于对焦的方法和装置 | |
CN116762356A (zh) | 具有多深度的对象的场景的图像融合 | |
CN113610884B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN113240582B (zh) | 一种图像拼接方法及装置 | |
CN108259769B (zh) | 图像处理方法、装置、存储介质及电子设备 | |
JP5796611B2 (ja) | 画像処理装置、画像処理方法、プログラムおよび撮像システム | |
JP5389592B2 (ja) | 特定被写体検出方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5226699 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160322 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |