JP4779057B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP4779057B2
JP4779057B2 JP2010529527A JP2010529527A JP4779057B2 JP 4779057 B2 JP4779057 B2 JP 4779057B2 JP 2010529527 A JP2010529527 A JP 2010529527A JP 2010529527 A JP2010529527 A JP 2010529527A JP 4779057 B2 JP4779057 B2 JP 4779057B2
Authority
JP
Japan
Prior art keywords
input image
image
value
data
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010529527A
Other languages
English (en)
Other versions
JPWO2010032295A1 (ja
Inventor
珊珊 于
雅芳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of JP4779057B2 publication Critical patent/JP4779057B2/ja
Publication of JPWO2010032295A1 publication Critical patent/JPWO2010032295A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Description

本発明は、画像データを量子化する画像処理装置および画像処理方法に関するものである。
近年、カメラ等によって撮影された画像中から、各種の物体(例えば、人物の顔、車等)を検出する物体検出の研究が行われている。物体検出の技術は、予め、検出対象となる物体の特徴を学習して学習データを作成し、作成した学習データと、画像データとを比較することで、画像中に検出対象となる物体が存在するか否かを判定する技術である。
また、画像データそのものの情報量は膨大であり、物体検出の技術では、画像中に検索対象となる物体が存在しているか否かを判定できればよいので、情報の量子化技術を利用して画像データを削減し、メモリ資源を節約する必要がある。
情報の量子化技術には、画像データを周波数変換(ウェーブレット<Wavelet>変換)し、変換結果となる変換係数の大小(または、隣り合う画素同士の画素値の差分の大小)から量子化処理を行う技術がある(例えば、非特許文献1参照)。かかる量子化処理では、画像データを3段階に量子化するので、物体検出に用いられる画像データ、学習データの記憶領域を削減することが可能となる。
なお、濃淡値画像からなる対象画像において、2つの画素の異なる組合せについて濃淡差分値を計算し、算出した濃淡差分値を所定の量子化レベルで量子化することにより、画像照合を実施するという技術も知られている(例えば、特許文献1参照)。
特開2004−246618号公報 H.Schneiderman and T. Kanade, Object Detection Using the Statistics of Parts To appear in International Journal of Computer Vision,2002.
しかしながら、上述した従来の技術では、画像データを量子化することで処理対象となる画像データのデータ量を削減しているが、量子化レベルが3段階に留まっているため、必ずしも最適にデータ量を削減できていないという問題があった。
なお、画像データを周波数変換し、変換結果となる変換係数の大小から量子化処理を行う場合に、変換係数の中間値を基準にして、画像データを単に2段階に量子化することも考えられるが、顔を構成する画像は中間値が多いため、量子化した画像データに顔の特徴が残りにくく、物体検出の精度が著しく劣化してしまうため現実的ではない。
この発明は、上述した従来技術による問題点を解消するためになされたものであり、画像データを最適に削減することができる画像処理装置および画像処理方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、この画像処理装置は、入力画像を取得した場合に、前記入力画像内の被写体の特徴が現れている領域を第1の画素値に置き換え、前記入力画像内の被写体の特徴が現れていない領域を第2の画素値に置き換えることにより、前記入力画像を2段階に量子化する量子化手段と、前記量子化手段により量子化された複数枚の顔画像の特徴を含んだ辞書データを記憶する記憶手段と、前記量子化手段により量子化された検出対象画像に対して、前記記憶手段から読み出した辞書データを用いて顔検出を行う検出手段と、を有することを要件とする。
この画像処理装置によれば、画像データの特徴の有無を基にして2段階の量子化を実行するので、オリジナルの画像の特徴が失われてしまうことを防止して、省メモリ化を実現しつつ、従来技術の物体検出と同様の高い検出率を保つことができる。
図1は、本実施例にかかる画像処理装置の概要および特徴を説明するための図である。 図2は、本実施例にかかる画像処理装置の効果を説明するための図である。 図3は、本実施例にかかる画像処理装置の構成を示す機能ブロック図である。 図4は、顔学習データのデータ構造の一例を示す図である。 図5は、非顔学習データのデータ構造の一例を示す図である。 図6は、比較対象データのデータ構造の一例を示す図である。 図7は、顔検出処理部の処理の一例を説明するための図である。 図8は、比較結果テーブルのデータ構造の一例を示す図である。 図9は、検出範囲の移動の様子を説明するための図である。 図10は、本実施例にかかる画像処理装置の処理手順を示すフローチャートである。 図11は、量子化処理の処理手順を示すフローチャートである。 図12は、本実施例にかかる画像処理装置を構成するコンピュータのハードウェア構成を示す図である。
符号の説明
30 コンピュータ
31 入力装置
32 モニタ
33 RAM
33a,39a 各種データ
34 ROM
35 通信制御装置
36 媒体読取装置
37 カメラ
38 CPU
38a 画像処理プロセス
39 HDD
39b 画像処理プログラム
40 バス
100 画像処理装置
110a,110b 変換処理部
120a、120b 分析処理部
130 記憶部
130a 顔学習データ
130b 非顔学習データ
130c 比較対象データ
140 顔検出処理部
以下に、本発明にかかる画像処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
まず、本実施例にかかる画像処理装置の概要および特徴について説明する。図1は、本実施例にかかる画像処理装置の概要および特徴を説明するための図である。本実施例にかかる画像処理装置は、物体検出にて利用する画像データを量子化する場合に、入力画像内の被写体(例えば、人物の顔)の特徴が現れている領域(画素)を第1の画素値に置き換え、入力画像内の被写体の特徴が現れていない領域を第1の画素値に置き換えることにより、入力画像を2段階に量子化する。
具体的には、図1に示すように、画像処理装置は、入力画像に対してウェーブレット(Wavelet)変換を行った後に、変換係数が量子化閾値1未満、または、変換係数が量子化閾値2より大きくなる入力画像内の領域を被写体の特徴部分として第1の画素値に置き換える。また、画像処理装置は、変換係数が量子化閾値1以上、かつ、量子化閾値2以下となる入力画像内の領域を被写体の非特徴部分として第2の画素値に置き換える。
ここで、量子化閾値1は、変換係数の中間値よりも小さい値であり、管理者によって予め設定される閾値である。また、量子化閾値2は、変換係数の中間値よりも大きい値であり、管理者によって予め設定される閾値である。
図2は、本実施例にかかる画像処理装置の効果を説明するための図である。図2に示す(a)は、元の入力画像であり、(b)は、ウェーブレット変換後の入力画像である。また、図2の(c)は、変換係数の大小により3段階に量子化した入力画像であり、(d)は、変換係数の大小により2段階に量子化した入力画像であり、(e)は、本実施例にかかる画像処理装置が量子化した入力画像である。
図2において、(c)の入力画像と(e)の入力画像とを比較すると、(c)の入力画像は、3段階で量子化しているのに対して、(e)の入力画像は、2段階で量子化しているので、省メモリ化を図ることができる。また、(d)の入力画像および(e)の入力画像は、共に、2段階で量子化しているが、単純に変換係数の大小で2段階に量子化している(d)の入力画像に対して、(e)の入力画像は被写体の特徴の有無で2段階に量子化しているので、顔の特徴を最適に残すことができ、物体検出の精度の低下を防止することが出来る。
次に、本実施例にかかる画像処理装置100の構成について説明する。図3は、本実施例にかかる画像処理装置100の構成を示す機能ブロック図である。図3に示すように、画像処理装置100は、変換処理部110a,110bと、分析処理部120a,120bと、記憶部130と、顔検出処理部140とを有する。
変換処理部110aは、顔画像集データおよび非顔画像集データを取得し、取得した顔画像集データおよび非顔画像集データに対して周波数変換処理(例えば、ウェーブレット変換)を実行する処理部である。画像データに対する周波数変換処理は、周知技術と同様である。
なお、顔画像集データは、様々な人物の顔画像を集めた画像データであり、非顔画像集データは、顔画像以外の各種の画像を集めた画像データである。また、顔画像集データのサイズおよび非顔画像集データのサイズは統一されているものとする。
変換処理部110aは、入力装置、記憶装置(図示略)等から顔画像集データおよび非顔画像集データを取得する。変換処理部110aは、周波数変換した顔画像集データおよび非顔画像集データを分析処理部120aに出力する。以下の説明において、周波数変換した顔画像集データを変換顔画像集データと表記し、周波数変換した非顔画像集データを変換非顔画像集データと表記する。
変換処理部110bは、入力画像データを取得し、取得した入力画像データに対して周波数変換処理(例えば、ウェーブレット変換)を実行する処理部である。画像データに対する周波数変換処理は、周知技術と同様である。なお、入力画像データは、物体検出対象となる画像データである。変換処理部110aは、入力装置、記憶装置(図示略)等から入力画像データを取得する。変換処理部110bは、周波数変換した入力画像データを分析処理部120bに出力する。
分析処理部120aは、変換顔画像集データおよび変換非顔画像集データを取得した場合に、変換顔画像集データを基にして顔学習データを作成し、変換非顔画像集データを基にして非顔学習データを作成する処理部である。
まず、分析処理部120aが、顔学習データを作成する処理について具体的に説明する。分析処理部120aは、変換顔画像集データに含まれる画像データから単一の画像データを抽出する。ここで、変換顔画像集データに含まれる画像データは、顎から頭をほぼ含む上下幅、両耳をほぼ含む左右幅で、顔を全面に写した画像群で構成されている。もちろん、多様な顔を検出するための学習データであるので、真正面から顔を写したデータのほかに、斜め上や下や左や右を向いたデータや、帽子や眼鏡を掛けた顔のデータ、様々な年齢や性別の人のデータが含まれていても良い。そして、分析処理部120aは、単一の画像データを周波数変換した結果である各変換係数と、量子化閾値1と、量子化閾値2とを比較することにより、該当の変換係数値を「0」または「1」に置き換えることで、2段階に量子化する。
分析処理部120aは、画像データ中の変換係数を選択し、選択した変換係数が、量子化閾値1未満、または、量子化閾値2より大きい場合に、選択した変換係数を「1」に置き換える。
一方、分析処理部120aは、画像データ中の変換係数を選択し、選択した変換係数が、量子化閾値1以上、かつ、量子化閾値2以下の場合に、選択した変換係数を「0」に置き換える。分析処理部120aは、変換顔画像集データから抽出した画像データの変換係数全てを、上記の手法により、「0」または「1」の変換係数値に置き換えることにより、2段階に量子化する。
同様に、分析処理部120aは、変換顔画像集データに含まれる残りの画像データも、上記の手法により2段階に量子化する。そして、分析処理部120aは、量子化した各画像データの各変換係数値(各画像データの同一位置に対応する変換係数値)を比較し、変換係数値「0」、「1」の頻度に基づいて、顔学習データを作成する。例えば、画像データ中の位置(x1、y1)の変換係数値について、各画像データを比較したところ、変換係数値「0」の頻度よりも、変換係数値「1」の頻度のほうが大きい場合には、顔学習データ中の位置(x1、y1)の変換係数値を「1」に設定する。
図4は、顔学習データのデータ構造の一例を示す図である。図4に示すように、この顔学習データは、位置情報と変換係数値とを対応付けて記憶している。なお、顔学習データのデータ構造は、図4に示したものに限らず、例えば、物体検出時に比較する変換係数の塊(例えば、8つの変換係数)毎に変換係数値を対応付けて記憶させても良い。
次に、分析処理部120aが、非顔学習データを作成する処理について説明する。分析処理部120aは、変換非顔画像集データに含まれる画像データから単一の画像データを抽出する。そして、分析処理部120aは、各変換係数と、量子化閾値1と、量子化閾値2とを比較することにより、該当変換係数値を「0」または「1」に置き換えることにより、2段階に量子化する。
分析処理部120aは、画像データ中の変換係数を選択し、選択した変換係数が、量子化閾値1未満、または、量子化閾値2より大きい場合に、選択した変換係数値を「1」に置き換える。
一方、分析処理部120aは、画像データ中の変換係数を選択し、選択した変換係数が、量子化閾値1以上、かつ、量子化閾値2以下の場合に、選択した変換係数値を「0」に置き換える。分析処理部120aは、変換非顔画像集データから抽出した画像データの変換係数全てを、上記の手法により、「0」または「1」の変換係数値に置き換えることにより、2段階に量子化する。
同様に、分析処理部120aは、変換非顔画像集データに含まれる残りの画像データも、上記の手法により2段階に量子化する。そして、分析処理部120aは、量子化した各画像データの各変換係数値(各画像データの同一位置に対応する変換係数値)を比較し、変換係数値「0」、「1」の頻度に基づいて、非顔学習データを作成する。例えば、画像データ中の位置(x1、y1)の変換係数値について、各画像データを比較したところ、変換係数値「0」の頻度よりも、変換係数値「1」の頻度のほうが大きい場合には、非顔学習データ中の位置(x1、y1)の変換係数値を「1」に設定する。
図5は、非顔学習データのデータ構造の一例を示す図である。図5に示すように、この非顔学習データは、位置情報と変換係数値とを対応付けて記憶している。なお、非顔学習データのデータ構造は、図5に示したものに限らず、例えば、物体検出時に比較する変換係数の塊(例えば、8つの変換係数)毎に変換係数値を対応付けて記憶させても良い。
分析処理部120bは、周波数変換された入力画像データを取得した場合に、取得した入力画像データを2段階に量子化する処理部である。分析処理部120bは、量子化した入力画像データを記憶部130に出力する。以下の説明において、検出処理対象の画像から,顔検出対象の領域を切り出したものを入力画像データとし,比較対象データとも表記する。入力画像データは入力フレーム内の部分領域であって、顔画像検出用の領域である。
分析処理部120bが、比較対象データを作成する処理、すなわち、入力画像データを2段階に量子化する処理について具体的に説明する。分析処理部120bは、周波数変換された入力画像データの変換係数と、量子化閾値1と、量子化閾値2とを比較することにより、変換係数値を「0」または「1」に置き換えることで、2段階に量子化する。
分析処理部120bは、入力画像データ中の変換係数を選択し、選択した変換係数が、量子化閾値1未満、または、量子化閾値2より大きい場合に、選択した変換係数値を「1」に置き換える。
一方、分析処理部120bは、入力画像データ中の変換係数を選択し、選択した変換係数が、量子化閾値1以上、かつ、量子化閾値2以下の場合に、選択した変換係数値を「0」に置き換える。分析処理部120bは、変換顔画像集データから抽出した画像データの変換係数全てを、上記の手法により、「0」または「1」の変換係数値に置き換えることにより、入力画像データを2段階に量子化し、比較対象データを作成する。
図6は、比較対象データのデータ構造の一例を示す図である。図6に示すように、この比較対象データは、位置情報と変換係数値とを対応付けて記憶している。なお、比較対象データのデータ構造は、図6に示したものに限らず、例えば、物体検出時に比較するブロックの塊(例えば、8ブロック)毎に変換係数値と対応付けて記憶させても良い。
記憶部130は、分析処理部120aから出力される顔学習データ、非顔学習データ、分析処理部120bから出力される比較対象データを記憶する記憶部である。
顔検出処理部140は、記憶部130に記憶された顔学習データ130aと、非顔学習データ130bと、比較対象データ130cとを比較して、入力画像データに顔画像が含まれているか否かを判定する処理部である。顔検出処理部140は、判定結果を上位の処理部(図示略)に出力する。
図7は、顔検出処理部140の処理の一例を説明するための図である。具体的に、顔検出処理部140は、検出範囲を設定し、顔学習データ130a、非顔学習データ130b、比較対象データ130cの同一位置の検出範囲に含まれる各変換係数値をそれぞれ比較する。そして、顔検出処理部140は、比較した結果、比較対象データの検出範囲が顔学習データに類似しているのか、非顔学習データに類似しているのかを判定し、判定結果を比較結果テーブルに登録する。かかる比較結果テーブルは、顔検出処理部140が、保持しているものとする。
図8は、比較結果テーブルのデータ構造の一例を示す図である。図8に示すように、この比較結果テーブルは、検出範囲を識別する検出範囲識別情報と、比較結果とを対応付けて記憶している。顔検出処理部140は、顔学習データ130a、非顔学習データ130b、比較対象データ130cの検出範囲を比較した結果、顔学習データ130aに類似していると判定した場合には、比較結果に「マル」を登録し、非顔学習データ130bに類似していると判定した場合には、比較結果に「バツ」を登録する。
具体的に、図7を用いて説明する。ここでは一例として、現在、各画像データ130a〜130cに設定されている検出範囲の検出範囲識別情報を「1001」とする。顔検出処理部140が、比較対象データ130cの検出範囲の各変換係数値と、顔学習データ130aの検出範囲の各変換係数値とを比較すると、8つヒットする。
一方、顔検出処理部140が、比較対象データ130cの検出範囲の各変換係数値と、非顔学習データ130bの各変換係数値とを比較すると、1つヒットする。この場合、顔検出処理部140は、顔学習データ130aの方が、非顔学習データ130bよりもヒット数が多いので、検出範囲識別情報「1001」に対応する比較結果を「マル」に設定する。逆に非顔学習データ130bのほうがヒット数が多い場合は「バツ」を設定する。同数の場合には,ここでは,どちらにも設定しないこととする。
顔検出処理部140は、図9に示すように、検出範囲を移動させながら、比較結果テーブルの比較結果に「マル」または「バツ」を順次登録していく。図9は、検出範囲の移動の様子を説明するための図である。なお、顔検出処理部140が、検出範囲内の各変換係数値を比較する際には、顔学習データ130a、非顔学習データ130b、比較対象データ130c上に配置される検出範囲の位置が統一されているものとする。
そして、顔検出処理部140は、比較対象データ130c、顔学習データ130a、非顔学習データ130bの比較が終了した後に、比較結果テーブルを参照し、「バツ」の数よりも「マル」の数の方が多い場合には、入力画像に顔画像が含まれていると判定する。一方、「バツ」の数よりも「マル」の数のほうが少ない場合には、入力画像に顔画像が含まれていると判定する。なお、「バツ」の数と「マル」の数が等しい場合には、管理者の設定により、顔画像が含まれていると判定しても良いし、顔画像が含まれていないと判定しても良い。
なお、図7に示す例では、顔検出処理部140は、8つの変換係数毎に変換係数値を比較する例を示しているが、これに限定されるものではない。例えば、n(nは、自然数)変換係数毎に変換係数値を比較することも出来る。また、図8に示すように、必ずしも検出範囲毎に比較結果を保存する必要はなく、例えば、「マル」の数および「バツ」の数を集計し、集計結果のみを比較結果テーブルに保存しても良い。
次に、本実施例にかかる画像処理装置100の処理手順について説明する。図10は、本実施例にかかる画像処理装置100の処理手順を示すフローチャートである。図10に示すように、画像処理装置100は、入力画像データを取得し(ステップS101)、量子化処理を実行する(ステップS102)。
そして、画像処理装置100は、入力フレーム内のある部分領域である比較対象データ(入力画像)130cと、顔学習データ130aと、非顔学習データ130bとを比較して比較結果テーブルに「マル」または「バツ」を登録し(ステップS103)、「バツ」よりも「マル」の方が多いか否かを判定する(ステップS104)。
画像処理装置100は、「バツ」よりも「マル」の方が多い場合には(ステップS105,Yes)、入力画像に顔画像が存在すると判定し(ステップS106)、判定結果を出力する(ステップS107)。一方、「バツ」よりも「マル」の方が少ない場合には(ステップS105,No)、入力画像に顔画像が存在しないと判定し(ステップS108)、ステップS107に移行する。
次に、図10のステップS102に示した量子化処理の処理手順について説明する。図11は、量子化処理の処理手順を示すフローチャートである。図11に示すように、画像処理装置100は、入力画像データを周波数変換する(ステップS201)。
そして、画像処理装置100は、変換係数を選択し(ステップS202)、選択した変換係数が、量子化閾値1未満、または、変換係数が量子化閾値2よりも大きいか否かを判定する(ステップS203)。
画像処理装置100は、条件を満たす場合、すなわち、変換係数が、量子化閾値1未満、または、変換係数が量子化閾値2よりも大きい場合には(ステップS204,Yes)、対応する変換係数値を「1」に量子化し(ステップS205)、ステップS207に移行する。
一方、画像処理装置100は、条件を満たさない場合、すなわち、変換係数が、量子化閾値1以上、かつ、量子化閾値2以下の場合には(ステップS204,No)、対応する変換係数値を「0」に量子化し(ステップS206)、全ての変換係数を選択したか否かを判定する(ステップS207)。
画像処理装置100は、全ての変換係数を選択した場合には(ステップS208,Yes)、量子化処理を終了する。一方、画像処理装置100は、全ての変換係数を選択していない場合には(ステップS208,No)、未選択の変換係数を選択し(ステップS209)、ステップS203に移行する。
上述してきたように、本実施例にかかる画像処理装置100は、物体検出にて利用する画像データ(顔画像集データ、非顔画像集データ、入力画像データ)を量子化する場合に、画像データ内の被写体(例えば、人物の顔)の特徴が現れている領域(画素)を第1の変換係数値に置き換え、画像データ内の被写体の特徴が現れていない領域を第2の変換係数値に置き換えることにより、画像データを2段階に量子化することにより顔学習データ130a、非顔学習データ130b、比較対象データ130cを作成するので、画像データを最適に削減することができる。
また、本実施例にかかる画像処理装置100は、画像データの特徴の有無を基にして2段階の量子化を実行するので、オリジナルの画像の特徴が失われてしまうことを防止して、省メモリ化を実現しつつ、従来技術の物体検出と同様の高い検出率を保つことができる。
なお、本実施例にかかる画像処理装置100は、一例として、周波数変換(ウェーブレット変換)を行い、ウェーブレット変換の変換係数を基にして画像データを量子化していたが、これに限定されるものではない。例えば、画像処理装置100は、勾配検出またはエッジ検出を行い、勾配の大きさまたはエッジの強度を基にして、量子化しても良い。
すなわち、画像処理装置100は、勾配検出を実行した結果、勾配の所定値未満となる領域を特徴なしと判定して「0」に量子化し、勾配の所定値以上となる領域を特徴ありとして「1」に量子化する。あるいは、画像処理装置100は、エッジ検出を行った結果、エッジの強度が所定値未満となる領域を特徴なしと判定して「0」に量子化し、エッジの強度が所定値以上となる領域を特徴ありとして「1」に量子化する。
また、本実施例にかかる画像処理装置100は、変換係数と、量子化閾値1と、量子化閾値2とを比較して、画像データを量子化したが、単に、変換係数の絶対値と、量子化閾値2とを比較して、画像データを量子化してもよい。
すなわち、画像処理装置100は、変換係数の絶対値が、量子化閾値2未満となる領域を特徴なしと判定して「0」に量子化し、変換係数の絶対値が、量子化閾値2以上となる領域を特徴ありとして「1」に量子化する。
また、本実施例にて述べた上記の量子化方法(量子化閾値1と量子化閾値2を用いるもの、および、絶対値を用いるもの)を、公知の顔検出技術と組み合わせて実施することも有効である。たとえば、[非特許文献1]と組み合わせることが可能である。この場合は、[非特許文献1]の三階調の量子化(0,1,2)を、「三階調の0と2」を「二階調の1」とし、「三階調の1」を「二階調の0」としても良い。この方法によれば、[非特許文献1]の処理をほぼそのまま活用しつつ、3の8乗に比例したデータサイズを、2の8乗に比例したサイズに大幅に削減できる。
また、以上の実施例においては、辞書データ作成と検出処理とを一体化した構成として示した。実施形態は、このような一体型に限られるものではなく、辞書データ作成までを行う部分と、検出処理を行う部分に分離した構成としてもよい。その場合、作成した辞書データを、検出処理を行う装置において保持する構成となる。
ところで、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図3に示した画像処理装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。なお、本実施例で説明した各種の処理手順は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。
図12は、本実施例にかかる画像処理装置100を構成するコンピュータのハードウェア構成を示す図である。図12に示すように、このコンピュータ(画像処理装置)30は、入力装置31、モニタ32、RAM(Random Access Memory)33、ROM(Read Only Memory)34、ネットワークを介して他の装置と通信を行う通信制御装置35、記憶媒体からデータを読み出す媒体読取装置36、カメラ37、CPU(Central Processing Unit)38、HDD(Hard Disk Drive)39をバス40で接続している。
そして、HDD39には、上述した画像処理装置100の機能と同様の機能を発揮する画像処理プログラム39bが記憶されている。CPU38が、画像処理プログラム39bを読み出して実行することにより、画像処理プロセス38aが起動される。
ここで、画像処理プロセス38aは、図3の変換処理部110a,110b、分析処理部120a,120b、顔検出処理部140に対応する。また、HDD39は、画像処理装置100の記憶部130に記憶される情報に対応する各種データ39aを記憶する。CPU38は、HDD39に格納された各種データ39aを読み出して、RAM33に格納し、RAM33に格納された各種データ33aを利用して、画像データの量子化、物体検出を実行する。
ところで、図12に示した画像処理プログラム39bは、必ずしも最初からHDD39に記憶させておく必要はない。たとえば、コンピュータに挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、または、コンピュータの内外に備えられるハードディスクドライブ(HDD)などの「固定用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータに接続される「他のコンピュータ(またはサーバ)」などに画像処理プログラム39bを記憶しておき、コンピュータがこれらから画像処理プログラム39bを読み出して実行するようにしてもよい。

Claims (6)

  1. 入力画像を取得した場合に、前記入力画像内の濃淡特徴値を抽出する濃淡特徴抽出手段と、
    前記入力画像内の濃淡特徴値と、中間値よりも小さい第1の閾値および前記中間値よりも大きい第2の閾値とを基にして、前記第1の閾値よりも小さい濃淡特徴値を持つ前記入力画像内の領域、および、前記第2の閾値よりも大きい濃淡特徴値を持つ前記入力画像内の領域を第1の画素値に置き換え、前記入力画像内の残りの領域を第2の画素値に置き換えることにより、前記入力画像を2段階に量子化する量子化手段と、
    前記量子化手段により量子化された複数枚の顔画像の特徴を含んだ辞書データを記憶する記憶手段と、
    前記量子化手段により量子化された検出対象画像に対して、前記記憶手段から読み出した辞書データを用いて顔検出を行う検出手段と、
    を有することを特徴とする画像処理装置。
  2. 前記濃淡特徴抽出手段は、前記入力画像に対する勾配算出またはエッジ検出を行い、勾配の大きさまたはエッジの強度を前記濃淡特徴値として抽出することを特徴とする請求項に記載の画像処理装置。
  3. 前記濃淡特徴抽出手段は、前記入力画像に対して周波数変換を行い、周波数成分の大きさを前記濃淡特徴値として抽出することを特徴とする請求項に記載の画像処理装置。
  4. 前記量子化手段は、前記入力画像内の前記濃淡特徴値の絶対値と、前記第2の閾値とを基にして、前記第2の閾値よりも大きい前記濃淡特徴値の絶対値を持つ前記入力画像内の領域を前記第1の画素値に置き換え、前記入力画像内の残りの領域を第2の画素値に置き換えることにより、前記入力画像を2段階に量子化することを特徴とする請求項に記載の画像処理装置。
  5. 前記濃淡特徴抽出手段は、周波数変換としてウェーブレット変換を用いることを特徴とする請求項に記載の画像処理装置。
  6. 画像処理装置が、
    入力画像を取得した場合に、前記入力画像内の濃淡特徴値を抽出する抽出ステップと、 前記入力画像内の濃淡特徴値と、中間値よりも小さい第1の閾値および前記中間値よりも大きい第2の閾値とを基にして、前記第1の閾値よりも小さい濃淡特徴値を持つ前記入力画像内の領域、および、前記第2の閾値よりも大きい濃淡特徴値を持つ前記入力画像内の領域を第1の画素値に置き換え、前記入力画像内の残りの領域を第2の画素値に置き換えることにより、前記入力画像を2段階に量子化する量子化ステップと、
    前記量子化ステップにより量子化された複数枚の顔画像の特徴を含んだ辞書データを記憶装置に記憶する記憶ステップと、
    前記量子化ステップにより量子化された検出対象画像に対して、前記記憶装置から読み出した辞書データを用いて顔検出を行う検出ステップと、
    を含んだことを特徴とする画像処理方法。
JP2010529527A 2008-09-17 2008-09-17 画像処理装置および画像処理方法 Expired - Fee Related JP4779057B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/066788 WO2010032295A1 (ja) 2008-09-17 2008-09-17 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP4779057B2 true JP4779057B2 (ja) 2011-09-21
JPWO2010032295A1 JPWO2010032295A1 (ja) 2012-02-02

Family

ID=42039149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010529527A Expired - Fee Related JP4779057B2 (ja) 2008-09-17 2008-09-17 画像処理装置および画像処理方法

Country Status (3)

Country Link
US (1) US8548210B2 (ja)
JP (1) JP4779057B2 (ja)
WO (1) WO2010032295A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105844253A (zh) * 2016-04-01 2016-08-10 乐视控股(北京)有限公司 移动终端图像识别的数据比对方法及装置
CN117409397B (zh) * 2023-12-15 2024-04-09 河北远东通信系统工程有限公司 一种基于位置概率的实时人像比选方法、装置及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246618A (ja) * 2003-02-13 2004-09-02 Toshiba Corp パターン認識における照合に用いられる画像の生成ならびに同画像を用いたパターン認識のための方法、装置、およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05149888A (ja) * 1991-03-12 1993-06-15 Nec Corp 傷検査装置
US7035473B1 (en) * 2000-03-01 2006-04-25 Sharp Laboratories Of America, Inc. Distortion-adaptive visual frequency weighting
US6829384B2 (en) * 2001-02-28 2004-12-07 Carnegie Mellon University Object finder for photographic images
JP2006268825A (ja) * 2005-02-28 2006-10-05 Toshiba Corp オブジェクト検出装置、学習装置、オブジェクト検出システム、方法、およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246618A (ja) * 2003-02-13 2004-09-02 Toshiba Corp パターン認識における照合に用いられる画像の生成ならびに同画像を用いたパターン認識のための方法、装置、およびプログラム

Also Published As

Publication number Publication date
US20110228990A1 (en) 2011-09-22
JPWO2010032295A1 (ja) 2012-02-02
US8548210B2 (en) 2013-10-01
WO2010032295A1 (ja) 2010-03-25

Similar Documents

Publication Publication Date Title
US8818104B2 (en) Image processing apparatus and image processing method
JP4719825B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
KR20180109665A (ko) 객체 검출을 위한 영상 처리 방법 및 장치
US9311567B2 (en) Manifold learning and matting
JP2009211179A (ja) 画像処理方法、パターン検出方法、パターン認識方法及び画像処理装置
US20110268319A1 (en) Detecting and tracking objects in digital images
JP2010262601A (ja) パターン認識システム及びパターン認識方法
JP2005190474A5 (ja)
JP4947216B2 (ja) 画像処理装置および画像処理方法
CN111553838A (zh) 模型参数的更新方法、装置、设备及存储介质
JP4779057B2 (ja) 画像処理装置および画像処理方法
Shivakumara et al. A new RGB based fusion for forged IMEI number detection in mobile images
JP2009169518A (ja) 領域識別装置およびコンテンツ識別装置
CN112788254B (zh) 摄像头抠像方法、装置、设备及存储介质
CN110321896A (zh) 黑头识别方法、装置及计算机可读存储介质
CN108877030A (zh) 图像处理方法、装置、终端和计算机可读存储介质
JP4802297B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US20120170861A1 (en) Image processing apparatus, image processing method and image processing program
JP4441300B2 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよびこのプログラムを記憶した記録媒体
CN108804652B (zh) 封面图片的生成方法、装置、存储介质和电子装置
CN110782392A (zh) 图像处理方法、装置、电子设备及存储介质
CN111209863B (zh) 一种活体模型训练和人脸活体检测方法、装置和电子设备
CN113486788A (zh) 视频相似度确定方法、装置、电子设备及存储介质
JP2007257469A (ja) 類似判別装置および方法並びにプログラム
CN115359524A (zh) 人脸特征库的构建方法、人物风格图像的识别方法及装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110628

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110704

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees