JP4802297B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP4802297B2
JP4802297B2 JP2010529528A JP2010529528A JP4802297B2 JP 4802297 B2 JP4802297 B2 JP 4802297B2 JP 2010529528 A JP2010529528 A JP 2010529528A JP 2010529528 A JP2010529528 A JP 2010529528A JP 4802297 B2 JP4802297 B2 JP 4802297B2
Authority
JP
Japan
Prior art keywords
quantization
image
quantization threshold
frequency component
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010529528A
Other languages
English (en)
Other versions
JPWO2010032296A1 (ja
Inventor
珊珊 于
雅芳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of JP4802297B2 publication Critical patent/JP4802297B2/ja
Publication of JPWO2010032296A1 publication Critical patent/JPWO2010032296A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

本発明は、画像データを量子化する画像処理装置、画像処理方法および画像処理プログラムに関するものである。
近年、カメラ等によって撮影された画像中から、各種の物体(例えば、人物の顔、車等)を検出する物体検出の研究が行われている。物体検出の技術は、予め、検出対象となる物体の特徴を学習して学習データを作成し、作成した学習データと、画像データとを比較することで、画像中に検出対象となる物体が存在するか否かを判定する技術である。
また、画像データそのものの情報量は膨大であり、物体検出の技術では、画像中に検索対象となる物体が存在しているか否かを判定できればよいので、情報の量子化技術を利用して画像データを削減し、メモリ資源を節約する必要がある。
情報の量子化技術には、画像データを周波数変換(ウェーブレット<Wavelet>変換)し、変換結果となる変換係数の大小(または、隣り合う画素同士の画素値の差分の大小)から量子化処理を行う技術がある(例えば、非特許文献1参照)。かかる量子化処理では、変換係数と、静的に設定した量子化閾値とを比較することにより、画像データを3段階に量子化するので、物体検出に用いられる画像データ、学習データの記憶領域を削減することが可能となる。
なお、画像圧縮の技術分野ではあるが、画像の圧縮前と圧縮後との画素値の差分(歪み)に基づいて画像の周波数成分毎の量子化ステップを変化させることで、量子化後に復元した画像の劣化を防止するという技術が知られている(例えば、特許文献1参照)。
特開2001−298366号公報 H.Schneiderman and T. Kanade, Object Detection Using the Statistics of Parts To appear in International Journal of Computer Vision,2002.
しかしながら、上述した従来の技術では、変換係数と、静的な量子化閾値とを比較して量子化処理を実行しているため、処理対象となる画像の多様性に対応しづらく、物体検出の精度が低下してしまうという問題があった。
すなわち、物体検出で処理対象とすべき画像は、明るい画像、暗い画像、逆光画像など、様々なタイプが考えられる。いずれのタイプの画像でも、精度よく物体検出を行う場合には、物体検出に必要な被写体の特徴を残したまま量子化することが望ましい。
なお、周知技術のように、画像の圧縮前と圧縮後との画素値の差分に基づいて画像の周波数成分毎の量子化ステップを変化することで、画像劣化を防止する技術も存在するが、物体検出では、画像圧縮を行わないので、かかる技術を適用することが出来ない。
この発明は、上述した従来技術による問題点を解消するためになされたものであり、処理対象となる画像の多様性に対応して物体検出の精度を向上させることができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、この画像処理装置は、入力画像を、複数の周波数成分に変換する変換手段と、前記変換手段により変換された前記入力画像の複数の周波数成分のうち、第1の周波数成分に対する第1の量子化閾値を、前記第1の周波数成分の統計値に基づいて算出する第1の量子化閾値算出手段と、前記第1の量子化閾値算出手段によって算出された第1の量子化閾値に基づいて、前記複数の周波数成分のうち、前記第1の周波数成分以外の第2の周波数成分に対する第2の量子化閾値を算出する第2の量子化閾値算出手段と、前記第1の周波数成分には前記第1の量子化閾値を用いて、前記第2の周波数成分には前記第2の量子化閾値を用いて、それぞれ量子化を行う量子化手段と、を有することを要件とする。
この画像処理装置によれば、画像の特徴を現している第1の周波数成分に対して算出した量子化閾値を、他の周波数成分の量子化閾値の算出に利用することで、他の周波数成分の量子化閾値の算出を簡略化でき、処理の高速化を図ることができる。
図1は、動的量子化を実行する画像処理装置の構成を示す機能ブロック図である。 図2は、量子化閾値の算出方法の一例を説明するための図である。 図3は、動的量子化と静的量子化の効果の違いを説明するための図である。 図4は、本実施例にかかる画像処理装置の概要を説明するための図である。 図5は、各周波数成分の相関性を説明するための図である。 図6は、本実施例にかかる画像処理装置の構成を示す機能ブロック図である。 図7は、顔学習データのデータ構造の一例を示す図である。 図8は、非顔学習データのデータ構造の一例を示す図である。 図9は、比較対象データのデータ構造の一例を示す図である。 図10は、顔検出処理部の処理の一例を説明するための図である。 図11は、比較結果テーブルのデータ構造の一例を示す図である。 図12は、検出範囲の移動の様子を説明するための図である。 図13は、本実施例にかかる画像処理装置の処理手順を示すフローチャートである。 図14は、量子化処理の処理手順を示すフローチャートである。 図15は、本実施例にかかる画像処理装置を構成するコンピュータのハードウェア構成を示す図である。
符号の説明
10,100 画像処理装置
11,20 周波数変換処理部
12a,12b,12c,21 ヒストグラム算出部
13a,13b,13c,22a,22b,22c 量子化閾値算出部
14,23 量子化部
30 コンピュータ
31 入力装置
32 モニタ
33 RAM
33a,39a 各種データ
34 ROM
35 通信制御装置
36 媒体読取装置
37 カメラ
38 CPU
38a 画像処理プロセス
39 HDD
39b 画像処理プログラム
110a,110b 変換処理部
120a,120b 分散処理部
130 記憶部
130a 顔学習データ
130b 非顔学習データ
130c 比較対象データ
140 顔検出処理部
以下に、本発明にかかる画像処理装置、画像処理方法および画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
まず、本願発明の内容を説明する前に、本願発明を考案する前のステップとして発明者が考案した動的量子化処理について説明する。以下に説明する動的量子化処理は、周知技術ではない。
従来の量子化処理では、画像データを周波数変換した後に、変換係数と、静的に設定した量子化閾値(利用者が予め設定した閾値)とを比較することにより、画像データを3段階に量子化していた。一方、発明者の考案した動的量子化では、画像データを周波数変換した結果から得られる各周波数成分について、ヒストグラムをそれぞれ算出し、算出したヒストグラムに基づいて、量子化閾値を動的に算出する。
このように、動的量子化処理では、画像データの特徴にあわせて量子化閾値を動的に算出するので、画像データを最適に量子化することができる。そして、かかる動的処理を物体検出処理に適用すれば、メモリ資源を節約しつつ、物体検出の精度を向上させることが出来る。
次に、上述した動的量子化を実行する画像処理装置の構成について説明する。図1は、動的量子化を実行する画像処理装置10の構成を示す機能ブロック図である。同図に示すように、この画像処理装置10は、周波数変換処理部11と、ヒストグラム算出部12a〜12cと、量子化閾値算出部13a〜13cと、量子化部14とを有する。ここでは一例として、ヒストグラム算出部12a〜12c、量子化閾値算出部13a〜13cのみを示すが、この画像処理装置10は、その他にも、ヒストグラム算出部、量子化閾値算出部を有しているものとする。
このうち、周波数変換処理部11は、画像データを取得し、取得した画像データに対して周波数変換処理(例えば、ウェーブレット変換)を実行する処理部である。画像データに対する周波数変換処理は、周知技術と同様である。周波数変換処理部11は、周波数変換した画像データをヒストグラム算出部12a〜12cに出力する。
ヒストグラム算出部12a〜12cは、周波数変換処理部11から周波数変換された画像データを取得した場合に、取得した画像データから、予め設定された周波数成分を抽出し、抽出した周波数成分に対応する変換係数と頻度とからなるヒストグラムを算出する処理部である。ここでは一例として、第1の周波数成分、第2の周波数成分、第3の周波数成分を用いて説明する。ただし、第1の周波数>第2の周波数>第3の周波数とする。
ヒストグラム算出部12aは、周波数変換処理部11から周波数変換された画像データを取得した場合に、取得した画像データから、第1の周波数成分を抽出し、抽出した第1の周波数成分に対応する変換係数と頻度との関係を示すヒストグラムを算出する。
ヒストグラム算出部12bは、周波数変換処理部11から周波数変換された画像データを取得した場合に、取得した画像データから第2の周波数成分を抽出し、抽出した第2の周波数成分に対応する変換係数と頻度との関係を示すヒストグラムを算出する。
ヒストグラム算出部12cは、周波数変換処理部11から周波数変換された画像データを取得した場合に、取得した画像データから第3の周波数成分を抽出し、抽出した第3の周波数成分に対応する変換係数と頻度との関係を示すヒストグラムを算出する。
量子化閾値算出部13aは、ヒストグラム算出部12aが算出したヒストグラムに基づいて、量子化閾値を算出する処理部である。量子化閾値算出部13aは、算出した量子化閾値Q1、Q2を、量子化部14に出力する。
図2は、量子化閾値の算出方法の一例を説明するための図である。例えば、量子化閾値算出部13aは、予め、規定値C1、C2を設定しておき、ヒストグラムに含まれる全てのデータ量A(ヒストグラムの線と、横軸との間の領域に含まれるデータ量)を特定し、データ量B/データ量AがC1となるような量子化閾値Q1を算出する。また、データ量C/データ量AがC2となるような量子化閾値Q2を算出する。
ここで、データ量Bは、ヒストグラムの線、横軸、量子化閾値Q1からの垂線に囲まれた領域のデータ量であり、データ量Cは、ヒストグラムの線、横軸、量子化閾値Q2からの垂線に囲まれた領域のデータ量である。ヒストグラムの形状によって、量子化閾値Q1、Q2は左右に移動する。すなわち、各種の画像データに応じて、量子化閾値Q1、Q2は動的に算出されるので、処理対象となる画像データの多様性に対応することができる。
量子化閾値算出部13bは、ヒストグラム算出部12bが算出したヒストグラムに基づいて、量子化閾値を算出する処理部であり、算出した量子化閾値Q1、Q2を量子化部14に出力する。量子化閾値算出部13cは、ヒストグラム算出部12cが算出したヒストグラムに基づいて、量子化閾値を算出する処理部であり、算出した量子化閾値Q1、Q2を量子化部14に出力する。量子化閾値算出部13b、13cの処理は、量子化閾値算出部13aと同様である。
量子化部14は、量子化閾値算出部13a〜13cから取得する量子化閾値を基にして、画像データを量子化する処理部である。具体的に、量子化部14は、量子化閾値算出部13aから取得する量子化閾値Q1、Q2と、第1の周波数成分における変換係数とを比較して、画像データを3段階に量子化する。例えば、量子化部14は、画像データ中の領域(ブロック)において、量子化閾値Q1未満となる変換係数の領域を「0」、量子化閾値Q1以上、かつ、量子化閾値Q2以下となる変換係数の領域を「1」、量子化閾値Q2より大きい変換係数の領域を「2」に置き換える。
また、量子化部14は、量子化閾値算出部13bから取得する量子化閾値Q1、Q2と、第2の周波数成分における変換係数とを比較して、画像データを3段階に量子化する。例えば、量子化部14は、画像データ中の領域において、量子化閾値Q1未満となる変換係数の領域を「0」、量子化閾値Q1以上、かつ、量子化閾値Q2以下となる変換係数の領域を「1」、量子化閾値Q2より大きい変換係数の領域を「2」に置き換える。
また、量子化部14は、量子化閾値算出部13cから取得する量子化閾値Q1、Q2と、第3の周波数成分における変換係数とを比較して、画像データを3段階に量子化する。例えば、量子化部14は、画像データ中の領域において、量子化閾値Q1未満となる変換係数の領域を「0」、量子化閾値Q1以上、かつ、量子化閾値Q2以下となる変換係数の領域を「1」、量子化閾値Q2より大きい変換係数の領域を「2」に置き換える。
図3は、動的量子化と静的量子化の効果の違いを説明するための図である。図3の(a)、(b)、(c)は、明るさの異なる画像データを量子化した場合の動的量子化およびし静的量子化の違いを示している。ただし、画像の明るさは、(a)<(b)<(c)とする。
図3の(b)では、動的量子化、静的量子化共に、良好に画像データを量子化することができる。しかし、図3の(a)では、画像が暗すぎるので、静的量子化を行うと、被写体(例えば、顔)の特徴が欠落し、適切に量子化することができない。一方、動的量子化を行うと、良好に画像データを量子化することができる。
また、図3の(c)では、画像が明るすぎるので、静的量子化を行うと、被写体の以外の物体の特徴が混在してしまい、適切に量子化することができない。一方、動的量子化を行うと、良好に画像データを量子化することができる。
しかしながら、上述した動的量子化では、画像データの多様性に対応して画像データを適切に量子化できるが、周波数成分毎にヒストグラムを算出することにより各周波数成分の量子化閾値を算出するので、各周波数成分に対応するヒストグラムを全て算出する必要があり、量子化処理を高速化することができないという課題があった。
次に、本実施例にかかる画像処理装置の概要について説明する。図4は、本実施例にかかる画像処理装置100の概要を説明するための図である。図4に示すように、画像処理装置100は、周波数変換処理部20と、ヒストグラム算出部21と、量子化閾値算出部22a〜22cと、量子化部23とを有する。
このうち、周波数変換処理部20は、画像データを取得し、取得した画像データに対して周波数変換処理(例えば、ウェーブレット変換)を実行する処理部である。画像データに対する周波数変換処理は、周知技術と同様である。周波数変換処理部20は、周波数変換した画像データをヒストグラム算出部21に出力する。
ヒストグラム算出部21は、周波数変換処理部20から周波数変換された画像データを取得した場合に、取得した画像データから、予め設定された周波数成分を抽出し、抽出した周波数成分に対応する変換係数と頻度とからなるヒストグラムを算出する処理部である。ここでは一例として、第1の周波数成分、第2の周波数成分、第3の周波数成分を用いて説明する。ただし、第1の周波数>第2の周波数>第3の周波数とする。
例えば、ヒストグラム算出部21は、第1の周波数成分を抽出し、抽出した周波数成分に対応する変換係数と頻度との関係を示すヒストグラムを算出する処理部である。ヒストグラム算出部21は、算出したヒストグラムの情報を量子化閾値算出部22aに出力する。
量子化閾値算出部22aは、ヒストグラム算出部21が算出したヒストグラムに基づいて、第1の周波数成分に対応する量子化閾値Q1、Q2を算出する処理部である。なお、量子化閾値算出部22aが量子化閾値Q1、Q2を算出する処理は、図1に示した量子化閾値算出部13aと同様である。量子化閾値算出部22aは、第1の周波数成分に対応する量子化閾値Q1、Q2を、量子化閾値算出部22b、22cおよび量子化部23に出力する。
量子化閾値算出部22bは、量子化閾値算出部22aから、第1の周波数成分に対応する量子化閾値Q1、Q2を取得し、取得した量子化閾値に基づいて、第2の周波数成分に対応する量子化閾値Q1、Q2を算出する処理部である。量子化閾値算出部22bは、算出した第2の周波数成分に対応する量子化閾値Q1、Q2を量子化部23に出力する。
具体的に、量子化閾値算出部22bが、第2の周波数成分に対応する量子化閾値Q1、Q2を算出する場合には、例えば、第1の周波数成分に対応する量子化閾値Q1、Q2にn(nは整数)を乗算することにより第2の周波数成分に対応する量子化閾値Q1、Q2を算出する。
量子化閾値算出部22cは、量子化閾値算出部22aから、第1の周波数成分に対応する量子化閾値Q1、Q2を取得し、取得した量子化閾値に基づいて、第3の周波数成分に対応する量子化閾値Q1、Q2を算出する処理部である。量子化閾値算出部22cは、算出した第3の周波数成分に対応する量子化閾値Q1、Q2を量子化部23に出力する。
具体的に、量子化閾値算出部22cが、第3の周波数成分に対応する量子化閾値Q1、Q2を算出する場合には、例えば、第1の周波数成分に対応する量子化閾値Q1、Q2にm(mはnよりも大きい整数)を乗算することにより第3の周波数成分に対応する量子化閾値Q1、Q2を算出する。
量子化部23は、量子化閾値算出部22a〜22cから取得する量子化閾値を基にして、画像データを量子化する処理部である。具体的な処理は、図1に示した量子化部14と同様である。
このように、本実施例にかかる画像処理装置100は、画像データを複数の周波数成分に変換した後、所定の周波数成分に対する量子化閾値を、所定の周波数成分のヒストグラム(統計値)に基づいて算出し、その他の周波数成分のヒストグラムを算出する処理を省略する。そして、画像処理装置100は、算出した量子化閾値に基づいて、残りの周波数成分に対する量子化閾値を算出した後に、画像データを量子化するので、量子化処理を高速化することができる。
図5は、各周波数成分の相関性を説明するための図である。ここでは、第一の周波数成分として、元画像を周波数変換した結果の横方向の高周波成分を用いている。また、第二の周波数成分として、元画像を周波数変換した結果の縦方向の高周波成分を用いている。また、第三の周波数成分として、元画像を周波数変換した結果の斜め方向の周波数成分を用いている。図5に示すように、画像データの周波数成分は、それぞれ相関しているので、全ての周波数成分に対応するヒストグラムを算出しなくても、上述した手法によって、各周波数成分に対応する量子化閾値を精度よく算出することができる。
次に、本実施例にかかる画像処理装置の構成について説明する。図6は、本実施例にかかる画像処理装置100の構成を示す機能ブロック図である。図6に示すように、この画像処理装置100は、変換処理部110a,110bと、分析処理部120a,120bと、記憶部130と、顔検出処理部140とを有する。
変換処理部110aは、顔画像集データおよび非顔画像集データを取得し、取得した顔画像集データおよび非顔画像集データに対して周波数変換処理(例えば、ウェーブレット変換)を実行する処理部である。変換処理部110aは、図4に示した周波数変換部20に対応する。
ここで、顔画像集データは、様々な人物の顔画像を集めた画像データであり、非顔画像集データは、顔画像以外の各種の画像を集めた画像データである。また、顔画像集データのサイズおよび非顔画像集データのサイズは統一されているものとする。ここで、顔画像集データに含まれる画像データは、顎から頭をほぼ含む上下幅、両耳をほぼ含む左右幅で、顔を全面に写した画像群で構成されている。もちろん、多様な顔を検出するための学習データであるので、真正面から顔を写したデータのほかに、斜め上や下や左や右を向いたデータや、帽子や眼鏡を掛けた顔のデータ、様々な年齢や性別の人のデータが含まれていても良い。非顔画像集データは、顔を含まない様々な画像データで構成されている。
変換処理部110aは、入力装置、記憶装置(図示略)等から顔画像集データおよび非顔画像集データを取得する。変換処理部110aは、周波数変換した顔画像集データおよび非顔画像集データを分析処理部120aに出力する。以下の説明において、周波数変換した顔画像集データを変換顔画像集データと表記し、周波数変換した非顔画像集データを変換非顔画像集データと表記する。
変換処理部110bは、入力画像データを取得し、取得した入力画像データに対して周波数変換処理(例えば、ウェーブレット変換)を実行する処理部である。変換処理部110bは、図4に示した周波数変換部20に対応する。なお、入力画像データは、物体検出対象となる画像データである。変換処理部110bは、入力装置、記憶装置(図示略)等から入力画像データを取得する。変換処理部110bは、周波数変換した入力画像データを分析処理部120bに出力する。
分析処理部120aは、変換顔画像集データおよび変換非顔画像データを取得した場合に、変換顔画像集データを量子化することにより顔学習データを作成し、変換非顔画像集データを量子化することにより非顔学習データを作成する処理部である。
分析処理部120aが、変換顔画像集データを量子化して顔学習データを作成する処理は、図4に示した、ヒストグラム算出部21、量子化閾値算出部22a〜22c、量子化部23と同様である。分析処理部120aは、作成した顔学習データを記憶部130に出力する。
また、分析処理部120aが、変換非顔画像集データを量子化して非顔学習データを作成する処理は、図4に示した、ヒストグラム算出部21、量子化閾値算出部22a〜22c、量子化部23と同様である。分析処理部120aは、作成した非顔学習データを記憶部130に出力する。
分析処理部120bは、周波数変換された入力画像データを取得した場合に、取得した入力画像データを3段階に量子化する処理部である。なお,入力画像データとは,顔検出処理対象(入力されるフレームそのもの)から切り出した画像を意味し,これが比較対象データに相当する。顔検出対象のフレーム全体の中に,どのような大きさの顔が含まれているかはわからないので、比較対象データを複数種類の大きさに変化させて、また、フレーム内で切り出し位置をずらしながら切り出して、比較対象データの領域を設定することになる。分析処理部120bが入力画像データを取得し、比較対象データを作成する処理は、図4に示した、ヒストグラム算出部21、量子化閾値算出部22a〜22c、量子化部23と同様である。
記憶部130は、分析処理部120aから出力される顔学習データ130a、非顔学習データ130b、分析処理部120bから出力される比較対象データ130cを記憶する記憶部である。
図7は、顔学習データ130aのデータ構造の一例を示す図である。図7に示すように、この顔学習データ130aは、位置情報と変換係数値(量子化後の値)とを対応付けて記憶している。なお、顔学習データ130aのデータ構造は、図7に示したものに限らず、例えば、物体検出時に比較する変換係数の塊(例えば、8係数)毎に変換係数値を対応付けて記憶させても良い。
図8は、非顔学習データ130bのデータ構造の一例を示す図である。図8に示すように、この非顔学習データ130bは、位置情報と変換係数値(量子化後の値、図中では数値情報と表記)とを対応付けて記憶している。なお、非顔学習データ130bのデータ構造は、図8に示したものに限らず、例えば、物体検出時に比較する変換係数の塊(例えば、8係数)毎に変換係数値を対応付けて記憶させても良い。
図9は、比較対象データ130cのデータ構造の一例を示す図である。同図に示すように、この比較対象データ130cは、位置情報と変換係数値(量子化後の値、図中では数値情報と表記)とを対応付けて記憶している。なお、比較対象データ130cのデータ構造は、図9に示したものに限らず、例えば、物体検出時に比較する変換係数の塊(例えば、8変換係数)毎に変換係数値を対応付けて記憶させても良い。
顔検出処理部140は、記憶部130に記憶された顔学習データ130aと、非顔学習データ130bと、比較対象データ130cとを比較して、入力画像データに顔画像が含まれているか否かを判定する処理部である。顔検出処理部140は、判定結果を上位の処理部(図示略)に出力する。
図10は、顔検出処理部140の処理の一例を説明するための図である。具体的に、顔検出処理部140は、検出範囲を設定し、顔学習データ130a、非顔学習データ130b、比較対象データ130cの同一位置の検出範囲に含まれる各変換係数値をそれぞれ比較する。そして、顔検出処理部140は、比較した結果、比較対象データの検出範囲が顔学習データに類似しているのか、非顔学習データに類似しているのかを判定し、判定結果を比較結果テーブルに登録する。かかる比較結果テーブルは、顔検出処理部140が、保持しているものとする。
図11は、比較結果テーブルのデータ構造の一例を示す図である。同図に示すように、この比較結果テーブルは、検出範囲を識別する検出範囲識別情報と、比較結果とを対応付けて記憶している。顔検出処理部140は、顔学習データ130a、非顔学習データ130b、比較対象データ130cの検出範囲を比較した結果、顔学習データ130aに類似していると判定した場合には、比較結果に「マル」を登録し、非顔学習データ130bに類似していると判定した場合には、比較結果に「バツ」を登録する。
具体的に、図10を用いて説明する。ここでは一例として、現在、各画像データ130a〜130cに設定されている検出範囲の検出範囲識別情報を「1001」とする。顔検出処理部140が、比較対象データ130cの検出範囲の各変換係数値と、顔学習データ130aの検出範囲の各変換係数値とを比較すると、8つヒットする。
一方、顔検出処理部140が、比較対象データ130cの検出範囲の各変換係数値と、非顔学習データ130bの各変換係数値とを比較すると、1つヒットする。この場合、顔検出処理部140は、顔学習データ130aの方が、非顔学習データ130bよりもヒット数が多いので、検出範囲識別情報「1001」に対応する比較結果を「マル」に設定する。逆に非顔学習データ130bのほうがヒット数が多い場合は「バツ」を設定する。同数の場合には,ここでは,どちらにも設定しないこととする。
顔検出処理部140は、図12に示すように、検出範囲を移動させながら、比較結果テーブルの比較結果に「マル」または「バツ」を順次登録していく。図12は、検出範囲の移動の様子を説明するための図である。なお、顔検出処理部140が、検出範囲内の各変換係数値を比較する際には、顔学習データ130a、非顔学習データ130b、比較対象データ130c上に配置される検出範囲の位置が統一されているものとする。
そして、顔検出処理部140は、比較対象データ130c、顔学習データ130a、非顔学習データ130aの比較が終了した後に、比較結果テーブルを参照し、「バツ」の数よりも「マル」の数の方が多い場合には、入力画像に顔画像が含まれていると判定する。一方、「バツ」の数よりも「マル」の数のほうが少ない場合には、入力画像に顔画像が含まれていないと判定する。なお、「バツ」の数と「マル」の数が等しい場合には、管理者の設定により、顔画像が含まれていると判定しても良いし、顔画像が含まれていないと判定しても良い。
なお、図10に示す例では、顔検出処理部140は、8ブロック毎に変換係数値を比較する例を示しているが、これに限定されるものではない。例えば、n(nは、自然数)変換係数毎に変換係数値を比較することも出来る。また、図11に示すように、必ずしも検出範囲毎に比較結果を保存する必要はなく、例えば、「マル」の数および「バツ」の数を集計し、集計結果のみを比較結果テーブルに保存しても良い。
次に、本実施例にかかる画像処理装置100の処理手順について説明する。図13は、本実施例にかかる画像処理装置100の処理手順を示すフローチャートである。図13に示すように、画像処理装置100は、入力画像データを取得し(ステップS101)、量子化処理を実行する(ステップS202)。
そして、画像処理装置100は、比較対象データ130cと、顔学習データ130aと、非顔学習データ130bとを比較して比較結果テーブルに「マル」または「バツ」を登録し(ステップS103)、「バツ」よりも「マル」の方が多いか否かを判定する(ステップS104)。
画像処理装置100は、「バツ」よりも「マル」の方が多い場合には(ステップS105,Yes)、入力画像に顔画像が存在すると判定し(ステップS106)、判定結果を出力する(ステップS107)。一方、「バツ」よりも「マル」の方が少ない場合には(ステップS105,No)、入力画像に顔画像が存在しないと判定し(ステップS108)、ステップS107に移行する。
次に、図13のステップS102で示した量子化処理の処理手順について説明する。図14は、量子化処理の処理手順を示すフローチャートである。図14に示すように、画像処理装置100は、入力画像データを周波数変換し(ステップS201)、第1の周波数成分に対応する量子化閾値を算出する(ステップS202)。
画像処理装置100は、第1の周波数成分に対応する量子化閾値に基づいて、残りの周波数成分に対応する量子化閾値を算出する(ステップS203)。
画像処理装置100は、選択したブロックに対応する変換係数と量子化閾値Q1、Q2とを比較して、変換係数を量子化し(ステップS204)、全てのブロック(領域)を選択したか否かを判定する(ステップS205)。
画像処理装置100は、全ての変換係数を選択した場合には(ステップS206,Yes)、量子化処理を終了する。一方、全ての変換係数を選択していない場合には(ステップS206,No)、未選択の変換係数を選択し(ステップS207)、ステップS204に移行する。
なお、前述のように、入力された顔検出対象のフレーム内にどのような大きさの顔が含まれているかはわからないので、比較対象データ(入力画像)を複数種類の大きさに変化させて、また、入力フレーム内で切り出し位置を走査するようにずらしながら切り出して、比較対象データの領域を設定することになる。
例えば、入力された顔検出対象のフレーム内から第一の大きさで比較対象データ領域を切り出しつつ、該比較対象データ領域でフレーム内を走査するように比較対象データ領域を設定する。そして第一の大きさの比較対象データによる走査が終了したら、比較対象データの大きさを第二の大きさに変更して、同様に、第二の大きさで比較対象データ領域を切り出しつつ、該比較対象データ領域でフレーム内を走査するように設定する。比較対象データを何段階の大きさにするかは、任意に設定して構わない。
そして、比較対象データの大きさおよび力された顔検出対象のフレーム内からの切り出し位置を変更するたびに、図14に示す閾値の設定および量子化の処理を行う。
上述してきたように、本実施例にかかる画像処理装置100は、画像データを複数の周波数成分に変換した後、所定の周波数成分に対する量子化閾値を、所定の周波数成分のヒストグラム(統計値)に基づいて算出し、その他の周波数成分のヒストグラムを算出する処理を省略する。そして、画像処理装置100は、算出した量子化閾値に基づいて、残りの周波数成分に対する量子化閾値を算出した後に、画像データを量子化するので、量子化処理を高速化することができる。また、動的に量子化閾値を算出するので、物体検出にかかる処理の精度を向上させることができる。
なお、本実施例にかかる画像処理装置100は、周波数変換した画像データの各周波数成分の中から、第1の周波数成分の量子化閾値を算出し、算出した量子化閾値からその他の周波数成分に対応する量子化閾値を算出していた。
ここで、画像処理装置100は、第1の周波数成分として、検出対象となる顔の特徴を含んでいる成分を選択することが望ましい。例えば、顔において、縦方向の情報(例えば、鼻)より、横方向の情報(目、口)の方が顔情報の特徴を多く含んでいるので、画像処理装置100は、横方向の情報を含んでいる画像データの変換係数(横方向の高周波成分)を選択する。
また、本実施例にて述べた上記の動的量子化方法を、公知の顔検出技術と組み合わせて実施することも有効である。たとえば、[非特許文献1]と組み合わせることが可能である。[非特許文献1]は、Wavelet変換係数を基準に、顔画像辞書、非顔画像辞書を用いるので、量子化処理のみを置き換えるかたちで、そのまま動作させることが可能である。上述の横方向の高周波成分を用いる方法も効果的である。
また、以上の実施例においては、辞書データ作成と検出処理を一体化した構成として示した。実施形態は、このような一体型に限られるものではなく、辞書データ作成までを行う部分と、検出処理を行う部分に分離した構成としてもよい。その場合、作成した辞書データを、検出処理を行う装置において保持する構成となる。
ところで、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図6に示した画像処理装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。なお、本実施例で説明した各種の処理手順は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。
図15は、本実施例にかかる画像処理装置100を構成するコンピュータのハードウェア構成を示す図である。図15に示すように、このコンピュータ(画像処理装置)30は、入力装置31、モニタ32、RAM(Random Access Memory)33、ROM(Read Only Memory)34、ネットワークを介して他の装置と通信を行う通信制御装置35、記憶媒体からデータを読み出す媒体読取装置36、カメラ37、CPU(Central Processing Unit)38、HDD(Hard Disk Drive)39をバス40で接続している。
そして、HDD39には、上述した画像処理装置100の機能と同様の機能を発揮する画像処理プログラム39bが記憶されている。CPU38が、画像処理プログラム39bを読み出して実行することにより、画像処理プロセス38aが起動される。
ここで、画像処理プロセス38aは、図6の変換処理部110a,110b、分析処理部120a,120b、顔検出処理部140に対応する。また、HDD39は、画像処理装置100の記憶部130に記憶される情報に対応する各種データ39aを記憶する。CPU38は、HDD39に格納された各種データ39aを読み出して、RAM33に格納し、RAM33に格納された各種データ33aを利用して、画像データの量子化、物体検出を実行する。
ところで、図15に示した画像処理プログラム39bは、必ずしも最初からHDD39に記憶させておく必要はない。たとえば、コンピュータに挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、または、コンピュータの内外に備えられるハードディスクドライブ(HDD)などの「固定用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータに接続される「他のコンピュータ(またはサーバ)」などに画像処理プログラム39bを記憶しておき、コンピュータがこれらから画像処理プログラム39bを読み出して実行するようにしてもよい。

Claims (6)

  1. 入力画像を複数の周波数成分に変換する変換手段と、
    前記変換手段により変換された前記入力画像の複数の周波数成分のうち、第1の周波数成分に対する第1の量子化閾値を、前記第1の周波数成分の統計値に基づいて算出する第1の量子化閾値算出手段と、
    前記第1の量子化閾値算出手段によって算出された第1の量子化閾値に基づいて、前記複数の周波数成分のうち、前記第1の周波数成分以外の第2の周波数成分に対する第2の量子化閾値を算出する第2の量子化閾値算出手段と、
    前記第1の周波数成分には前記第1の量子化閾値を用いて、前記第2の周波数成分には前記第2の量子化閾値を用いて、それぞれ量子化を行う量子化手段と、
    を有することを特徴とする画像処理装置。
  2. 前記変換手段は、被写体の検出対象となる検出対象画像と、当該検出対象画像に前記被写体が含まれているか否かを判定する場合に利用する辞書画像とを複数の周波数成分に変換し、前記第1の量子化閾値算出手段は、前記検出対象画像の第1の量子化閾値と、前記辞書画像の第1の量子化閾値とをそれぞれ算出し、前記第2の量子化閾値算出手段は、前記検出対象画像の第2の量子化閾値と、前記辞書画像の第2の量子化閾値とをそれぞれ算出し、前記量子化手段は、前記検出対象画像の第1の量子化閾値および第2の量子化閾値を基にして、前記検出対象画像を量子化し、前記辞書画像の第1の量子化閾値および第2の量子化閾値を基にして、前記辞書画像を量子化し、
    前記量子化手段によって量子化された検出対象画像と、量子化された辞書画像とを比較することにより、前記検出対象画像に被写体が含まれているか否かを判定する判定手段を更に有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の周波数成分は、前記入力画像の横方向の高周波成分であることを特徴とする請求項1または2に記載の画像処理装置。
  4. 画像処理装置が、
    入力画像を、複数の周波数成分に変換する変換ステップと、
    前記変換ステップにより変換された前記入力画像の複数の周波数成分のうち、第1の周波数成分に対する第1の量子化閾値を、前記第1の周波数成分の統計値に基づいて算出する第1の量子化閾値算出ステップと、
    前記第1の量子化閾値算出ステップによって算出された第1の量子化閾値に基づいて、前記複数の周波数成分のうち、前記第1の周波数成分以外の第2の周波数成分に対する第2の量子化閾値を算出する第2の量子化閾値算出ステップと、
    前記第1の周波数成分には前記第1の量子化閾値を用いて、前記第2の周波数成分には前記第2の量子化閾値を用いて、それぞれ量子化を行う量子化ステップと、
    を含んでいることを特徴とする画像処理方法。
  5. 前記変換ステップは、被写体の検出対象となる検出対象画像と、当該検出対象画像に前記被写体が含まれているか否かを判定する場合に利用する辞書画像とを複数の周波数成分に変換し、前記第1の量子化閾値算出ステップは、前記検出対象画像の第1の量子化閾値と、前記辞書画像の第1の量子化閾値とをそれぞれ算出し、前記第2の量子化閾値算出ステップは、前記検出対象画像の第2の量子化閾値と、前記辞書画像の第2の量子化閾値とをそれぞれ算出し、前記量子化ステップは、前記検出対象画像の第1の量子化閾値および第2の量子化閾値を基にして、前記検出対象画像を量子化し、前記辞書画像の第1の量子化閾値および第2の量子化閾値を基にして、前記辞書画像を量子化し、
    前記画像処理装置は、
    前記量子化ステップによって量子化された検出対象画像と、量子化された辞書画像とを比較することにより、前記検出対象画像に被写体が含まれているか否かを判定する判定ステップを更に含んでいることを特徴とする請求項に記載の画像処理方法。
  6. コンピュータに、
    入力画像を、複数の周波数成分に変換する変換手順と、
    前記変換ステップにより変換された前記入力画像の複数の周波数成分のうち、第1の周波数成分に対する第1の量子化閾値を、前記第1の周波数成分の統計値に基づいて算出する第1の量子化閾値算出手順と、
    前記第1の量子化閾値算出手順によって算出された第1の量子化閾値に基づいて、前記複数の周波数成分のうち、前記第1の周波数成分以外の第2の周波数成分に対する第2の量子化閾値を算出する第2の量子化閾値算出手順と、
    前記第1の周波数成分には前記第1の量子化閾値を用いて、前記第2の周波数成分には前記第2の量子化閾値を用いて、それぞれ量子化を行う量子化手順と、
    を実行させることを特徴とする画像処理プログラム。
JP2010529528A 2008-09-17 2008-09-17 画像処理装置、画像処理方法および画像処理プログラム Expired - Fee Related JP4802297B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/066789 WO2010032296A1 (ja) 2008-09-17 2008-09-17 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP4802297B2 true JP4802297B2 (ja) 2011-10-26
JPWO2010032296A1 JPWO2010032296A1 (ja) 2012-02-02

Family

ID=42039150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010529528A Expired - Fee Related JP4802297B2 (ja) 2008-09-17 2008-09-17 画像処理装置、画像処理方法および画像処理プログラム

Country Status (3)

Country Link
US (1) US8422790B2 (ja)
JP (1) JP4802297B2 (ja)
WO (1) WO2010032296A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9202108B2 (en) * 2012-04-13 2015-12-01 Nokia Technologies Oy Methods and apparatuses for facilitating face image analysis
CN106341689B (zh) * 2016-09-07 2019-04-23 中山大学 一种avs2量化模块和反量化模块的优化方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069996A (ja) * 2001-08-23 2003-03-07 Mitsubishi Electric Corp 画像情報量圧縮装置及び画像情報量圧縮方法
JP2006268825A (ja) * 2005-02-28 2006-10-05 Toshiba Corp オブジェクト検出装置、学習装置、オブジェクト検出システム、方法、およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7035473B1 (en) 2000-03-01 2006-04-25 Sharp Laboratories Of America, Inc. Distortion-adaptive visual frequency weighting
US6829384B2 (en) * 2001-02-28 2004-12-07 Carnegie Mellon University Object finder for photographic images
US20060193520A1 (en) 2005-02-28 2006-08-31 Takeshi Mita Object detection apparatus, learning apparatus, object detection system, object detection method and object detection program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069996A (ja) * 2001-08-23 2003-03-07 Mitsubishi Electric Corp 画像情報量圧縮装置及び画像情報量圧縮方法
JP2006268825A (ja) * 2005-02-28 2006-10-05 Toshiba Corp オブジェクト検出装置、学習装置、オブジェクト検出システム、方法、およびプログラム

Also Published As

Publication number Publication date
WO2010032296A1 (ja) 2010-03-25
JPWO2010032296A1 (ja) 2012-02-02
US20110229041A1 (en) 2011-09-22
US8422790B2 (en) 2013-04-16

Similar Documents

Publication Publication Date Title
JP4791598B2 (ja) 画像処理装置および画像処理方法
CN110532866B (zh) 视频数据检测方法、装置、计算机设备及存储介质
CN104504397A (zh) 一种基于人脸识别的监控视频摘要方法及系统
JP2008148298A (ja) 画像における異なった内容の領域を識別する方法、画像における異なった内容の領域を識別する装置、および画像における異なった内容の領域を識別するコンピュータ・プログラムを具現するコンピュータ読み取り可能な媒体
JP4719825B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN107886518B (zh) 图片检测方法、装置、电子设备及可读取存储介质
JP2005190474A5 (ja)
JP4947216B2 (ja) 画像処理装置および画像処理方法
US7873226B2 (en) Image encoding apparatus
US8218881B2 (en) Clustering processing method, clustering processing apparatus, and non-transitory computer-readable medium
JP4802297B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN109543593A (zh) 回放攻击的检测方法、电子设备及计算机可读存储介质
JP4779057B2 (ja) 画像処理装置および画像処理方法
Fonseca et al. Face detection in the compressed domain
Sun et al. A motion location based video watermarking scheme using ICA to extract dynamic frames
JP2005275854A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよびこのプログラムを記憶した記録媒体
CN112541429B (zh) 一种智能抓图方法、装置、电子设备以及存储介质
Tm et al. An efficient computational approach to balance the trade-off between image forensics and perceptual image quality
JP2008123245A (ja) 画像処理装置及び画像処理プログラム
US11778122B2 (en) Apparatus, method, and storage medium for removing shading dots
CN113344855A (zh) 降低乳腺超声病灶检测假阳率的方法、装置、设备及介质
Sadek et al. A skin-tone block-map algorithm for efficient image steganography
CN111831366A (zh) 一种图像数据的发送方法、装置及相关组件
Halim et al. Haar wavelet based reduced reference quality assessment technique for JPEG/JPEG2000 images
KR20100131550A (ko) 특징 되먹임을 이용한 얼굴 인식 방법

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110808

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4802297

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees