JP2010204947A - オブジェクト検出装置、オブジェクト検出方法、及び、プログラム - Google Patents

オブジェクト検出装置、オブジェクト検出方法、及び、プログラム Download PDF

Info

Publication number
JP2010204947A
JP2010204947A JP2009049579A JP2009049579A JP2010204947A JP 2010204947 A JP2010204947 A JP 2010204947A JP 2009049579 A JP2009049579 A JP 2009049579A JP 2009049579 A JP2009049579 A JP 2009049579A JP 2010204947 A JP2010204947 A JP 2010204947A
Authority
JP
Japan
Prior art keywords
combination
features
feature
feature amount
parallel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009049579A
Other languages
English (en)
Inventor
Yasuyuki Kokojima
快行 爰島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009049579A priority Critical patent/JP2010204947A/ja
Priority to US12/562,634 priority patent/US20100226578A1/en
Publication of JP2010204947A publication Critical patent/JP2010204947A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/446Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/955Hardware or software architectures specially adapted for image or video understanding using specific electronic processors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像の複数の特徴を抽出し、それらを組み合わせてオブジェクト検出を行う手法を高速に並列処理すること。
【解決手段】画像の互いに異なる特徴毎に設けられ、一の注目領域から特徴を抽出する処理を互いに並列に行う複数の特徴量算出部と、組み合わせ毎に設けられ、複数の特徴量算出部から出力された特徴から、組み合わせを構成する特徴を取得する処理を互いに並列に行う複数の組み合わせ部と、複数の組み合わせ部毎に対応して設けられ、該組み合わせ部毎に取得された特徴により、オブジェクトの識別を互いに並列に行う複数の識別部と、を有するオブジェクト検出装置。
【選択図】図2

Description

本発明は画像から人物の顔などのオブジェクトを検出するための装置、方法、プログラムなどの技術に関する。
画像から人物の顔などのオブジェクトを検出するための手法が開示されている(非特許文献1)。この手法では、画像内の注目領域にオブジェクトが写っているかどうかを識別するために、その注目領域内に複数の画素領域の組を設定する。そして、各画素領域の組の明度の差分値(Harr−Like特徴)を計算し、その値と事前に学習によって定められたしきい値とを比較することにより、注目領域にオブジェクトが写っているかどうかを識別する。1回のしきい値処理だけではオブジェクトの検出精度は低いものの、画素領域の配置を変えてしきい値処理を複数回繰り返すことで高い検出精度が得られることが知られている。
また、複数の特徴同士の相関(共起性)を評価するために、複数の明度差分値(Joint Harr−Like特徴)のしきい値処理を組み合わせることによって、より高精度にオブジェクトを検出する手法が開示されている(特許文献1)。人物の顔は基本的に左右対称であり、目や眉毛などの特徴は左右2箇所に配置されている。そこで、このオブジェクト検出装置では、単一の明度差分値のしきい値処理を組み合わせるのではなく、左右2箇所に複数の特徴が同時に含まれるという人物の顔に固有の知識を活用している。
一方、近年では多くの映像機器にGPU(Graphics Processing Unit)が搭載されるようになってきている。元々、GPUはゲームなどで3次元CG(コンピュータグラフィックス)を高速に表示することに特化した専用ハードウェアだったが、近年ではCG以外の処理であっても高速に実行できる汎用的な並列プロセッサへと進化している。非特許文献2では、非特許文献1のオブジェクト検出の手法をGPUで高速に処理させるための並列化技法が開示されている。
特開2006−268825号公報
"Rapid Object Detection using a Boosted Cascade of Simple Features", Computer Vision and Pattern Recognition (CVPR), 2001. "Boosted Algorithms for Visual Object Detection on Graphics Processing Units", Asian Conference on Computer Vision (ACCV), 2006.
しかしながら、上記特許文献1に開示のJoint Harr−Like特徴を用いたオブジェクト検出方法は、種類の異なる複数の明度差分値のしきい値処理が含まれるため、1つの特徴を算出する処理を並列化して高速化することが困難である。
本発明は、上記の点に鑑みて、画像の複数の特徴を抽出し、オブジェクト検出を行う手法を高速に並列処理することを目的としている。
上述した課題を解決し、目的を達成するために、本発明の一態様によるオブジェクト検出装置は、画像が有する一の注目領域における所定のオブジェクトの有無を、該注目領域が有する画像の特徴の組み合わせにより検出するオブジェクト検出装置であって、画像の互いに異なる特徴毎に設けられ、一の前記注目領域から前記特徴を抽出する処理を互いに並列に行う複数の特徴量算出部と、前記組み合わせ毎に設けられ、複数の前記特徴量算出部から出力された特徴から、前記組み合わせを構成する特徴を取得する処理を互いに並列に行う複数の組み合わせ部と、複数の前記組み合わせ部毎に対応して設けられ、該組み合わせ部毎に取得された特徴により、前記所定のオブジェクトの識別を互いに並列に行う複数の識別部と、を有することを特徴とする。
また、本発明の一態様によるオブジェクト検出装置は、画像における所定のオブジェクトの有無を、前記画像の特徴の組み合わせにより検出するオブジェクト検出装置であって、入力される画像に対し、複数の注目領域を設定する注目領域設定部と、前記注目領域毎に設けられ、前記注目領域における前記所定のオブジェクトの有無を検出する、複数の識別器と、を有し、前記識別器は、画像の互いに異なる特徴毎に設けられ、前記注目領域から前記特徴を抽出する処理を互いに並列に行う複数の特徴量算出部と、前記組み合わせ毎に設けられ、複数の前記特徴量算出部から出力された特徴から、前記組み合わせを構成する特徴を取得する処理を互いに並列に行う複数の組み合わせ部と、複数の前記組み合わせ部毎に対応して設けられ、該組み合わせ部毎に取得された特徴により、前記所定のオブジェクトの識別を互いに並列に行う複数の識別部と、を有することを特徴とする。
また、本発明の一態様によるオブジェクト検出方法は、画像が有する一の注目領域における所定のオブジェクトの有無を、該注目領域が有する画像の特徴の組み合わせにより検出するオブジェクト検出方法であって、一の前記注目領域から、画像の互いに異なる特徴を抽出する処理を、互いに並列に行う複数の特徴量算出ステップと、複数の前記特徴量算出ステップから出力された特徴から、前記組み合わせを構成する特徴を取得する処理を前記組み合わせ毎に互いに並列に行う複数の組み合わせステップと、前記組み合わせステップにおいて取得された特徴の組み合わせ毎に、前記所定のオブジェクトの識別を互いに並列に行う複数の識別ステップと、を有することを特徴とする。
また、本発明の一態様によるオブジェクト検出プログラムは、画像が有する一の注目領域における所定のオブジェクトの有無を、該注目領域が有する画像の特徴の組み合わせにより検出するオブジェクト検出方法をコンピュータに実行させるためのプログラムであって、一の前記注目領域から、画像の互いに異なる特徴を抽出する処理を、互いに並列に行う複数の特徴量算出ステップと、複数の前記特徴量算出ステップから出力された特徴から、前記組み合わせを構成する特徴を取得する処理を前記組み合わせ毎に互いに並列に行う複数の組み合わせステップと、前記組み合わせステップにおいて取得された特徴の組み合わせ毎に、前記所定のオブジェクトの識別を互いに並列に行う複数の識別ステップと、を有することを特徴とするオブジェクト検出方法をコンピュータに実行させる。
本発明によれば、画像の複数の特徴を抽出し、オブジェクト検出を行う手法を高速に並列処理するオブジェクト検出装置、オブジェクト検出方法、及び、プログラムを提供することができる。
図1は、本実施形態のオブジェクト検出装置の概略構成を表すブロック図。 図2は、識別器105の詳細を説明する図。 図3は、画素領域の組の例を示す図。 図4は、画素領域の形状をすべて矩形に限定した場合の例を示す図。 図5は、顔画像の上に複数の特徴を配置した例を示す図。 図6は、グループ毎に同じ種類の特徴を算出する際に用いるデータの構造を示す図。 図7は、オブジェクト検出処理の全体の処理を説明するフロー図。 図8は、識別器105の詳細な処理を説明するフロー図。 図9は、本実施の形態に係るオブジェクト検出装置を実現するハードウェアの構成の例を示す図。
以下、本実施の形態を図面に基づき説明する。以下の実施の形態では、画像の複数の特徴を抽出してオブジェクト検出する例として、Joint Harr−Like特徴を用いる例を説明するが、本実施の形態は、Joint Harr−Like特徴を用いる例に限らない。画像の複数の特徴を、同一の種類毎に抽出し、異なる種類の組み合わせを含む、それらの組み合わせにより、オブジェクト検出する手法に適用することができる。
〔第1の実施の形態〕
図1は、本実施の形態に係るオブジェクト検出装置の概略構成を表すブロック図である。図1では、オブジェクト検出装置の各ブロック間のデータの流れを矢印で示している。本実施の形態に係るオブジェクト検出装置は、入力部101、第1前処理部102、注目領域設定部103、第2前処理部104、識別器105、学習情報記憶部106、後処理部107、及び、出力部108を有する。
入力部101は、オブジェクト検出の処理対象となる画像が入力される。画像は、ハードディスク装置(HDD)、DRAM、EEPROMなどの記憶装置に記憶されているとよい。画像は、また、カメラなどの撮像機器によって入力されてもよい。画像は、何らかの方式で符号化(圧縮)されたデータが、デコーダにより復号されて入力されてもよい。
第1前処理部102は、画像全体に対して平滑化や明度補正などの前処理を施して、画像に含まれているノイズや照明変動の影響などを取り除く。前処理として、画素の明度の対数をとるとよい。オブジェクト検出処理では、明度そのものの差分値ではなく、明度の対数の差分値を用いることにより、事前の学習で用いたサンプル画像とは異なるダイナミックレンジをもつ画像であっても精度よくオブジェクトを検出することができる。
第1前処理部102は、ヒストグラム平坦化や、明度の平均と分散を一定に揃える前処理を施してもよい。第1前処理部102は、入力される画像に対し、何も処理せずにそのまま画像を後段に出力してもよい。
注目領域設定部103は、オブジェクト検出の対象となる注目領域を設定する。注目領域は所定の大きさの矩形領域であり、走査ウィンドウとも呼ばれる。注目領域は画像の原点から所定のステップ幅で縦横に移動させた位置に複数設定される。
本実施の形態に係るオブジェクト検出装置は、画像に写っているオブジェクトと注目領域とがほぼ同等の大きさの場合に、その注目領域にオブジェクトが写っていると識別する。また、オブジェクトとは異なる位置に設定された注目領域、及び、オブジェクトと大きさが合わない注目領域は、オブジェクトは写っていないと識別する。
そこで、注目領域設定部103は、様々な大きさの注目領域を設定する。これにより、画像に写っている様々な大きさのオブジェクトを検出することができる。
複数の注目領域間の並列処理を行わないオブジェクト検出装置では、注目領域、すなわち、走査ウィンドウを所定のステップ幅で移動させながら、逐次的にオブジェクト検出の処理を実行する。また、注目領域の大きさを順次変えて、同様の処理を繰り返す。
本実施の形態に係るオブジェクト検出装置は、位置や大きさの異なる様々な注目領域に対するオブジェクト検出の処理を、逐次的に実行するのではなく、GPUなどの並列プロセッサを用いて並列に実行する。そのため、後述する第2前処理部104と識別部105とは、処理する注目領域と同じ数だけ存在する。
第2前処理部104は、注目領域設定部103によって設定された各注目領域内の部分画像に対して前処理を施す。第2前処理部104は、第2前処理部104Aないし第2前処理部104Cを有する。これらの第2前処理部は、処理する注目領域の数だけ設けられる。第1前処理部102が画像全体に前処理を施すのに対して、第2前処理部104は、注目領域内の部分画像ごとに前処理を施す。なお第2前処理部104は、何も処理せずに部分画像を後段に出力してもよい。
識別器105は、各注目領域内の部分画像に対して、オブジェクトが写っているかどうかを識別する処理を行う。オブジェクトが写っている場合には、識別器105は、その注目領域の位置を検出位置とする。識別器105の詳細については後に図2を参照して説明する。
学習情報記憶部106は、識別器105がオブジェクトを検出する際に参照する各種データを記憶する記憶装置である。学習情報記憶部106は、例えば、HDD、DRAM、又は、フラッシュメモリ等である。学習情報記憶部106が記憶するデータは、画像の特徴を表す情報であり、例えば、明度差分値を計算する際の画素領域の位置や形状の情報、それらの組み合わせの情報、及び、しきい値などが含まれる。これらのデータはサンプル画像を用いた学習によって事前に作成される。
後処理部107は、複数の注目領域に対する識別処理において得られた複数の検出位置を1つに併合し、1つのオブジェクトに対して1つの検出位置が得る。注目領域設定部103が設定した、様々な位置、様々な大きさの注目領域に対し、識別器105が識別を行うことにより、注目領域の大きさやステップ幅によっては、1つのオブジェクトに対して複数個の検出位置が得られる。後処理部107は、これらの識別結果を統合する。
出力部108は、オブジェクト検出の結果に関する情報を出力する。出力部108は、例えば、その情報を、HDD、DRAM、EEPROMなどの記憶装置に記憶する。出力部108は、また、その情報を、図示しない別の装置、システム、又は、プログラムなどに出力してもよい。
図2は、識別器105の詳細を説明する図である。図2では、識別器105が有する一の識別器である、識別器105Aを例に説明するが、他の識別器も同様である。識別器105Aは、特徴量算出部201aないし201i、量子化部202aないし202i、特徴量記憶部203、アドレス変換テーブル記憶部210、組み合わせ部204aないし204e、識別部205aないし205e、及び、統合部206を有する。
特徴量算出部201aないし201iと量子化部202aないし202iとは、複数のグループに分けられる。グループ207には、特徴量算出部201aないし201cと量子化部202aないし202cとが属する。グループ208には、特徴量算出部201dないし201fと量子化部202dないし202fとが属する。グループ209には、特徴量算出部201gないし201iと量子化部202gないし202iとが属する。
先ず、一の特徴量算出部201である特徴量算出部201aについて説明する。特徴量算出部201aは、第2前処理部104Aから出力された部分画像内に複数の画素領域の組を設定し、各画素領域の組に属する画素の重み付き和を計算する。
図3は、画素領域の組の例を示す図である。組301は3個の画素領域を有しており、組302は2個の画素領域を有している。各画素領域の位置や形状、画素領域の総数などは、サンプル画像を用いた学習によって事前に作成され、学習情報記憶部106に記憶される。
特徴量算出部201aは、例えば、図3に示す組301ないし組304のうちの、一の組に対する特徴量を算出する。特徴量算出部201aが、画素領域の組に対して算出する特徴量は、画素値の重み付き和Dである。式(1)は、画素値の重み付き和Dを計算する式である。
Figure 2010204947
式(1)において、nは画素領域の数、wは各画素領域の重み、Iは各画素領域内の画素値の総和である。例えば、図3に示すように画素領域を白と黒の2つの組に分けたとすると、重み付き和Dは次式(2)によって計算できる。
Figure 2010204947
式(2)において、W及びWはそれぞれ白及び黒の画素領域の重みであり、I及びIはそれぞれ白及び黒の画素領域に属する画素値の総和である。特に、白及び黒の画素領域の面積(画素数)をそれぞれA及びAとし、重みW及びWを式(3)により定義する。
Figure 2010204947
式(2)における重み付き和Dは画素領域の平均明度の差分値となる。重み付き和Dの値は、画素領域の配置や大きさ、形状によって様々な値をとり、その画像の特徴を表現する特徴量となる。本実施の形態では、重み付き和Dを「特徴量」と呼び、画素領域の組を「特徴」あるいは「特徴領域」と呼ぶ。
なお、本実施の形態では、式(2)及び式(3)によって定義される平均明度の差分値を特徴量として用いる例について説明するが、平均明度の差分値の代わりに、平均明度の絶対値あるいは平均明度の対数の差分値を特徴量として用いるのでも構わない。また、画素領域の大きさは、1つの画素でもよいが、画素領域が小さいとノイズの影響を受けやすくなるので、複数の画素から平均明度を求めるとよい。
図4は、画素領域の形状をすべて矩形に限定した場合の例を示す図である。特徴401は上下に隣接する2個の矩形領域401Aと401Bを有している。特徴402は、左右に隣接する2個の矩形領域を有している。
特徴401及び特徴402は、最も基本的な矩形領域の組であり、これらから得られる特徴量は明度勾配、すなわち、エッジの向きと強さを表現している。矩形の面積が大きいほど空間周波数が低いエッジ特徴を抽出できる。また、明度の差分の絶対値を特徴量として用いると、明度勾配の向きを表現できなくなるが、エッジの有無を求めることができる。これは、背景の明度が不定なオブジェクトの輪郭部分に対して有効な特徴量である。
特徴403は、水平方向に並んだ3個の矩形領域403Aないし403C、特徴404は、垂直方向に並んだ3個の矩形領域404Aないし404Cを有している。
特徴405は、斜め方向に2つの矩形領域405A及び405Bを有する。矩形領域405Aと405Bは斜めに配置されているので、特徴405は斜め方向の明度勾配を求めることができる。特徴406は、4個の矩形領域が縦2列横2列に配置される。特徴407は、一の矩形領域407Aの中に別の矩形領域407Bを含む。特徴407は、孤立点を検出する際に有効な特徴量である。
特徴401ないし特徴407に例示したように、画素領域の形状を矩形に限定すると、Integral Imageを利用して画素値の総和を求める計算量を削減することができる。
また、画素領域の各組を隣接させて配置することにより、局所領域における明度の増減傾向を評価することが可能になる。例えば、日中の屋外で撮影された画像からオブジェクトを検出する場合、照明の影響でオブジェクト表面に大きな明度変化が生じることが多い。しかし、局所領域における明度の増減傾向に着目すれば、そのような絶対的な明度変化の影響を受けにくくなる。
本実施の形態に係るオブジェクト検出の処理は、隣接する矩形領域の組を特徴として用いるため、計算量が小さく、照明条件の変動に対して頑健である。
図5は、検出対象のオブジェクトが人間の顔の場合に、顔画像の上に複数の特徴を配置した例を示す図である。画像501は検出対象となる顔の画像であり、正面から撮影された例である。正面から撮影された顔画像はほぼ左右対称である。
画像502は、2つの特徴を両目付近に配置した例である。画像502が有する各矩形領域から得られる明度勾配の向きや強度には相関がある。Joint Harr−Like特徴は、特徴同士の相関を利用することによってオブジェクト検出の精度を向上させる。単一の特徴だけではオブジェクトかどうかの識別が難しい場合であっても、検出対象に応じて適切に特徴を組み合わせることでより正確に識別することが可能になる。
画像503ないし505も、同様に、矩形領域から得られる特徴間の相関を利用して、オブジェクト検出の精度をあげるための、組を説明する例である。
画像503は、3個の矩形領域の特徴を両目にまたがるように配置し、さらに、2個の矩形領域の特徴を唇付近に配置した例である。これらの2つの特徴を配置することにより、人間の顔の眉間の部分は目の部分よりも明るく、唇はその周辺より暗い、という、顔に固有の2種類の特徴を兼ね備えているかどうかを評価することが可能になる。
画像504及び画像505は、3つの特徴を配置した例である。このように、特徴の数や種類を適切に選択することで、検出対象に固有の特徴の組み合わせを表現することができる。
並列処理を行わないオブジェクト検出装置では、例えば、1つの識別器に複数の特徴量算出部が含まれており、各特徴量算出部に対して1つの特徴が割り当てられる。例えば、画像502及び503のように2つの特徴が配置された場合、1つの識別器に含まれる2つの特徴量算出部に対してそれぞれ処理が割り当てられる。同様に、504及び505のように3つの特徴が配置された場合、1つの識別器に含まれる3つの特徴量算出部に対してそれぞれ処理が割り当てられる。
並列処理を行わないオブジェクト検出装置は、さらに、この識別器を複数備えることにより、異なる特徴の組み合わせに対する識別結果を統合して、より高精度な識別結果を得る。例えば、ある識別器に画像502に対する特徴量を算出させるとともに、別の識別器に画像503に対する特徴量を並列に算出させ、得られた2つの識別結果を統合して最終的に顔のオブジェクトであるかどうかを判定する。
しかしながら、このような識別器の構成は、GPUなどの並列プロセッサを用いて実行するのに適していない。GPUの並列処理の方式はSPMD(Single Program Multiple Data)と呼ばれ、非常に多くのデータに対して並列に処理を適用することができるが、その処理を行うプログラムはすべて同一である必要がある。すなわち、GPUでは、ある時刻に実行されるプログラムはただ1つであり、複数のプログラムを並列に実行することはできない。上述したように、異なる特徴の組み合わせが割り当てられた複数の識別器を並列に動作させるためには、それぞれの識別器において異なるプログラムを動かして特徴量を算出する必要がある。もちろん、プログラム内で条件分岐することである程度処理手順を切り替えることはできるが、よく知られているように、GPUなどの並列プロセッサでは、実行するプログラムに条件分岐が含まれると処理性能が大幅に損なわれてしまう。
本実施の形態におけるオブジェクト検出装置では、検出対象に応じて組み合わされた複数の特徴を、組み合わされたまま扱うのではなく、いったん分解して、同じ種類の特徴ごとにグループ分けし、グループごとにGPUによる並列処理を適用する。同じグループに属する特徴、すなわち同じ種類の特徴は、矩形領域の数や並び方が同じであるため、1つのプログラムによって条件分岐せずに並列処理することができる。したがって、本実施形態におけるオブジェクト検出装置では、GPUを用いて効率良く特徴量を算出することが可能になる。
本実施の形態におけるオブジェクト検出の手順を、図5の顔画像の例を用いて説明する。画像502の右目及び左目付近と、画像504の鼻付近と、画像505の左目及び鼻付近とには、同じ種類の特徴が配置されている。これらの特徴は、2組の矩形領域を水平方向に並べたものであり、図4の特徴402である。配置される位置や矩形領域の大きさ、白黒の並び順に違いがあるものの、矩形領域の数や並び方が同じであるため、1つのプログラムによって条件分岐せずに処理することが可能である。したがって、これらの特徴を同じグループにまとめれば、GPUが効率良く処理することができる。なお、矩形領域の数や並び方を、特徴の種類という。
また、画像503と504との両目付近には、3組の矩形領域を両目にまたがるように水平方向に並べた特徴403が配置されている。そこで、画像503の特徴403を算出する処理と、画像504の特徴403を算出する処理とは、同じグループにまとめられて、一のGPUによって並列に処理される。
また、画像503と504との口付近には、2組の矩形領域を垂直方向に並べた特徴401が配置されている。そこで、画像503の特徴401を算出する処理と、画像504の特徴401を算出する処理とは、同じグループにまとめられて、一のGPUによって並列に処理される。
本実施の形態におけるオブジェクト検出装置では、識別器105の内部の構成を、GPUなどの並列プロセッサを用いて効率良く実行できるようにする。図2に示したように、識別器105の内部では、複数の特徴量算出部201と、複数の量子化部202とが、グループ207、208、及び、209の複数のグループにまとめられている。同じグループに属する特徴量算出部201及び量子化部202では、同じ種類の特徴に対する処理が並列に実行される。例えば、グループ207では特徴401に対する処理が並列に実行され、グループ208では特徴402に対する処理が並列に実行され、グループ209では特徴403に対する処理が並列に実行される。
同じ種類の特徴をグループにまとめる処理は事前に行われ、その結果は学習情報記憶部106に記憶される。図6は、グループ毎に同じ種類の特徴を算出する際に用いるデータの構造を示す図である。このデータは、識別器105がオブジェクトを検出する際に参照する各種データである。
図6(a)は学習情報記憶部106に記憶されているデータの配置の例を示している。図6(b)は、図6(a)の一部をより詳細に表したものである。図6(c)は、図6(b)の一部をより詳細に表したものである。
図6(a)では、同じグループに属する特徴量算出部201によって参照される各種データが、メモリ上に連続して記憶されている。図6(b)では、一のグループに属する特徴量算出部201が参照する各種データが、同じ種類のデータ毎にまとめられてメモリ上に連続して記憶される。図6(b)におけるデータA、データB、データCは、それぞれ、特徴の配置される位置、矩形領域の大きさ、白黒の並び順等、特徴量に関する各種データである。
図6(c)では、同じ種類の各種データが、特徴量算出部201a、201b、201cのそれぞれによって参照される順にメモリ上に連続して記憶されている。
グループ207に属する各特徴量算出部201a、201b、201cを並列に動作させて特徴量を算出する場合、まず、特徴量算出部201a、201b、201cによってデータAが並列に読み出される。このとき、学習情報記憶部106における一続きの連続するアドレスがアクセスされる。次に、特徴量算出部201a、201b、201cによってデータBが並列に読み出され、その後、同じようにデータCが並列に読み出される。いずれの読み出しにおいても、学習情報記憶部106における一続きの連続するアドレスがアクセスされる。すべてのデータを読み出し終えたら、特徴量算出部201a、201b、201cにおいて特徴量を算出する処理が並列に実行される。それが終わったら、次にグループ208に属する特徴量が同様の手順で計算される。
GPU等の並列プロセッサでは、一続きの連続するメモリアドレスを並列にアクセスすることにより、より効率よく、すなわち、高速にデータを読み書きすることができる。学習情報記憶部106は、図6に示したように、特徴量を並列に算出する際にアクセスする各種データのアドレスが、一続きに連続して読み書きされる配置になっている。これにより、GPUなどの並列プロセッサによって効率よくデータを読み出すことが可能である。
図2に戻り、各識別器105は、学習情報記憶部106からグループ分けに関する情報を読み出し、その情報に基づいて、特徴量算出部201に対して処理する特徴を割り当てる。なお、ここで分解された複数の特徴は、後述する組み合わせ部204において元通りに組み合わされる。
量子化部202aないし202iのそれぞれは、接続している特徴量算出部201により計算された特徴量、すなわち、画素値の重み付き和を複数の段階に量子化する。量子化部202が特徴量を何段階に量子化するかの情報と、量子化のためのしきい値は、サンプル画像を用いた学習によって予め作成され、学習情報記憶部106に記憶される。例えば、2段階に量子化した場合、量子化部202から出力される値は0か1のどちらかの値になる。量子化された特徴量を量子化特徴量と呼ぶ。
特徴量記憶部203は、複数の量子化部202から出力された量子化特徴量を記憶する記憶装置である。特徴量記憶部203は、例えば、HDD、DRAM、又は、EEPROM等である。
アドレス変換テーブル記憶部210は、各組み合わせ部204において組み合わされる各量子化特徴量が、特徴量記憶部203のどのメモリアドレスに記憶されているかを表すテーブルデータを記憶する記憶装置である。アドレス変換テーブル記憶部210は、例えば、HDD、DRAM、又は、EEPROM等である。
組み合わせ部204は、Joint Harr−Like特徴にしたがい特徴が組み合わされた組を生成する。組み合わせ部204は、まず、アドレス変換テーブル記憶部210に記憶されているアドレス変換テーブルを参照して、組み合わせる複数の量子化特徴量が記憶されている特徴量記憶部203のメモリアドレスを得る。組み合わせ部204は、さらに、得られたメモリアドレスに記憶されている複数の量子化特徴量を読み出し、後段の識別部205へ出力する。
各識別部205は、組み合わせ部204毎に出力する複数の量子化特徴量の値に基づいて注目領域内の部分画像にオブジェクトが写っているかどうかを識別する。より詳細には、まず、入力されたすべての量子化特徴量を同時に観測する確率を、確率テーブルを参照することによって求める。なお、同時に観測する確率を、同時確率という。確率テーブルは、識別部205毎に設けられる図示しない記憶部に格納されてもよく、また、図示しない一以上の記憶部に、複数の識別部205が参照する確率テーブルが格納されてもよい。
確率テーブルには、検出対象のオブジェクトに関するテーブルと、非オブジェクトに関するテーブルとの2種類がある。なお、非オブジェクトとは、「オブジェクトではない」ことを表す。確率テーブルは、サンプル画像を用いた学習によって事前に作成され、学習情報記憶部106に記憶される。識別部205は、これら2つのテーブルを参照して2つの確率値を求める。これら2つの確率値は尤度ともいう。
次に、識別部205は、次式(4)を用いて得られた2つの尤度を比較することにより、オブジェクトかどうかを識別する。
Figure 2010204947
式(4)において、h(x)は識別関数であり、画像xに対する識別結果を得る関数である。P(v、…、v、…、v|Object)、P(v、…、v、…、v|non−Object)は、それぞれ、確率テーブルから参照されたオブジェクトの尤度、及び、非オブジェクトの尤度である。vは量子化特徴量の値である。λはオブジェクトかどうかを識別するためのしきい値であり、サンプル画像を用いた学習によって事前に作成され、学習情報記憶部106に記憶される。
識別部205は、(注目領域内の部分画像がオブジェクトであることを示すラベル+1)、及び、(注目領域内の部分画像が非オブジェクトであることを示すラベル−1)の2種類の離散値を出力する。識別部205は、また、尤度比やその対数の比、すなわち対数尤度比を出力してもよい。対数尤度比の値は、注目領域内の部分画像がオブジェクトであれば正の値になり、非オブジェクトであれば負の値となる。
識別部205が参照する確率テーブルのサイズは、特徴の数と各特徴量の量子化段階の数によって決まる。例えば、3つの特徴を用いる識別部205において、各特徴から得られる特徴量を2段階に量子化する場合、量子化特徴量の組み合わせの総数は2×2×2=8通りとなる。そこで、合計F組の特徴に対して、f番目の特徴から得られる特徴量をそれぞれL段階に量子化したとすると、量子化特徴量の組み合わせの総数Lは次式(5)で計算される。
Figure 2010204947
本実施の形態では、2種類の確率テーブルに確率値を格納しておき、それらから読み出した2つの確率値を比較する。しかし、1種類のテーブルに比較結果を格納しておき、このテーブルを参照するように構成しても構わない。この場合にテーブルに格納しておく値としては、+1か−1等のラベルや上記尤度比の値、又は、上記対数尤度比の値等がよい。これにより、計算コストを削減することができる。
統合部206は、識別部205のそれぞれから出力される複数の識別結果を統合して最終的な識別結果を求める。識別部205の数をTとすると、次式(6)により、T個の識別結果h(x)の重み付き多数決として、最終的な識別結果H(x)を求める。
Figure 2010204947
式(6)において、αは各識別部205の重みであり、サンプル画像を用いた学習によって事前に作成され、学習情報記憶部106に記憶される。統合部206は、得られた識別結果H(x)と予め定められたしきい値を比較することにより、最終的に部分画像がオブジェクトであるかどうかを判定する。通常はしきい値として0を用い、統合部206はH(x)の値が正であるか、あるいは負であるかによって判定を行う。
図7は、オブジェクト検出処理の全体の処理を説明するフロー図である。図7のステップS601では、入力部101から画像が入力される。ステップS601に続いてステップS602に進み、第1前処理部102が、ステップS601で入力された画像に対し前処理を行う。この処理は、画像全体に対して行われる。
ステップS602に続いてステップS603に進み、注目領域設定部103が、複数の注目領域103aないし103cを設定する。なお、ここで設定される注目領域の数は、識別器の数と同数であるとよい。ステップS603に続いてステップS604aないしステップS604cに進む。
ステップS604aでは、第2前処理部104Aが、注目領域103a内の部分画像に前処理を施す。ステップS604aに続いてステップS605aに進み、識別器105Aが、注目領域103a内の部分画像からオブジェクトを検出する処理を行う。
ステップS604bとステップS605b、及び、ステップS604cとステップS605cにおける処理は、第2前処理部104と識別器105とが異なる他は、同一であるので、ここでは説明を省略する。
ステップS605aないしステップS605cに続いてステップS606に進み、後処理部107が、複数のステップS604とステップS605との検出結果を1つに併合する。ステップS606に続いてステップS607に進み、出力部108が、ステップS606のオブジェクト検出の結果を出力する。
図8は、識別器105の詳細な処理を説明するフロー図である。図8のステップS100では、グループ207における特徴を算出する処理が行われる。ステップS100は、ステップS101、ステップS102、ステップS111、ステップS112、ステップS121、及び、ステップS122を含む。
ステップS101では、特徴量算出部201aが、設定された部分画像における特徴量を算出する。ステップS101に続いてステップS102に進み、量子化部202aが、ステップS101で取得された特徴量を量子化して量子化特徴量を算出する。算出された量子化特徴量は、特徴量記憶部203に格納される。
ステップS100における他のステップの処理は、グループ207が有する特徴量算出部と量子化部との組み合わせにより実現され、その処理は、ステップS101及びステップS102と同一であるので、ここでは説明を省略する。なお、ステップS100において算出される特徴の種類は、同一である。
ステップS100に続いてステップS200に進み、グループ208における特徴を算出する処理が行われる。ステップS200の処理は、算出される特徴の種類が、ステップS100と異なる他は、ステップS100と同一であるので、説明を省略する。
ステップS200に続いてステップS300に進み、グループ209における特徴を算出する処理が行われる。ステップS300の処理は、算出される特徴の種類が、ステップS100及びステップS200と異なる他は、ステップS100又はステップS200と同一であるので、ここでは説明を省略する。
ステップS300に続いてステップS400に進み、組み合わせ部204aないし組み合わせ部204eが、Joint Harr−Like特徴毎に含まれる量子化特徴量の組み合わせを生成し、識別部205aないし識別部205eが、組み合わされた量子化特徴量によるオブジェクトの識別を行う。
ステップS400は、ステップS401、ステップS402、ステップS411、ステップS412、ステップS421、ステップS422、ステップS431、ステップS432、ステップS441、及び、ステップS442を含む。
ステップS401では、組み合わせ部204aが、一のJoint Harr−Like特徴を構成する1以上の量子化特徴量を、アドレス変換テーブルに基づいて、特徴量記憶部203から読み出して取得し、識別部205aに対して出力する。
ステップS401に続いてステップS402に進み、識別部205aが、ステップS401で読み出された量子化特徴量によるオブジェクトの識別を行う。ステップS400における他のステップの処理は、処理を実行する組み合わせ部及び識別部が互いに異なる他は、ステップS401及びステップS402と同一であるので、ここでは説明を省略する。
ステップS400に続いてステップS500に進み、統合部206が、ステップS400に含まれる各ステップの処理による検出結果を統合する。
図9は、本実施の形態に係るオブジェクト検出装置を実現するハードウェアの構成の例を示す図である。図9の構成は、CPU51、RAM52、VRAM53、GPU10、及び、HDD90を有する。
CPU51は、RAM52等に格納されるプログラムを読み出して実行する。これにより、CPU51は、第1前処理部102、及び、注目領域設定部103の機能を実現する。RAM52は、CPU51がプログラムを実行する際のワークメモリ、及び、プログラム等を格納するメモリである。
VRAM53は、本実施の形態に係るオブジェクト検出方法が実行される画像を格納するメモリである。GPU10は、本実施の形態に係るオブジェクト検出方法における、複数の前処理、及び、複数の識別処理を、並列に実行する。HDD90は、画像又はプログラム等が格納される。
本実施の形態に係るオブジェクト検出装置によれば、Joint Harr−Like特徴を用いて画像から人物の顔などのオブジェクトを検出するための手法を、GPUを用いて効率良く実行することが可能になる。
なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。
101 入力部
102 前処理部
103 注目領域設定部
104、104A、104B、104C 前処理部
105、105A、105B、105C 識別器
106 学習情報記憶部
107 後処理部
108 出力部
201、201aないし201i 特徴量算出部
202、202aないし202i 量子化部
203 特徴量記憶部
204、204aないし204e 組み合わせ部
205、205aないし204e 識別部
206 統合部
210 アドレス変換テーブル記憶部

Claims (9)

  1. 画像の互いに異なる特徴毎に設けられ、一の注目領域から特徴を抽出する処理を互いに並列に行う複数の特徴量算出部と、
    前記注目領域が有する前記特徴の組み合わせ毎に設けられ、複数の前記特徴量算出部から出力された特徴から、前記組み合わせを構成する特徴を取得する処理を互いに並列に行う複数の組み合わせ部と、
    複数の前記組み合わせ部毎に対応して設けられ、該組み合わせ部毎に取得された特徴により、オブジェクトの識別を互いに並列に行う複数の識別部と、
    を有することを特徴とするオブジェクト検出装置。
  2. 前記特徴量算出部のそれぞれは、抽出する前記特徴の種類が同一の前記特徴量算出部毎に、前記特徴を抽出する処理を互いに排他的に行うことを特徴とする請求項1記載のオブジェクト検出装置。
  3. 複数の前記特徴量算出部が出力する特徴の情報を格納する特徴量記憶部を有し、
    前記組み合わせ部は、前記特徴量記憶部から、前記特徴を取得することを特徴とする請求項1又は2記載のオブジェクト検出装置。
  4. 入力される画像に対し、複数の注目領域を設定する注目領域設定部と、
    前記注目領域毎に設けられ、前記注目領域におけるオブジェクトの有無を検出する、複数の識別器と、
    を有し、
    前記識別器は、
    画像の互いに異なる特徴毎に設けられ、前記注目領域から前記特徴を抽出する処理を互いに並列に行う複数の特徴量算出部と、
    前記特徴の組み合わせ毎に設けられ、複数の前記特徴量算出部から出力された前記特徴から、前記組み合わせを構成する特徴を取得する処理を互いに並列に行う複数の組み合わせ部と、
    複数の前記組み合わせ部毎に対応して設けられ、該組み合わせ部毎に取得された前記特徴により、前記オブジェクトの識別を互いに並列に行う複数の識別部と、
    を有することを特徴とするオブジェクト検出装置。
  5. 前記識別器がオブジェクトを検出する際に用いる画像の特徴に係る情報を、前記識別器が有する複数の前記特徴量算出部の処理順に対応する順で保持する、記憶部を有することを特徴とする請求項4記載のオブジェクト検出装置。
  6. 一の注目領域から、画像の互いに異なる特徴を抽出する処理を、互いに並列に行う複数の特徴量算出ステップと、
    複数の前記特徴量算出ステップから出力された前記特徴から、前記注目領域が有する前記特徴の組み合わせを構成する前記特徴を取得する処理を前記組み合わせ毎に互いに並列に行う複数の組み合わせステップと、
    前記組み合わせステップにおいて取得された前記特徴の組み合わせ毎に、オブジェクトの識別を互いに並列に行う複数の識別ステップと、
    を有することを特徴とするオブジェクト検出方法。
  7. 前記特徴量算出ステップのそれぞれは、抽出する前記特徴の種類毎に、互いに排他的に実行されることを特徴とする請求項6記載のオブジェクト検出方法。
  8. 入力される画像に対し、複数の前記注目領域を設定する注目領域設定ステップと、
    前記注目領域設定ステップにおいて設定された前記注目領域毎に、請求項6又は7に記載のオブジェクト検出方法により、前記注目領域における前記所定のオブジェクトの有無を検出する、複数の識別ステップと、
    を有することを特徴とするオブジェクト検出方法。
  9. 一の注目領域から、画像の互いに異なる特徴を抽出する処理を、互いに並列に行う複数の特徴量算出ステップと、
    複数の前記特徴量算出ステップから出力された前記特徴から、注目領域が有する前記特徴の組み合わせを構成する前記特徴を取得する処理を前記組み合わせ毎に互いに並列に行う複数の組み合わせステップと、
    前記組み合わせステップにおいて取得された前記特徴の組み合わせ毎に、オブジェクトの識別を互いに並列に行う複数の識別ステップと、
    を有することを特徴とするオブジェクト検出プログラム。
JP2009049579A 2009-03-03 2009-03-03 オブジェクト検出装置、オブジェクト検出方法、及び、プログラム Pending JP2010204947A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009049579A JP2010204947A (ja) 2009-03-03 2009-03-03 オブジェクト検出装置、オブジェクト検出方法、及び、プログラム
US12/562,634 US20100226578A1 (en) 2009-03-03 2009-09-18 Object detecting apparatus, and object detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009049579A JP2010204947A (ja) 2009-03-03 2009-03-03 オブジェクト検出装置、オブジェクト検出方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2010204947A true JP2010204947A (ja) 2010-09-16

Family

ID=42678305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009049579A Pending JP2010204947A (ja) 2009-03-03 2009-03-03 オブジェクト検出装置、オブジェクト検出方法、及び、プログラム

Country Status (2)

Country Link
US (1) US20100226578A1 (ja)
JP (1) JP2010204947A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011526A (ja) * 2013-06-28 2015-01-19 Kddi株式会社 行動認識装置、方法及びプログラム並びに認識器構築装置
JP2015536517A (ja) * 2012-12-20 2015-12-21 インテル・コーポレーション ビデオモーション推定モジュールを用いた加速対象検出フィルタ

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894262B (zh) * 2009-05-20 2014-07-09 索尼株式会社 对图像进行分类的方法和设备
CN102194122A (zh) * 2010-03-05 2011-09-21 索尼公司 对图像进行分类的方法和设备
US20120328160A1 (en) * 2011-06-27 2012-12-27 Office of Research Cooperation Foundation of Yeungnam University Method for detecting and recognizing objects of an image using haar-like features
US11222245B2 (en) * 2020-05-29 2022-01-11 Raytheon Company Systems and methods for feature extraction and artificial decision explainability

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268825A (ja) * 2005-02-28 2006-10-05 Toshiba Corp オブジェクト検出装置、学習装置、オブジェクト検出システム、方法、およびプログラム
JP2008152530A (ja) * 2006-12-18 2008-07-03 Sony Corp 顔認識装置及び顔認識方法、ガボア・フィルタ適用装置、並びにコンピュータ・プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5208869A (en) * 1986-09-19 1993-05-04 Holt Arthur W Character and pattern recognition machine and method
US5590159A (en) * 1995-02-07 1996-12-31 Wandel & Goltermann Technologies, Inc. Digital data sequence pattern filtering

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268825A (ja) * 2005-02-28 2006-10-05 Toshiba Corp オブジェクト検出装置、学習装置、オブジェクト検出システム、方法、およびプログラム
JP2008152530A (ja) * 2006-12-18 2008-07-03 Sony Corp 顔認識装置及び顔認識方法、ガボア・フィルタ適用装置、並びにコンピュータ・プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015536517A (ja) * 2012-12-20 2015-12-21 インテル・コーポレーション ビデオモーション推定モジュールを用いた加速対象検出フィルタ
JP2015011526A (ja) * 2013-06-28 2015-01-19 Kddi株式会社 行動認識装置、方法及びプログラム並びに認識器構築装置

Also Published As

Publication number Publication date
US20100226578A1 (en) 2010-09-09

Similar Documents

Publication Publication Date Title
US10234957B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US7376270B2 (en) Detecting human faces and detecting red eyes
JP6552613B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
JP5047005B2 (ja) 画像処理方法、パターン検出方法、パターン認識方法及び画像処理装置
JP6494253B2 (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
TWI380223B (en) Image processing apparatus and image processing method
US10679358B2 (en) Learning image automatic sorting device, learning image automatic sorting method, and learning image automatic sorting program
JP5671928B2 (ja) 学習装置、学習方法、識別装置、識別方法、およびプログラム
JP6497579B2 (ja) 画像合成システム、画像合成方法、画像合成プログラム
JP5361524B2 (ja) パターン認識システム及びパターン認識方法
JP2010204947A (ja) オブジェクト検出装置、オブジェクト検出方法、及び、プログラム
US11532148B2 (en) Image processing system
EP3213257B1 (en) Image processing system
US20060257017A1 (en) Classification methods, classifier determination methods, classifiers, classifier determination devices, and articles of manufacture
JP2005535015A (ja) ステレオ画像中のエッジを結び付けてチェインにする方法
JP2007025900A (ja) 画像処理装置、画像処理方法
KR20220078231A (ko) 피부 상태 측정 장치, 이를 포함하는 피부 상태 측정 시스템 및 그 방법
JP2007025902A (ja) 画像処理装置、画像処理方法
JP2006323779A (ja) 画像処理方法、画像処理装置
JP2007026308A (ja) 画像処理方法、画像処理装置
US8538142B2 (en) Face-detection processing methods, image processing devices, and articles of manufacture
CN113470028A (zh) 染色体核型图像质量评估方法、染色体分析仪和存储介质
JP2013029996A (ja) 画像処理装置
JP2007025901A (ja) 画像処理装置、画像処理方法
JP6818485B2 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121002