JP6088792B2 - 画像検出装置及び制御プログラム並びに画像検出方法 - Google Patents

画像検出装置及び制御プログラム並びに画像検出方法 Download PDF

Info

Publication number
JP6088792B2
JP6088792B2 JP2012239808A JP2012239808A JP6088792B2 JP 6088792 B2 JP6088792 B2 JP 6088792B2 JP 2012239808 A JP2012239808 A JP 2012239808A JP 2012239808 A JP2012239808 A JP 2012239808A JP 6088792 B2 JP6088792 B2 JP 6088792B2
Authority
JP
Japan
Prior art keywords
image
target image
detection
map
processing target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012239808A
Other languages
English (en)
Other versions
JP2014089626A (ja
Inventor
健太 西行
健太 西行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2012239808A priority Critical patent/JP6088792B2/ja
Publication of JP2014089626A publication Critical patent/JP2014089626A/ja
Application granted granted Critical
Publication of JP6088792B2 publication Critical patent/JP6088792B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、処理対象画像から検出対象画像を検出する技術に関する。
特許文献1〜4には、処理対象画像から検出対象画像を検出する技術が開示されている。特許文献1及び2には、処理対象画像から人の顔画像を検出する技術が開示されている。特許文献3及び4には、処理対象画像から移動体画像を検出する技術が開示されている。
特開2007−128127号公報 特開2011−193115号公報 特開2012−160977号公報 特許第4764487号公報
さて、処理対象画像から検出対象画像を検出する際には、その検出精度の向上が望まれている。
そこで、本発明は上述の点に鑑みて成されたものであり、検出対象画像についての検出精度を向上させることが可能な技術を提供することを目的とする。
上記課題を解決するため、本発明に係る画像検出装置の一態様は、処理対象画像から検出対象画像を検出する画像検出装置であって、前記処理対象画像での輝度ヒストグラムのエントロピーの分布を示すエントロピーマップを生成する第1マップ生成部と、前記エントロピーマップに基づいて、前記処理対象画像での前記検出対象画像の存在確率の分布を示す検出対象存在確率マップを生成する第2マップ生成部と、前記処理対象画像において前記検出対象画像の検出を行う領域を前記検出対象存在確率マップに基づいて決定し、当該領域に対して前記検出対象画像の検出を行う検出部とを備え、前記第1マップ生成部は、前記輝度ヒストグラムのエントロピーの評価値で構成された前記エントロピーマップを生成し、前記第1マップ生成部は、前記処理対象画像に含まれるある領域での前記輝度ヒストグラムのエントロピーである第1エントロピーがしきい値以上の場合には、前記処理対象画像よりも前に撮像された前画像における、当該ある領域と同じ位置の領域での前記輝度ヒストグラムのエントロピーである第2エントロピーの前記評価値を、当該第1エントロピーに基づいて更新することによって、当該第1エントロピーの前記評価値を求める。
また、本発明に係る画像検出装置の一態様は、前記処理対象画像よりも前に撮像された前画像と前記処理対象画像との差分画像を生成する差分画像生成部と、前記処理対象画像での輝度ヒストグラムのエントロピーの分布を示すエントロピーマップを生成する第1マップ生成部と、前記エントロピーマップに基づいて、前記処理対象画像での前記検出対象画像の存在確率の分布を示す検出対象存在確率マップを生成する第2マップ生成部と、前記処理対象画像において前記検出対象画像の検出を行う領域を前記検出対象存在確率マップに基づいて決定し、当該領域に対して前記検出対象画像の検出を行う検出部とを備え、前記第1マップ生成部は、前記差分画像に基づいて、前記処理対象画像において前記前画像から変化した変化領域を特定し、前記第1マップ生成部は、前記処理対象画像についての前記エントロピーマップを生成する際には、前記処理対象画像のうち前記変化領域以外の領域での輝度ヒストグラムのエントロピーの分布については、前記前画像での輝度ヒストグラムのエントロピーの分布を使用し、前記処理対象画像のうち前記変化領域での輝度ヒストグラムのエントロピーの分布については、あらたに求める。
また、本発明に係る画像検出装置の一態様は処理対象画像から検出対象画像を検出する画像検出装置であって、前記処理対象画像での輝度ヒストグラムのエントロピーの分布を示すエントロピーマップを生成する第1マップ生成部と、前記エントロピーマップに基づいて、前記処理対象画像での前記検出対象画像の存在確率の分布を示す検出対象存在確率マップを生成する第2マップ生成部と、前記処理対象画像において前記検出対象画像の検出を行う領域を前記検出対象存在確率マップに基づいて決定し、当該領域に対して前記検出対象画像の検出を行う検出部と、前記処理対象画像での背景画像の存在確率の分布を示す背景存在確率マップを生成する第3マップ生成部と備え、前記第2マップ生成部は、前記エントロピーマップ及び前記背景存在確率マップに基づいて、前記検出対象存在確率マップを生成する。
また、本発明に係る画像検出装置の一態様では、前記処理対象画像よりも前に撮像された前画像と前記処理対象画像との差分画像を生成する差分画像生成部がさらに設けられ、前記第3マップ生成部は、前記差分画像に基づいて、前記処理対象画像において前記前画像から変化した変化領域を特定し、前記第3マップ生成部は、前記処理対象画像についての前記背景存在確率マップを生成する際には、前記処理対象画像のうち前記変化領域以外の領域での背景画像の存在確率の分布については、前記前画像での背景画像の存在確率の分布を使用し、前記処理対象画像のうち前記変化領域での背景画像の存在確率の分布については、あらたに求める。
また、本発明に係る画像検出装置の一態様では、前記検出対象画像は、人の顔画像である。
また、本発明に係る制御プログラムの一態様は、処理対象画像から検出対象画像を検出する画像検出装置を制御するための制御プログラムであって、前記画像検出装置に、(a)前記処理対象画像での輝度ヒストグラムのエントロピーの分布を示すエントロピーマップを生成する工程と、(b)前記処理対象画像での背景画像の存在確率の分布を示す背景存在確率マップを生成する工程と、)前記エントロピーマップ及び前記背景存在確率マップに基づいて、前記処理対象画像での前記検出対象画像の存在確率の分布を示す検出対象存在確率マップを生成する工程と、()前記処理対象画像において前記検出対象画像の検出を行う領域を前記検出対象存在確率マップに基づいて決定し、当該領域に対して前記検出対象画像の検出を行う工程とを実行させるためのものである。
また、本発明に係る画像検出方法の一態様は、処理対象画像から検出対象画像を検出する画像検出方法であって、(a)前記処理対象画像での輝度ヒストグラムのエントロピーの分布を示すエントロピーマップを生成する工程と、(b)前記処理対象画像での背景画像の存在確率の分布を示す背景存在確率マップを生成する工程と、)前記エントロピーマップ及び前記背景存在確率マップに基づいて、前記処理対象画像での前記検出対象画像の存在確率の分布を示す検出対象存在確率マップを生成する工程と、()前記処理対象画像において前記検出対象画像の検出を行う領域を前記検出対象存在確率マップに基づいて決定し、当該領域に対して前記検出対象画像の検出を行う工程とを備える。
本発明によれば、検出対象画像についての検出精度を向上させることができる。
画像検出装置の構成を示す図である。 画像検出装置が備える複数の機能ブロックの構成を示す図である。 処理対象画像の一例を示す図である。 前画像の一例を示す図である。 差分画像の一例を示す図である。 輝度ヒストグラムの一例を示す図である。 エントロピーマップを画像化した様子の一例を図である。 背景存在確率マップの生成処理を説明するための図である。 背景存在確率マップの生成処理を説明するための図である。 背景存在確率マップの生成処理を説明するための図である。 背景存在確率マップの生成処理を説明するための図である。 背景存在確率マップの生成処理を説明するための図である。 背景存在確率マップを画像化した様子の一例を図である。 検出対象存在確率マップを画像化した様子の一例を示す図である。 処理対象画像に対して画像化した検出対象存在確率マップを重ねた様子を示す図である。 検出部の構成を示す図である。 検出部の動作を説明するための図である。 検出部の動作を説明するための図である。 検出部の動作を説明するための図である。 検出部の動作を説明するための図である。 出力値マップの生成処理を説明するための図である。 出力値マップの生成処理を説明するための図である。 出力値マップの生成処理を説明するための図である。 出力値マップの生成処理を説明するための図である。 本実施の形態に係る出力値マップを示す図である。 本実施の形態とは別の方法で生成された出力値マップを示す図である。
図1は実施の形態に係る画像検出装置1の構成を示す図である。本実施の形態に係る画像検出装置1は、入力される画像データが示す画像から検出対象画像を検出する。画像検出装置1は、例えば、監視カメラシステム、デジタルカメラシステム等で使用される。本実施の形態では、検出対象画像は、例えば人の顔画像である。以後、単に「顔画像」と言えば、人の顔画像を意味するものとする。また、検出対象画像の検出処理を行う対象の画像を「処理対象画像」と呼ぶ。
図1に示されるように、画像検出装置1は、CPU(Central Processing Unit)10及び記憶部11を備えている。記憶部11は、ROM(Read Only Memory)及びRAM(Random Access Memory)等で構成されている。記憶部11には、画像検出装置1の動作を制御するための制御プログラム12等が記憶されている。画像検出装置1の各種機能は、CPU10が記憶部11内の制御プログラム12を実行することによって実現される。画像検出装置1では、制御プログラム12が実行されることによって、図2に示されるような複数の機能ブロックが形成される。
図2に示されるように、画像検出装置1は、機能ブロックとして、画像入力部2と、差分画像生成部3と、エントロピーマップ生成部4と、第1確率マップ生成部5とを備えている。さらに、画像検出装置1は、機能ブロックとして、第2確率マップ生成部6と、検出部7と、出力値マップ生成部8とを備えている。以下では、画像検出装置1が備える各機能ブロックの概略動作を説明した後に、当該各機能ブロックの詳細動作について説明する。
<画像検出装置の概略動作説明>
画像入力部2には、監視カメラシステム等が備える撮像部で順次撮像された複数枚の画像をそれぞれ示す複数の画像データが順次入力される。画像入力部2は、処理対象画像を示す画像データを出力する。画像入力部2は、撮像部で得られる各画像を処理対象画像としても良いし、撮像部で得られる画像のうち、数秒毎に得られる画像を処理対象画像としても良い。撮像部では、例えば、1秒間にL枚(L≧2)の画像が撮像される。つまり、撮像部での撮像フレームレートは、Lfps(frame per second)である。
差分画像生成部3は、画像入力部2から出力される画像データを使用して、現在の処理対象画像と、当該処理対象画像よりも前に撮像された前画像、具体的には当該処理対象画像よりも一つ前の処理対象画像との差分を示す1枚の差分画像を生成する。そして、差分画像生成部3は、差分画像を示す画像データをエントロピーマップ生成部4に出力する。
エントロピーマップ生成部4は、画像入力部2及び差分画像生成部3から出力される画像データに基づいて、処理対象画像での輝度ヒストグラムのエントロピーの分布を示すエントロピーマップを生成する。
第1確率マップ生成部5は、画像入力部2及び差分画像生成部3から出力される画像データを使用して、処理対象画像での背景画像の存在確率(以後、「背景存在確率」と呼ぶ)の分布を示す背景存在確率マップを生成する。
第2確率マップ生成部6は、画像入力部2から出力される画像データと、エントロピーマップ生成部4で生成されたエントロピーマップと、第1確率マップ生成部5で生成された背景存在確率マップとに基づいて、処理対象画像での顔画像の存在確率(以後、「顔存在確率」と呼ぶ)の分布を示す検出対象存在確率マップを生成する。
検出部7は、画像入力部2から出力される画像データを使用して、処理対象画像に対して顔画像の検出を行う。このとき、検出部7は、処理対象画像において顔画像の検出を行う領域を、第2確率マップ生成部6で生成された検出対象存在確率マップに基づいて決定し、当該領域に対して顔画像の検出を行う。
出力値マップ生成部8は、検出部7での検出結果をマップにした出力値マップを生成する。
このように、本実施の形態では、検出部7が、処理対象画像において顔画像の検出を行う領域を、第2確率マップ生成部6で生成された検出対象存在確率マップに基づいて決定していることから、処理対象画像のうち顔画像が存在する確率の高い領域に対してのみ顔画像の検出を行うことができる。よって、処理対象画像での不要な領域に対して顔画像の検出が行われることを抑制できる。その結果、顔画像についての検出精度が向上する。
<画像検出装置の詳細動作説明>
<差分画像生成処理>
差分画像生成部3は、処理対象画像と前画像とのそれぞれを、行列状に複数の第1ブロックに分割する。各第1ブロックでは、例えば、行方向に5個のピクセルが並び、列方向に5個のピクセルが並び、各第1ブロックは、合計25個のピクセルで構成されている。以後、行方向にm個(m≧1)のピクセルが並び、列方向にn個(n≧1)のピクセルが並ぶ領域の大きさをmp×npで表す(pはピクセルの意味)。また、画像の左上を基準にして第m行目であって第n列目に位置するブロックをm×n番目のブロックと呼ぶ。処理対象画像では、行方向にM個(M≧2)のピクセルが並び、列方向にN個(N≧2)のピクセルが並んでいることから、処理対象画像の大きさは、Mp×Npとなっている。また、差分画像の大きさはMp×Npとなっている。
差分画像生成部3は、処理対象画像に含まれるm×n番目の第1ブロック内に存在する複数のピクセルについての平均輝度を求める。同様に、差分画像生成部3は、前画像に含まれるm×n番目の第1ブロック内に存在する複数のピクセルについての平均輝度を求める。なお、本実施の形態では、ピクセルの輝度は8ビットで表現されており、十進数表現で“0”から“255”の値をとる。
差分画像生成部3は、処理対象画像のm×n番目の第1ブロックの平均輝度と、前画像のm×n番目の第1ブロックの平均輝度との差分値の絶対値がしいき値以上であれば、両ブロックは異なる画像であるとして、差分画像に含まれる、第1ブロックと同じ位置に存在し、かつ同じ大きさのブロックを構成する各ピクセルの輝度を“255”に設定する。一方で、差分画像生成部3は、処理対象画像のm×n番目の第1ブロックの平均輝度と、前画像のm×n番目の第1ブロックの平均輝度との差分値の絶対値がしいき値未満であれば、両ブロックは同じ画像であるとして、差分画像に含まれる、第1ブロックと同じ位置に存在し、かつ同じ大きさのブロックを構成する各ピクセルの輝度を“0”に設定する。差分画像生成部3は、このようにして、差分画像を構成する複数のピクセルのそれぞれの輝度を求める。これにより、処理対象画像と前画像との差分を示す、2値化された差分画像が生成される。
図3及び図4は処理対象画像20及び前画像21の一例をそれぞれ示す図である。図5は、処理対象画像20と前画像21の差分を示す差分画像(2値化画像)22を示す図である。図3,4では、処理対象画像20及び前画像21がグレースケール画像となっているが、実際にはカラー画像である。
図5に示される差分画像22では、黒色領域(輝度=0)が処理対象画像20と前画像21とで一致している領域を示しており、白色領域(輝度=255)が処理対象画像20と前画像21とで相違している領域を示している。差分画像22での白色領域は、動体領域を示していると言える。また、差分画像22での白色領域は、処理対象画像20において前画像21から変化している変化領域を示していると言える。
上記の例では、差分画像生成部3は、処理対象画像と前画像と間においてブロックごとに輝度を比較したが、ピクセルごとに輝度を比較しても良い。具体的には、差分画像生成部3は、処理対象画像の注目ピクセルの輝度と、前画像における、当該注目ピクセルと同じ位置でのピクセルの輝度との差分値の絶対値を求めて、当該絶対値がしきい値以上であるかを判定する。差分画像生成部3は、当該絶対値がしきい値以上であると判定すると、差分画像における、当該注目ピクセルと同じ位置でのピクセルの輝度を“255”とする。一方で、差分画像生成部3は、当該絶対値がしきい値未満であると判定すると、差分画像における、当該注目ピクセルと同じ位置でのピクセルの輝度を“0”とする。差分画像生成部3は、このようにして、差分画像を構成する複数のピクセルの輝度を求めて、2値化された差分画像を生成する。なお、ブロックごとに輝度を比較して差分画像を生成する場合には、差分画像に含まれるノイズ成分を低減することができる。
<エントロピーマップ生成処理>
一般的に人の顔画像は様々な輝度を有している。したがって、顔画像の輝度ヒストグラムの分布は偏っておらず、ばらついている。よって、処理対象画像において、輝度ヒストグラムの分布が偏っている領域については、顔画像でない可能性が高い。言い換えれば、処理対象画像において、輝度ヒストグラムの分布がばらついている領域については、顔画像である可能性が高い。
一方で、輝度ヒストグラムの分布の偏りを表す指標として、エントロピーを使用することができる。つまり、輝度ヒストグラムのエントロピーは、当該輝度ヒストグラムの分布のばらつきを表す指標であると言える。輝度ヒストグラムのエントロピーが小さければ、当該輝度ヒストグラムの分布は偏っている。言い換えれば、輝度ヒストグラムのエントロピーが大きければ、当該輝度ヒストグラムの分布はばらついている。
以上の点に鑑みて、本実施の形態に係るエントロピーマップ生成部4は、処理対象画像での輝度ヒストグラムのエントロピーの分布を示すエントロピーマップを生成する。このエントロピーマップを参照することによって、輝度ヒストグラムの分布が偏っている領域を特定することが可能となる。よって、エントロピーマップから、処理対象画像において顔画像が存在しない確率が高い領域を特定することができる。言い換えれば、エントロピーマップから、処理対象画像において顔画像が存在する確率が高い領域を特定することができる。以下にエントロピーマップの生成方法について説明する。
エントロピーマップ生成部4は、処理対象画像を行列状に複数の第2ブロックに分割する。この複数の第2ブロックのそれぞれの大きさは、例えば16p×16pである。次に、エントロピーマップ生成部4は、処理対象画像に含まれるm×n番目の第2ブロックについての輝度ヒストグラムを求める。具体的には、エントロピーマップ生成部4は、m×n番目の第2ブロックを構成する複数のピクセルの輝度を取得し、これらの輝度の分布を示す輝度ヒストグラムを生成する。
図6はm×n番目の第2ブロックの輝度ヒストグラムの一例を示す図である。図6の横軸は輝度を示している。図6の縦軸は、m×n番目の第2ブロック内において横軸に示される輝度を有するピクセルの数、つまり頻度を示している。
エントロピーマップ生成部4は、m×n番目の第2ブロックの輝度ヒストグラムを生成すると、当該輝度ヒストグラムのエントロピーEを以下の式(1)を用いて算出する。
ここで、式(1)中のPiは、輝度“i”の出現確率を示している。出現確率Piは、m×n番目の第2ブロックにおいて輝度が“i”であるピクセルの数Kiと、m×n番目の第2ブロック内のピクセルの総数Ktotalを用いて、以下の式(2)で表される。
本例では、各第2ブロックの大きさが16p×16pであることから、Ktotal=256となる。したがって、m×n番目の第2ブロックにおいて、輝度が“255”であるピクセルの数K255=10であるとすると、P255=10/256となる。
エントロピーマップ生成部4は、m×n番目の第2ブロックについての輝度ヒストグラムのエントロピーEを算出すると、当該エントロピーEの評価値EVを求める。評価値EVは、輝度と同様に8ビットで表される。つまり、評価値EVは“0”〜“255”までの値をとる。本実施の形態では、エントロピーEの評価値EVが大きいほど、当該エントロピーEが小さいことを意味している。つまり、輝度ヒストグラムのエントロピーEの評価値EVが大きいほど、当該輝度ヒストグラムの分布が偏っており、m×n番目の第2ブロック内に顔画像が存在しない確率が高くなっている。
エントロピーマップ生成部4は、m×n番目の第2ブロックについての輝度ヒストグラムのエントロピーEがしきい値TH未満の場合には、当該エントロピーEの評価値EVを以下の式(3)を用いて求める。つまり、m×n番目の第2ブロックについての輝度ヒストグラムのエントロピーEがしきい値TH未満の場合には、当該エントロピーEの評価値EV=255となる。
このように、輝度ヒストグラムのエントロピーEが小さい場合には、つまり、輝度ヒストグラムの分布が偏っている場合には、評価値EVは最大値となる。評価値EVが最大値であるということは、m×n番目の第2ブロック内に顔画像が存在しない確率が非常に高いと言える。
一方で、m×n番目の第2ブロックについての輝度ヒストグラムのエントロピーEがしきい値TH以上の場合には、エントロピーマップ生成部4は、当該エントロピーEの評価値EVを以下の式(4)を用いて求める。
式(4)中のEVpは、前画像、つまり現在の処理対象画像よりも一つ前の処理対象画像に含まれるm×n番目の第2ブロックについての輝度ヒストグラムのエントロピーEの評価値EVを示している。また、式(4)中のJは定数であって、J>THである。以後、EVpを「前評価値EVp」と呼ぶ。式(4)に示されるように、エントロピーEがしきい値TH以上の場合には、当該エントロピーEに基づいて前評価値EVpが更新されることによってあらたな評価値EVが求められる。なお、前評価値EVpが存在しない場合には、式(4)ではEVp=0となる。
ここで、エントロピーEがしきい値TH以上であれば、m×n番目の第2ブロック内に顔画像が存在する確率は高いものの、m×n番目の第2ブロック内に顔画像が存在しない可能性は零ではない。本実施の形態では、エントロピーEがしきい値TH以上であったとしても、m×n番目の第2ブロック内に顔画像が存在しない可能性があることを考慮して、式(4)に示されるように、エントロピーEがしきい値TH以上であっても、定数J(>TH)よりも小さい場合には評価値EVを大きくしている。つまり、エントロピーEがしきい値THと同じか少し大きい場合には評価値EVを大きくしている。そして、エントロピーEが定数Jよりも大きい場合には、つまり、エントロピーEがしきい値THよりも非常に大きい場合には、評価値EVを小さくしている。これにより、評価値EVによって特定される、m×n番目の第2ブロック内に顔画像が存在しない確率の精度を高めることができる。言い換えれば、評価値EVによって特定される、m×n番目の第2ブロック内に顔画像が存在する確率の精度を高めることができる。
本実施の形態では、顔画像についての輝度ヒストグラムのエントロピーEがとるであろう範囲と、非顔画像(顔画像ではない画像)についての輝度ヒストグラムのエントロピーEがとるであろう範囲とを求めて、両方の範囲の境界部分に含まれる値を定数Jとしている。具体的には、様々な顔画像を用意して、各顔画像についての輝度ヒストグラムのエントロピーEを求める。また、様々な非顔画像を用意して、各非顔画像についての輝度ヒストグラムのエントロピーEを求める。そして、算出した顔画像についてのエントロピーEがとる範囲と、算出した非顔画像についてのエントロピーEがとる範囲との境界部分に含まれる値を定数Jとして採用している。これにより、エントロピーEが定数Jよりも小さい場合には、m×n番目の第2ブロック内に顔画像が存在しない可能性が高くなり、エントロピーEが定数Jよりも大きい場合には、m×n番目の第2ブロック内に顔画像が存在する可能性が高くなる。よって、上述の式(4)に示されるように、エントロピーEが定数Jよりも小さい場合には評価値EVを大きくし、エントロピーEが定数Jよりも大きい場合には評価値EVを小さくすることによって、評価値EVによって特定される、m×n番目の第2ブロック内に顔画像が存在しない確率の精度を高めることができる。
以上のようにして、エントロピーマップ生成部4は、m×n番目の第2ブロックについての輝度ヒストグラムのエントロピーEの評価値EVを算出する。
本実施の形態では、エントロピーマップ生成部4は、処理対象画像を構成する複数の第2ブロックのそれぞれについて、評価値EVをあらたに求めるのではなく、当該複数の第2ブロックのうち、前画像から変化している第2ブロックについてだけ、上述のようにして評価値EVを求めている。そして、エントロピーマップ生成部4は、処理対象画像を構成する複数の第2ブロックのうち、前画像から変化していない第2ブロックの評価値EVについては、前画像での同じ位置での第2ブロックの評価値EVをそのまま採用している。
エントロピーマップ生成部4は、差分画像生成部3で生成された差分画像に基づいて、処理対象画像を構成する複数の第2ブロックにおいて前画像から変化している第2ブロックを特定する。具体的には、エントロピーマップ生成部4は、処理対象画像を構成する複数の第2ブロックのうち、処理対象画像に含まれる、差分画像の動体領域(輝度が“255”である領域)と同じ位置の領域の少なくとも一部を含む第2ブロックについては、前画像から変化している第2ブロックであるとする。
このようにして、処理対象画像を構成する複数の第2ブロックのそれぞれについての評価値EVが得られると、エントロピーマップ生成部4は、行列状に配置された複数の評価値EVで構成されたエントロピーマップを生成する。エントロピーマップでの評価値EVの配列は、処理対象画像でのピクセルの配列と同じであって、行方向にM個の評価値EVが並び、列方向にN個の評価値EVが並んでいる。そして、エントロピーマップにおいて、処理対象画像のm×n番目の第2ブロックと同じ位置のブロック内の各評価値EVが、当該第2ブロックについて求められた評価値EVとなっている。このようなエントロピーマップを参照することによって、処理対象画像での輝度ヒストグラムのエントロピーの分布を特定することができる。以後、エントロピーマップのように、値が行列状に並んでいるマップにおいて、左上を基準にして第m行目であって第n列目に位置する値を、m×n番目の値と呼ぶ。
図7は、エントロピーマップでの各評価値EVを輝度とすることによって、エントロピーマップを画像化して得られるグレースケールのエントロピーマップ画像30を示す図である。図7に示されるエントロピーマップ画像30は、図3に示される処理対象画像20についてのエントロピーマップを示している。図7に示されるエントロピーマップ画像30において、白色に近い領域ほど、輝度ヒストグラムのエントロピーが小さく、当該領域において顔画像が存在する確率が低くなっている。つまり、黒色に近い領域ほど、輝度ヒストグラムのエントロピーが大きく、当該領域において顔画像が存在する確率が高くなっている。
以上のように、処理対象画像を構成する複数の第2ブロックのうち、前画像から変化していない第2ブロックの評価値EVについては、前画像での同じ位置での第2ブロックの評価値EVがそのまま採用されていることから、本実施の形態に係るエントロピーマップ生成部4は、処理対象画像のうち、前画像から変化している変化領域以外の領域での輝度ヒストグラムのエントロピーの分布については、前画像での輝度ヒストグラムのエントロピーの分布を使用していると言える。また、本実施の形態では、処理対象画像を構成する複数の第2ブロックのうち、前画像から変化している第2ブロックについてだけ評価値EVがあらたに求められていることから、エントロピーマップ生成部4は、処理対象画像のうち、前画像から変化している変化領域での輝度ヒストグラムのエントロピーの分布については、あらたに求めていると言える。
このように、処理対象画像のうち、前画像から変化している変化領域以外の領域での輝度ヒストグラムのエントロピーの分布については、前画像での輝度ヒストグラムのエントロピーの分布を使用し、処理対象画像のうち、前画像から変化している変化領域での輝度ヒストグラムのエントロピーの分布については、あらたに求めることによって、エントロピーマップの生成処理を簡素化できるととともに、当該生成処理にかかる時間を短縮することができる。
また、本実施の形態では、式(4)に示されるように、エントロピーEがしきい値TH以上の場合には、前評価値EVpが更新されることによってあらたな評価値EVが求められることから、エントロピーマップ生成部4は、処理対象画像に含まれるある領域(具体的には、エントロピーEがしきい値TH以上の領域)での輝度ヒストグラムのエントロピーの分布を、前画像における、当該ある領域と同じ位置の領域での輝度ヒストグラムのエントロピーの分布を更新することによって求めていると言える。
このように、処理対象画像に含まれるある領域での輝度ヒストグラムのエントロピーの分布を、一から求めるのではなく、前画像における、当該ある領域と同じ位置の領域での輝度ヒストグラムのエントロピーの分布を更新することによって求めることによって、当該ある領域での輝度ヒストグラムのエントロピーの分布に含まれるノイズ成分を低減することができる。
<背景存在確率マップ生成処理>
地面の画像、木の画像、空の画像などの背景画像については、その画像内において同じような模様が続いている場合が多い。したがって、処理対象画像を複数のブロックに分割すると、処理対象画像内での背景画像においては、互いに隣接する複数のブロックについての輝度ヒストグラムは互いに類似すると考えられる。
そこで、本実施の形態に係る第1確率マップ生成部5は、処理対象画像を複数のブロックに分割し、互いに隣接する複数のブロックについての輝度ヒストグラムの類似度を求めている。そして、第1確率マップ生成部5は、求めた類似度に基づいて、処理対象画像での背景存在確率の分布を示す背景存在確率マップを生成している。以下に第1確率マップ生成部5の動作について詳細に説明する。
図8〜12は第1確率マップ生成部5での背景存在確率マップの生成処理を説明するための図である。第1確率マップ生成部5は、まず、処理対象画像20を複数の第3ブロックに分割する。この複数の第3ブロックのそれぞれの大きさは、例えば16p×16pである。
次に第1確率マップ生成部5は、図8に示されるように、処理対象画像20を構成する複数の第3ブロックのうちの1×1番目の第3ブロックを注目ブロック200として、当該注目ブロック200の輝度ヒストグラムを生成する。また、第1確率マップ生成部5は、注目ブロック200に隣接する複数の隣接ブロック201のそれぞれの輝度ヒストグラムを生成する。複数の隣接ブロック201は、注目ブロック200の右横の第3ブロック、注目ブロック200の右下の第3ブロック及び注目ブロック200の真下の第3ブロックの3つの第3ブロックで構成されている。
次に第1確率マップ生成部5は、3つの隣接ブロック201のそれぞれについて、当該隣接ブロック201の輝度ヒストグラムと、注目ブロック200の輝度ヒストグラムとの類似度を求める。ヒストグラム間の類似度、言い換えればヒストグラム間の距離としては、Bhattacharyya距離あるいは相関係数などを使用することができる。そして、第1確率マップ生成部5は、3つの隣接ブロック201において、その輝度ヒストグラムと、注目ブロック200の輝度ヒストグラムとの類似度がしきい値以上である隣接ブロック201が存在する場合には、その隣接ブロック201と、注目ブロック200とのそれぞれを背景画像(背景領域)であると認定する。
次に第1確率マップ生成部5は、図9に示されるように、注目ブロック200を一つ右の第3ブロックとする。つまり、第1確率マップ生成部5は、処理対象画像20を構成する複数の第3ブロックのうちの1×2番目の第3ブロックを注目ブロック200とする。そして、第1確率マップ生成部5は、注目ブロック200に隣接する3つの隣接ブロック201のうち、いまだ背景画像であると認定されていない隣接ブロック201であって、かついまだ輝度ヒストグラムが生成されていない隣接ブロック201の輝度ヒストグラムを生成する。なお、現在の注目ブロック200は、前回の注目ブロック200についての隣接ブロック201であるため、現在の注目ブロック200の輝度ヒストグラムはすでに生成されている。
次に第1確率マップ生成部5は、3つの隣接ブロック201のうち、いまだ背景画像である認定されていない各隣接ブロック201について、当該隣接ブロック201の輝度ヒストグラムと、注目ブロック200の輝度ヒストグラムとの類似度を求める。そして、第1確率マップ生成部5は、3つの隣接ブロック201のうち、いまだ背景画像であると認定されていない隣接ブロック201において、その輝度ヒストグラムと、注目ブロック200の輝度ヒストグラムとの類似度がしきい値以上である隣接ブロック201が存在する場合には、その隣接ブロック201を背景画像(背景領域)であると認定し、注目ブロック200がいまだ背景画像であると認定されていない場合には、注目ブロック200を背景画像であると認定する。
次に第1確率マップ生成部5は、注目ブロック200をさらに一つ右の第3ブロックとして、同様にして、注目ブロック200及び3つの隣接ブロック201において背景画像を特定する。その後、第1確率マップ生成部5は、同様に処理を行って、図10に示されるように、処理対象画像20の右端から2つ目の第3ブロックを注目ブロック200として背景画像の特定を行うと、図11に示されるように、処理対象画像20の左端の上から2番目の第3ブロック、つまり2×1番目の第3ブロックを注目ブロック200として背景画像の特定を行う。その後、第1確率マップ生成部5は、同様に処理を行って、図12に示されるように、処理対象画像20の右端から2つ目であって、下から2つ目の第3ブロックを注目ブロック200として背景画像の特定を行うと、処理対象画像20の全領域において背景画像が特定される。
次に第1確率マップ生成部5は、処理対象画像20を構成する複数の第3ブロックにおいて、背景画像であると特定した各第3ブロックについての背景存在確率の評価値(以後、「背景存在確率評価値」と呼ぶ)を“255”とする。また、第1確率マップ生成部5は、処理対象画像20を構成する複数の第3ブロックにおいて、背景画像であると特定されていない各第3ブロックについての背景存在確率評価値を“0”とする。このようにして、第1確率マップ生成部5は、処理対象画像20を構成する複数の第3ブロックのそれぞれについての背景存在確率評価値を求める。そして、第1確率マップ生成部5は、行列状に配置された複数の背景存在確率評価値で構成された背景存在確率マップを生成する。背景存在確率マップでの背景存在確率評価値の配列は、処理対象画像でのピクセルの配列と同じであって、行方向にM個の背景存在確率評価値が並び、列方向にN個の背景存在確率評価値が並んでいる。そして、背景存在確率マップにおいて、処理対象画像のm×n番目の第3ブロックと同じ位置のブロック内の各背景存在確率評価値が、当該第3ブロックについて求められた背景存在確率評価値となっている。このような背景存在確率マップを参照することによって、処理対象画像での背景存在確率の分布を特定することができる。
本実施の形態に係る背景存在確率マップでは、背景存在確率評価値が“0”と“255”の2値で示されている。背景存在確率マップにおいて、背景存在確率評価値が“255”の領域では、そこに背景画像が存在する確率が高くなっており、背景存在確率評価値が“0”の領域では、そこに背景画像が存在する確率が低くなっている。
なお、本実施の形態のように、エントロピーマップ生成部4において使用される第2ブロックと、第1確率マップ生成部5において使用される第3ブロックとが同じ大きさであって、背景存在確率マップがエントロピーマップよりも後に生成される際には、背景存在確率マップの生成を開始する時点において、処理対象画像を構成する複数の第3ブロックのそれぞれについての輝度ヒストグラムは求められていることになる。したがって、このような場合には、背景存在確率マップを生成する際に、第3のブロックの輝度ヒストグラムをあらたに生成する必要はない。
また、エントロピーマップが生成される場合と同様にして、第1確率マップ生成部5は、背景存在確率マップを生成する際には、処理対象画像を構成する複数の第3ブロックのうち、前画像から変化している第3ブロックについてのみ、背景存在確率評価値をあらたに求めても良い。以下に、この場合の第1確率マップ生成部5の動作について詳細に説明する。
第1確率マップ生成部5は、差分画像生成部3で生成された差分画像に基づいて、処理対象画像を構成する複数の第3ブロックのうち、前画像から変化している第3ブロックを特定する。具体的には、第1確率マップ生成部5は、処理対象画像を構成する複数の第3ブロックのうち、処理対象画像に含まれる、差分画像の動体領域と同じ位置の領域の少なくとも一部を含む第3ブロックについては、前画像から変化している第3ブロックであるとする。そして、第1確率マップ生成部5は、処理対象画像を構成する複数の第3ブロックのうち、前画像から変化している第3ブロックのみを注目ブロック200として、上記と同様の処理を行う。このとき、第1確率マップ生成部5は、処理対象画像を構成する複数の第3ブロックのうち前画像から変化している第3ブロックにおいて、背景画像であると特定した第3ブロックについては、その背景存在確率評価値を“255”とし、背景画像であると特定しなかった第3ブロックについては、その背景存在確率評価値を“0”とする。そして、第1確率マップ生成部5は、処理対象画像を構成する複数の第3ブロックのうち、前画像から変化している第3ブロック以外の各第3ブロックについては、その背景存在確率評価値として、前画像での同じ位置での第3ブロックの背景存在確率評価値を使用する。これにより、背景存在確率マップが生成される際には、処理対象画像のうち、前画像から変化している変化領域以外の領域での背景存在確率の分布については、前画像での背景存在確率の分布が使用され、処理対象画像のうち当該変化領域での背景存在確率の分布については、あらたに求められるようになる。
このように、処理対象画像のうち、前画像から変化している変化領域以外の領域での背景存在確率の分布については、前画像での背景存在確率の分布を使用し、処理対象画像のうち当該変化領域での背景存在確率の分布については、あらたに求めることによって、背景存在確率マップの生成処理を簡素化できるととともに、当該生成処理にかかる時間を短縮することができる。
図13は、背景存在確率マップでの各評価値を輝度とすることによって、背景存在確率マップを画像化して得られる背景存在確率マップ画像40を示す図である。図13に示される背景存在確率マップ画像40は、2値化画像であって、図3に示される処理対象画像20についての背景存在確率マップを示している。図13に示される背景存在確率マップ画像40において、白色領域では、背景存在確率評価値が大きく、そこに背景画像が存在する確率が高くなっており、黒色領域では、背景存在確率評価値が小さく、そこに背景画像が存在する確率が低くなっている。
<検出対象存在確率マップ生成処理>
第2確率マップ生成部6は、エントロピーマップ生成部4で生成されたエントロピーマップと、第1確率マップ生成部5で生成された背景存在確率マップとに基づいて、処理対象画像での顔存在確率の分布を示す検出対象存在確率マップを生成する。検出部7では、この検出対象存在確率マップが使用されて処理対象画像に対して顔画像の検出が行われる。検出対象存在確率マップは、行列状の複数の顔存在確率の評価値(以後、「顔存在確率評価値」と呼ぶ)で構成されている。検出対象存在確率マップでの顔存在確率評価値の配列は、処理対象画像でのピクセルの配列と同じであって、行方向にM個の顔存在確率評価値が並び、列方向にN個の顔存在確率評価値が並んでいる。
第2確率マップ生成部6は、エントロピーマップでのm×n番目の評価値と、背景存在確率マップでのm×n番目の評価値との加算値を求める。加算値の上限は“255”となっており、求めた加算値が“255”よりも大きい場合には、当該加算値は“255”とされる。そして、第2確率マップ生成部6は、求めた加算値がしきい値以上であれば、検出対象存在確率マップでのm×n行目の顔存在確率評価値を“255”とする。一方で、第2確率マップ生成部6は、求めた加算値がしきい値未満であれば、検出対象存在確率マップでのm×n行目の顔存在確率評価値を“0”とする。第2確率マップ生成部6は、同様にして、検出対象存在確率マップを構成する複数の顔存在確率評価値のそれぞれを求める。このような検出対象存在確率マップを参照することによって、処理対象画像での顔存在確率の分布を特定することができる。
図14は、検出対象存在確率マップでの各評価値を輝度とすることによって、検出対象存在確率マップを画像化して得られる検出対象存在確率マップ画像50を示す図である。図14に示される検出対象存在確率マップ画像50は、2値化画像であって、図3に示される処理対象画像20についての検出対象存在確率マップを示している。図14に示される検出対象存在確率マップ画像50において、白色領域50aでは、顔存在確率評価値が大きく、そこに顔画像が存在する確率が低くなっており、黒色領域50bでは、顔存在確率評価値が小さく、そこに顔画像が存在する確率が高くなっている。
図15は、図3の処理対象画像20に対して、図14の検出対象存在確率マップ画像50の白色領域50aを重ねた様子を示す図である。図15では、図14の白色領域50aを斜線で示している。図15に示されるように、処理対象画像20において、地面の画像など、顔画像が存在しない領域が、白色領域50a(顔画像が存在する確率が低いと判定された領域)で覆われている。
<顔検出処理>
検出部7は、処理対象画像に対して検出枠を移動させながら当該検出枠内の部分画像に対して顔画像の検出を行う。検出部7は、検出枠の各位置において顔画像の検出を行うか否かを、第2確率マップ生成部6で生成された検出対象存在確率マップに基づいて決定する。これにより、処理対象画像において顔画像の検出が行われる領域が検出対象存在確率マップに基づいて決定される。
また、本実施の形態では、処理対象画像における様々な大きさの顔画像を検出するために、検出部7では、処理対象画像に対する相対的な大きさが異なる複数種類の検出枠が使用される。本実施の形態では、例えば3種類の検出枠が使用される。以後、この3種類の検出枠を、処理対象画像に対する相対的な大きさが小さいもの順に、第1検出枠、第2検出枠及び第3検出枠とそれぞれ呼ぶことがある。
図16は検出部7の構成を示す図である。図16に示されるように、検出部7は、実行決定部70と、位置決定部71と、検出処理実行部72とを備えている。検出処理実行部72は、特徴量抽出部720及び識別器721を備えている。
位置決定部71は、処理対象画像に対する検出枠の枠位置を決定する。実行決定部70は、位置決定部71で決定された枠位置での検出枠内の部分画像に対して顔検出を行うか否かを検出対象存在確率マップに基づいて決定する。以後、顔検出を行うと決定された検出枠内の部分画像を「対象検出枠画像」と呼ぶ。
検出処理実行部72は、対象検出枠画像に対して顔検出を行う。具体的には、検出処理実行部72の特徴量抽出部720が、対象検出枠画像から、例えばHaar−like特徴量やLBP (Local Binary Pattern)特徴量などの特徴量を抽出する。そして、識別器721が、特徴量抽出部720で抽出された特徴量と学習データに基づいて、対象検出枠画像に対して顔検出を行った結果として、対象検出枠画像が顔画像である確からしさを示す検出確度値を実数値として出力する。つまり、検出部7から出力される検出確度値は、対象検出枠画像についての顔画像らしさ(顔らしさ)を示していると言える。識別器721としては、例えば、SVM(Support Vector Machine)あるいはAdaboostが使用される。
次に、検出部7が処理対象画像に対して検出枠を移動させながら、当該検出枠内の部分画像に対して顔画像の検出を行う際の当該検出部7の一連の動作について説明する。図17〜20は、検出部7の当該動作を説明するための図である。検出部7は、検出枠をラスタスキャンさせながら、当該検出枠内の部分画像に対して顔画像の検出を行う。
図17に示されるように、検出部7の位置決定部71は、処理対象画像20の左上に検出枠100を設定する。また、実行決定部70は、図17に示されるように、検出対象存在確率マップ150に対して、検出枠100と同じ大きさの判定枠110を検出枠100と同じ位置に設定する。そして、実行決定部70は、判定枠110内の複数の評価値(顔存在確率評価値)の総和を求めて、当該総和がしきい値以上であるかを判定する。実行決定部70は、当該総和がしきい値以上である場合には、検出枠100内に顔画像が存在しない可能性が高いと判定して、検出枠100内の部分画像に対して顔検出を実行しないと決定する。一方で、実行決定部70は、当該総和がしきい値未満である場合には、検出枠100内に顔画像が存在する可能性が高いと判定して、検出枠100内の部分画像に対して顔検出を実行すると決定する。検出処理実行部72は、実行決定部70が、検出枠100内の部分画像に対して顔検出を実行すると決定すると、上述のようにして、当該部分画像に対して顔検出を行って検出確度値を出力する。以後、検出枠内の部分画像に対して顔検出が行われると決定された際の当該検出枠の位置を「検出実行位置」と呼ぶ。
次に位置決定部71は、処理対象画像20において検出枠100を少し右に移動させる。位置決定部71は、例えば、1ピクセル分あるいは数ピクセル分だけ右に検出枠100を移動させる。そして、実行決定部70は、検出対象存在確率マップ150において判定枠110を検出枠100と同様に移動させる。その後、実行決定部70は、上記と同様にして、判定枠110内の複数の評価値の総和がしきい値以上である場合には、検出枠100内の部分画像に対して顔検出を実行しないと決定する。一方で、実行決定部70は、当該総和がしきい値未満である場合には、検出枠100内の部分画像に対して顔検出を実行すると決定する。検出処理実行部72は、実行決定部70が、検出枠100内の部分画像に対して顔検出を実行すると決定すると、当該部分画像に対して顔検出を行って検出確度値を出力する。
その後、検出部7は同様に動作して、図18に示されるように、検出枠100が処理対象画像の右端まで移動し、判定枠110が検出対象存在確率マップ150の右端まで移動すると、実行決定部70は、判定枠110内の複数の評価値の総和がしきい値以上であるかを判定する。そして、検出部7は、同様に動作して、検出枠100内の部分画像に対して顔検出を実行すると決定されると検出確度値を出力する。
次に、位置決定部71は、図19に示されるように、検出枠100を少し下げつつ処理対象画像20の左端に移動させる。位置決定部71が、上下方向(列方向)において例えば1ピクセル分あるいは数ピクセル分だけ下に検出枠100を移動させる。そして、実行決定部70は、検出対象存在確率マップ150において判定枠110を検出枠100と同様に移動させる。その後、検出部7は、同様に動作して、検出枠100内の部分画像に対して顔検出を実行すると決定されると検出確度値を出力する。
その後、検出部7は同様に動作して、図20に示されるように、検出枠100が処理対象画像の右下まで移動し、判定枠110が検出対象存在確率マップ150の右下まで移動すると、実行決定部70は、判定枠110内の複数の評価値の総和がしきい値以上であるかを判定する。そして、検出部7は、同様に動作して、検出枠100内の部分画像に対して顔検出を実行して検出確度値を出力する。
このように検出部7が動作することによって、処理対象画像のすべての領域に対して顔画像の検出が行われるのではなく、処理対象画像の一部の領域に対して顔画像の検出が行われるようになる。
検出部7は、以上のような顔検出処理を、処理対象画像に対する相対的な大きさが異なる第1検出枠、第2検出枠及び第3検出枠のそれぞれを用いて行う。本実施の形態では、検出部7は、第1検出枠を使用する際には、上述のように、本来の大きさの処理対象画像(画像サイズがMp×Npの処理対象画像)である基準処理対象画像に対して第1検出枠を移動させながら、当該第1検出枠内の部分画像に対して顔検出を行う。また、検出部7は、第2検出枠を使用する際には、その絶対的な大きさを第1検出枠よりも大きくするのではなく、基準処理対象画像を縮小して得られる第1縮小処理対象画像に対して、第1検出枠と絶対的な大きさが同じである第2検出枠を移動させながら、当該第2検出枠内の部分画像に対して顔検出を行う。そして、検出部7は、第3検出枠を使用する際には、その絶対的な大きさを第1及び第2検出枠よりも大きくするのではなく、基準処理対象画像を縮小して得られる第2縮小処理対象画像に対して、第1及び第2検出枠と絶対的な大きさが同じである第3検出枠を移動させながら、当該第3検出枠内の部分画像に対して顔検出を行う。第2縮小処理対象画像の大きさは第1縮小処理対象画像よりも小さくなっている。本実施の形態では、第1乃至第3検出枠の絶対的な大きさは、例えば、16p×16pに設定される。
以上のように、検出部7が、第1乃至第3検出枠のそれぞれを用いて顔検出を行うことによって、第1検出枠についての複数の検出実行位置にそれぞれ対応した複数の検出確度値が得られ、第2検出枠についての複数の検出実行位置にそれぞれ対応した複数の検出確度値が得られ、第3検出枠についての複数の検出実行位置にそれぞれ対応した複数の検出確度値が得られる。
<出力値マップ生成処理>
出力値マップ生成部8は、検出部7での検出結果に基づいて、顔画像である確からしさ(顔画像らしさ)を示す検出確度値についての処理対象画像での分布を示す出力値マップを生成する。以下に、出力値マップの生成方法について詳細に説明する。
出力値マップ生成部8は、処理対象画像(基準処理対象画像)と同様に、行方向にM個の値が並び、列方向にN個の値が並ぶ、合計(M×N)個の値から成る第1マップ300を考える。
出力値マップ生成部8は、第1検出枠についてのある検出実行位置を、対象検出実行位置として、第1マップ300に対して、対象検出実行位置と同じ位置に、第1検出枠と同じ大きさの第1の枠310を設定する。図21は、第1マップ300に対して第1の枠310を設定した様子を示す図である。
次に出力値マップ生成部8は、第1マップ300における、第1の枠310外の各値については“0”とし、第1の枠310内の各値については、対象検出実行位置に対応する検出確度値を用いて決定する。本実施の形態では、第1検出枠の大きさは16p×16pであることから、第1の枠310内には、行方向に16個、列方向に16個、合計256個の値が存在する。図22は、第1の枠310内の各値を決定する方法を説明するための図である。
出力値マップ生成部8は、第1の枠310内の中心311の値を、検出部7で求められた、対象検出実行位置に対応する検出確度値とする。そして、出力値マップ生成部8は、第1の枠310内のそれ以外の複数の値を、第1の枠310の中心311の値を最大値とした正規分布曲線に従って第1の枠310内の中心311から外側に向けて値が徐々に小さくなるようにする。これにより、第1マップ300を構成する複数の値のそれぞれが決定されて、対象検出実行位置に対応する第1マップ300が完成する。出力値マップ生成部8は、第1検出枠についての複数の検出実行位置にそれぞれ対応する複数の第1マップ300を生成する。
また出力値マップ生成部8は、第1縮小処理対象画像を構成する複数のピクセルと同じ数及び同じ配列の複数の値で構成された第1縮小マップ400を考える。第1縮小処理対象画像の大きさがM1p×N1pであるとすると、第1縮小マップ400では、行方向のM1個の値が並び、列方向にN1個の値が並び、合計(M1×N1)個の値が存在することになる。
次に出力値マップ生成部8は、第2検出枠についてのある検出実行位置を、対象検出実行位置として、第1縮小マップ400に対して、対象検出実行位置と同じ位置に、第2検出枠と同じ大きさの第1の縮小枠410を設定する。図23は、第1縮小マップ400に対して第1の縮小枠410を設定した様子を示す図である。
次に出力値マップ生成部8は、第1の縮小枠410が設定された第1縮小マップ400を、基準処理対象画像を縮小して第1縮小処理対象画像を生成した際の縮小率の逆数だけ拡大して得られる第2マップ450を考える。図24は、第2マップ450を示す図である。第2マップ450では、拡大後の第1の縮小枠410である第2の枠460が設定されている。第2マップ450は、第1マップ300と同様に、行方向にM個の値が並び、列方向にN個の値が並ぶ、合計(M×N)個の値で構成されている。また第2の枠460内には、例えば、行方向に18個、列方向に18個、合計324個の値が存在する。
次に出力値マップ生成部8は、第2マップ450における、第2の枠460外の各値については“0”とし、第2の枠460内の各値については、対象検出実行位置に対応する検出確度値を用いて決定する。出力値マップ生成部8は、第1の枠310内の各値を決定する場合と同様にして、第2の枠460内の各値を決定する。具体的には、出力値マップ生成部8は、第2の枠460内の中心の値を、検出部7で求められた、対象検出実行位置に対応する検出確度値とする。そして、出力値マップ生成部8は、第2の枠460内のそれ以外の複数の値を、第2の枠460の中心の値を最大値とした正規分布曲線に従って第2の枠460内の中心から外側に向けて値が徐々に小さくなるようにする。これにより、第2マップ450を構成する複数の値のそれぞれが決定されて、対象検出実行位置に対応する第2マップ450が完成する。出力値マップ生成部8は、第2検出枠についての複数の検出実行位置にそれぞれ対応する複数の第2マップ450を生成する。
また出力値マップ生成部8は、第2マップ450と同様にして、第3検出枠についての複数の検出実行位置にそれぞれ対応する複数の第3マップを生成する。具体的には、出力値マップ生成部8は、まず、第2縮小処理対象画像を構成する複数のピクセルと同じ数及び同じ配列の複数の値で構成された第2縮小マップを考える。第2縮小処理対象画像の大きさがM2p×N2pであるとすると、第2縮小マップでは、行方向のM2個の値が並び、列方向にN2個の値が並び、合計(M2×N2)個の値が存在することになる。
次に出力値マップ生成部8は、第3検出枠についてのある検出実行位置を、対象検出実行位置として、第2縮小マップに対して、対象検出実行位置と同じ位置に、第3検出枠と同じ大きさの第2の縮小枠を設定する。
次に出力値マップ生成部8は、第2の縮小枠が設定された第2縮小マップを、基準処理対象画像を縮小して第2縮小処理対象画像を生成した際の縮小率の逆数だけ拡大して得られる第3マップを考える。第3マップでは、拡大後の第2の縮小枠である第3の枠が設定されている。第3マップは、第1及び第2マップと同様に、行方向にM個の値が並び、列方向にN個の値が並ぶ、合計(M×N)個の値で構成されている。また第3の枠内には、例えば、行方向に20個、列方向に20個、合計400個の値が存在する。
次に出力値マップ生成部8は、第3マップにおける、第3の枠外の各値については“0”とし、第3の枠内の各値については、対象検出実行位置に対応する検出確度値を用いて決定する。出力値マップ生成部8は、第1及び第2の枠内の各値を決定する場合と同様にして、第3の枠内の各値を決定する。具体的には、出力値マップ生成部8は、第3の枠内の中心の値を、検出部7で求められた、対象検出実行位置に対応する検出確度値とする。そして、出力値マップ生成部8は、第3の枠内のそれ以外の複数の値を、第3の枠の中心の値を最大値とした正規分布曲線に従って第3の枠内の中心から外側に向けて値が徐々に小さくなるようにする。これにより、第3マップを構成する複数の値のそれぞれが決定されて、対象検出実行位置に対応する第3マップが完成する。出力値マップ生成部8は、第3検出枠についての複数の検出実行位置にそれぞれ対応する複数の第3マップを生成する。
出力値マップ生成部8は、第1検出枠についての複数の検出実行位置にそれぞれ対応する複数の第1マップと、第2検出枠についての複数の検出実行位置にそれぞれ対応する複数の第2マップと、第3検出枠についての複数の検出実行位置にそれぞれ対応する複数の第3マップとを生成すると、これらのマップを合成して出力値マップを生成する。具体的には、出力値マップ生成部8は、複数の第1マップと、複数の第2マップと、複数の第3マップとのm×n番目の値を加算し、それによって得られた加算値を出力値マップのm×n番目の検出確度値とする。出力値マップ生成部8は、このようにして、出力値マップを構成する各検出確度値を求める。これにより、処理対象画像での検出確度値の分布を示す出力値マップが生成される。出力値マップを参照すれば、処理対象画像において顔画像らしさが高い領域を特定することができる。つまり、出力値マップを参照することによって、処理対象画像に含まれる顔画像を特定することができる。
図25は、上述の図3の処理対象画像20とは別の処理対象画像20についての出力値マップを当該処理対象画像20に重ねて示す図である。図25では、理解し易いように、検出確度値の大きさを例えば第1段階から第5段階の5段階に分けて出力値マップを示している。図25に示される出力値マップにおいては、検出確度値が、最も大きい第5段階に属する領域については縦線のハッチングが示されており、2番目に大きい第4段階に属する領域については砂地のハッチングが示されている。また、図25での出力値マップにおいては、検出確度値が、3番目に大きい第3段階に属する領域については右上がりのハッチングが示されており、4番目に大きい第2段階に属する領域については左上がりのハッチングが示されている。そして、図25に示される出力値マップにおいては、検出確度値が、最も小さい第1段階に属する領域についてはハッチングが示されていない。図25に示される出力値マップにおいては、処理対象画像20での顔画像に対応する領域での検出確度値が高くなっている。
図26は、本実施の形態とは異なり、検出部7が、処理対象画像20に対して検出枠を移動させながら当該検出枠内の部分画像に対して顔画像の検出を行う際に、検出対象存在確率マップを使用せずに、検出枠のすべての位置において顔画像の検出を行った場合に生成される出力値マップを示す図である。つまり、図26は、本実施の形態とは異なり、検出対象存在確率マップを使用せずに、処理対象画像20のすべての領域に対して顔画像の検出を行った場合に生成される出力値マップを示す図である。図26においても、図25と同様に、検出確度値の大きさが5段階に分けられて出力値マップが示されている。図26に示されるように、検出対象存在確率マップを使用せずに、処理対象画像20のすべての領域に対して顔画像の検出を行った場合に生成される出力値マップにおいては、検出確度値が大きくなっている、処理対象画像20での非顔画像に対応する領域が多くなっている。図26の出力値マップでは、例えば、処理対象画像20の下側部分に存在する植栽の画像に対応する領域での検出確度値が高くなっている。したがって、処理対象画像20のすべての領域に対して顔画像の検出を行った場合には、顔画像を誤検出する可能性が高くなる。
画像検出装置1は、出力値マップを生成すると、当該出力値マップに基づいて、処理対象画像での顔画像を特定する。具体的には、画像検出装置1は、出力値マップにおいて、検出確度値がしきい値以上である領域を特定し、処理対象画像での当該領域と同じ位置に存在する領域を顔画像であると認定する。そして、画像検出装置1は、処理対象画像を表示装置で表示する際に、当該処理対象画像での顔画像を四角枠等が囲うようにする。
また、画像検出装置1は、予め登録された顔画像と、処理対象画像において特定した顔画像とを比較し、両者が一致するか否かを判定しても良い。そして、画像検出装置1は、予め登録された顔画像と、処理対象画像において特定した顔画像と一致しない場合には、処理対象画像での当該顔画像に対してモザイク処理を行った上で、当該処理対象画像を表示装置に表示しても良い。これにより、本実施の形態に係る画像検出装置1を監視カメラシステムに使用した場合において、監視カメラによって隣家の人の顔画像が撮影された場合であっても、当該顔画像を認識できないようにすることができる。つまり、プライバシーマスクを実現することができる。
以上のように、本実施の形態では、検出部7が、処理対象画像において検出対象画像の検出を行う領域を検出対象存在確率マップに基づいて決定していることから、処理対象画像での不要な領域、つまり検出対象画像が存在しない可能性が高い領域に対して検出対象画像の検出が行われることを抑制できる。その結果、検出対象画像についての検出精度が向上する。
また、本実施の形態のようにエントロピーマップ、背景存在確率マップ及び検出対象存在確率マップを生成することによって、これらのマップの生成処理にかかる時間を、検出対象存在確率マップを使用せずに処理対象画像のすべての領域に対して検出対象画像の検出を行う処理にかかる時間と比べて非常に小さくすることができる。したがって、本実施の形態のように、処理対象画像において検出対象画像が存在しない可能性が高い領域に対して検出対象画像の検出を行うことを抑制することによって、言い換えれば、検出枠内の部分画像に対する検出対象画像の検出処理の実行回数を低減することによって、処理対象画像に対する検出対象画像の検出結果が得られるまでにかかるトータル時間を大幅に低減することができる。
なお、上記の例では、検出対象画像を顔画像としていたが、顔画像と同様に、輝度ヒストグラムの分布がばらついている画像であるならば、その画像を検出対象画像とすることができる。
また、上記の例では、第2確率マップ生成部6は、検出対象存在確率マップを、エントロピーマップ及び背景存在確率マップに基づいて生成したが、エントロピーマップだけに基づいて生成しても良い。この場合には、第2確率マップ生成部6は、エントロピーマップ生成部4が生成したエントロピーマップの各評価値を2値化することによって検出対象存在確率マップを生成する。具体的には、第2確率マップ生成部6は、エントロピーマップのm×n行目の評価値がしきい値以上であれば、検出対象存在確率マップでのm×n行目の顔存在確率評価値を“255”とする。一方で、第2確率マップ生成部6は、エントロピーマップのm×n行目の評価値がしきい値未満であれば、検出対象存在確率マップでのm×n行目の顔存在確率評価値を“0”とする。第2確率マップ生成部6は、同様にして、検出対象存在確率マップを構成する複数の顔存在確率評価値のそれぞれを求める。
このように、第2確率マップ生成部6が、検出対象存在確率マップをエントロピーマップに基づいて生成する場合であっても、処理対象画像において検出対象画像が存在しない可能性が高い領域に対して検出対象画像の検出が行われることを抑制することができる。よって、検出対象画像についての検出精度を向上させることができる。
また、上述の実施の形態のように、検出対象存在確率マップが、エントロピーマップ及び背景存在確率マップに基づいて生成される際には、検出対象存在確率マップの精度を向上することができることから、検出対象画像についての検出精度をさらに向上させることができる。
1 画像検出装置
4 エントロピーマップ生成部
5 第1確率マップ生成部
6 第2確率マップ生成部
7 検出部
12 制御プログラム

Claims (7)

  1. 処理対象画像から検出対象画像を検出する画像検出装置であって、
    前記処理対象画像での輝度ヒストグラムのエントロピーの分布を示すエントロピーマップを生成する第1マップ生成部と、
    前記エントロピーマップに基づいて、前記処理対象画像での前記検出対象画像の存在確率の分布を示す検出対象存在確率マップを生成する第2マップ生成部と、
    前記処理対象画像において前記検出対象画像の検出を行う領域を前記検出対象存在確率マップに基づいて決定し、当該領域に対して前記検出対象画像の検出を行う検出部と
    を備え
    前記第1マップ生成部は、前記輝度ヒストグラムのエントロピーの評価値で構成された前記エントロピーマップを生成し、
    前記第1マップ生成部は、
    前記処理対象画像に含まれるある領域での前記輝度ヒストグラムのエントロピーである第1エントロピーがしきい値以上の場合には、前記処理対象画像よりも前に撮像された前画像における、当該ある領域と同じ位置の領域での前記輝度ヒストグラムのエントロピーである第2エントロピーの前記評価値を、当該第1エントロピーに基づいて更新することによって、当該第1エントロピーの前記評価値を求める、画像検出装置。
  2. 処理対象画像から検出対象画像を検出する画像検出装置であって、
    前記処理対象画像よりも前に撮像された前画像と前記処理対象画像との差分画像を生成する差分画像生成部と、
    前記処理対象画像での輝度ヒストグラムのエントロピーの分布を示すエントロピーマップを生成する第1マップ生成部と、
    前記エントロピーマップに基づいて、前記処理対象画像での前記検出対象画像の存在確率の分布を示す検出対象存在確率マップを生成する第2マップ生成部と、
    前記処理対象画像において前記検出対象画像の検出を行う領域を前記検出対象存在確率マップに基づいて決定し、当該領域に対して前記検出対象画像の検出を行う検出部と
    を備え、
    前記第1マップ生成部は、前記差分画像に基づいて、前記処理対象画像において前記前画像から変化した変化領域を特定し、
    前記第1マップ生成部は、
    前記処理対象画像についての前記エントロピーマップを生成する際には、
    前記処理対象画像のうち前記変化領域以外の領域での輝度ヒストグラムのエントロピーの分布については、前記前画像での輝度ヒストグラムのエントロピーの分布を使用し、
    前記処理対象画像のうち前記変化領域での輝度ヒストグラムのエントロピーの分布については、あらたに求める、画像検出装置。
  3. 処理対象画像から検出対象画像を検出する画像検出装置であって、
    前記処理対象画像での輝度ヒストグラムのエントロピーの分布を示すエントロピーマップを生成する第1マップ生成部と、
    前記エントロピーマップに基づいて、前記処理対象画像での前記検出対象画像の存在確率の分布を示す検出対象存在確率マップを生成する第2マップ生成部と、
    前記処理対象画像において前記検出対象画像の検出を行う領域を前記検出対象存在確率マップに基づいて決定し、当該領域に対して前記検出対象画像の検出を行う検出部と、
    前記処理対象画像での背景画像の存在確率の分布を示す背景存在確率マップを生成する第3マップ生成部と
    を備え、
    前記第2マップ生成部は、前記エントロピーマップ及び前記背景存在確率マップに基づいて、前記検出対象存在確率マップを生成する、画像検出装置。
  4. 請求項に記載の画像検出装置であって、
    前記処理対象画像よりも前に撮像された前画像と前記処理対象画像との差分画像を生成する差分画像生成部をさらに備え、
    前記第3マップ生成部は、前記差分画像に基づいて、前記処理対象画像において前記前画像から変化した変化領域を特定し、
    前記第3マップ生成部は、
    前記処理対象画像についての前記背景存在確率マップを生成する際には、
    前記処理対象画像のうち前記変化領域以外の領域での背景画像の存在確率の分布については、前記前画像での背景画像の存在確率の分布を使用し、
    前記処理対象画像のうち前記変化領域での背景画像の存在確率の分布については、あらたに求める、画像検出装置。
  5. 請求項1乃至請求項4のいずれか一つに記載の画像検出装置であって、
    前記検出対象画像は、人の顔画像である、画像検出装置。
  6. 処理対象画像から検出対象画像を検出する画像検出装置を制御するための制御プログラムであって、
    前記画像検出装置に、
    (a)前記処理対象画像での輝度ヒストグラムのエントロピーの分布を示すエントロピーマップを生成する工程と、
    (b)前記処理対象画像での背景画像の存在確率の分布を示す背景存在確率マップを生成する工程と、
    (c)前記エントロピーマップ及び前記背景存在確率マップに基づいて、前記処理対象画像での前記検出対象画像の存在確率の分布を示す検出対象存在確率マップを生成する工程と、
    (d)前記処理対象画像において前記検出対象画像の検出を行う領域を前記検出対象存在確率マップに基づいて決定し、当該領域に対して前記検出対象画像の検出を行う工程と
    を実行させるための制御プログラム。
  7. 処理対象画像から検出対象画像を検出する画像検出方法であって、
    a)前記処理対象画像での輝度ヒストグラムのエントロピーの分布を示すエントロピーマップを生成する工程と、
    (b)前記処理対象画像での背景画像の存在確率の分布を示す背景存在確率マップを生成する工程と、
    )前記エントロピーマップ及び前記背景存在確率マップに基づいて、前記処理対象画像での前記検出対象画像の存在確率の分布を示す検出対象存在確率マップを生成する工程と、
    )前記処理対象画像において前記検出対象画像の検出を行う領域を前記検出対象存在確率マップに基づいて決定し、当該領域に対して前記検出対象画像の検出を行う工程と
    備える、画像検出方法。
JP2012239808A 2012-10-31 2012-10-31 画像検出装置及び制御プログラム並びに画像検出方法 Expired - Fee Related JP6088792B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012239808A JP6088792B2 (ja) 2012-10-31 2012-10-31 画像検出装置及び制御プログラム並びに画像検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012239808A JP6088792B2 (ja) 2012-10-31 2012-10-31 画像検出装置及び制御プログラム並びに画像検出方法

Publications (2)

Publication Number Publication Date
JP2014089626A JP2014089626A (ja) 2014-05-15
JP6088792B2 true JP6088792B2 (ja) 2017-03-01

Family

ID=50791476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012239808A Expired - Fee Related JP6088792B2 (ja) 2012-10-31 2012-10-31 画像検出装置及び制御プログラム並びに画像検出方法

Country Status (1)

Country Link
JP (1) JP6088792B2 (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6432360B2 (ja) * 2015-01-19 2018-12-05 株式会社ユニバーサルエンターテインメント 遊技機
US10277831B2 (en) 2016-03-25 2019-04-30 Fuji Xerox Co., Ltd. Position identifying apparatus and method, path identifying apparatus, and non-transitory computer readable medium
DE102016119639A1 (de) * 2016-10-14 2018-04-19 Uniqfeed Ag System zur dynamischen Kontrastmaximierung zwischen Vordergrund und Hintergrund in Bildern oder/und Bildsequenzen
US10839203B1 (en) 2016-12-27 2020-11-17 Amazon Technologies, Inc. Recognizing and tracking poses using digital imagery captured from multiple fields of view
GB2560177A (en) 2017-03-01 2018-09-05 Thirdeye Labs Ltd Training a computational neural network
GB2560387B (en) 2017-03-10 2022-03-09 Standard Cognition Corp Action identification using neural networks
US10699421B1 (en) 2017-03-29 2020-06-30 Amazon Technologies, Inc. Tracking objects in three-dimensional space using calibrated visual cameras and depth cameras
US11023850B2 (en) 2017-08-07 2021-06-01 Standard Cognition, Corp. Realtime inventory location management using deep learning
US11200692B2 (en) 2017-08-07 2021-12-14 Standard Cognition, Corp Systems and methods to check-in shoppers in a cashier-less store
US10055853B1 (en) 2017-08-07 2018-08-21 Standard Cognition, Corp Subject identification and tracking using image recognition
US10445694B2 (en) 2017-08-07 2019-10-15 Standard Cognition, Corp. Realtime inventory tracking using deep learning
US11232687B2 (en) 2017-08-07 2022-01-25 Standard Cognition, Corp Deep learning-based shopper statuses in a cashier-less store
US10650545B2 (en) 2017-08-07 2020-05-12 Standard Cognition, Corp. Systems and methods to check-in shoppers in a cashier-less store
US10853965B2 (en) 2017-08-07 2020-12-01 Standard Cognition, Corp Directional impression analysis using deep learning
US10133933B1 (en) 2017-08-07 2018-11-20 Standard Cognition, Corp Item put and take detection using image recognition
US10474991B2 (en) 2017-08-07 2019-11-12 Standard Cognition, Corp. Deep learning-based store realograms
US10474988B2 (en) 2017-08-07 2019-11-12 Standard Cognition, Corp. Predicting inventory events using foreground/background processing
US11250376B2 (en) 2017-08-07 2022-02-15 Standard Cognition, Corp Product correlation analysis using deep learning
US10127438B1 (en) 2017-08-07 2018-11-13 Standard Cognition, Corp Predicting inventory events using semantic diffing
US11232294B1 (en) 2017-09-27 2022-01-25 Amazon Technologies, Inc. Generating tracklets from digital imagery
US11030442B1 (en) 2017-12-13 2021-06-08 Amazon Technologies, Inc. Associating events with actors based on digital imagery
US11284041B1 (en) 2017-12-13 2022-03-22 Amazon Technologies, Inc. Associating items with actors based on digital imagery
US11468698B1 (en) 2018-06-28 2022-10-11 Amazon Technologies, Inc. Associating events with actors using digital imagery and machine learning
US11468681B1 (en) 2018-06-28 2022-10-11 Amazon Technologies, Inc. Associating events with actors using digital imagery and machine learning
US11482045B1 (en) 2018-06-28 2022-10-25 Amazon Technologies, Inc. Associating events with actors using digital imagery and machine learning
CN111479070B (zh) * 2019-01-24 2022-02-01 杭州海康机器人技术有限公司 一种图像亮度确定方法、装置及设备
US11232575B2 (en) 2019-04-18 2022-01-25 Standard Cognition, Corp Systems and methods for deep learning-based subject persistence
US11398094B1 (en) 2020-04-06 2022-07-26 Amazon Technologies, Inc. Locally and globally locating actors by digital cameras and machine learning
US11443516B1 (en) 2020-04-06 2022-09-13 Amazon Technologies, Inc. Locally and globally locating actors by digital cameras and machine learning
US11361468B2 (en) 2020-06-26 2022-06-14 Standard Cognition, Corp. Systems and methods for automated recalibration of sensors for autonomous checkout
US11303853B2 (en) 2020-06-26 2022-04-12 Standard Cognition, Corp. Systems and methods for automated design of camera placement and cameras arrangements for autonomous checkout
CN114503160A (zh) 2020-08-01 2022-05-13 商汤国际私人有限公司 一种对象关联方法及装置、系统、电子设备、存储介质和计算机程序

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4186541B2 (ja) * 2002-07-29 2008-11-26 富士ゼロックス株式会社 画像処理装置

Also Published As

Publication number Publication date
JP2014089626A (ja) 2014-05-15

Similar Documents

Publication Publication Date Title
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
CN108229490B (zh) 关键点检测方法、神经网络训练方法、装置和电子设备
JP7252188B2 (ja) 画像処理システム、画像処理方法及びプログラム
CN109903331B (zh) 一种基于rgb-d相机的卷积神经网络目标检测方法
CN110008806B (zh) 信息处理装置、学习处理方法、学习装置及物体识别装置
US9047673B2 (en) Apparatus and method for extracting target, and recording medium storing program for performing the method
JP6093221B2 (ja) 画像処理回路及び画像検出装置
WO2019026104A1 (ja) 情報処理装置、情報処理プログラム及び情報処理方法
JP4903192B2 (ja) 顔検出装置
JP6110174B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP2019204193A (ja) 画像処理装置、画像処理方法及びプログラム
KR20150136225A (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
CN111881915A (zh) 一种基于多种先验信息约束的卫星视频目标智能检测方法
JP6340228B2 (ja) 物体検出装置
JP6147056B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
US20120170861A1 (en) Image processing apparatus, image processing method and image processing program
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6030457B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP6546385B2 (ja) 画像処理装置及びその制御方法、プログラム
JP6276504B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP6116916B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP2011150626A (ja) 画像分類方法、装置、及びプログラム
JP2015184944A (ja) 人物検出装置
JP2014203133A (ja) 画像処理装置、画像処理方法
JP6121768B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160816

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170206

R150 Certificate of patent or registration of utility model

Ref document number: 6088792

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees