JP6266468B2 - 対象検出装置 - Google Patents

対象検出装置 Download PDF

Info

Publication number
JP6266468B2
JP6266468B2 JP2014164911A JP2014164911A JP6266468B2 JP 6266468 B2 JP6266468 B2 JP 6266468B2 JP 2014164911 A JP2014164911 A JP 2014164911A JP 2014164911 A JP2014164911 A JP 2014164911A JP 6266468 B2 JP6266468 B2 JP 6266468B2
Authority
JP
Japan
Prior art keywords
area
region
candidate
target
index value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014164911A
Other languages
English (en)
Other versions
JP2016040705A (ja
Inventor
秀紀 氏家
秀紀 氏家
正則 小野塚
正則 小野塚
佐藤 昌宏
昌宏 佐藤
叶秋 李
叶秋 李
陽介 村井
陽介 村井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2014164911A priority Critical patent/JP6266468B2/ja
Publication of JP2016040705A publication Critical patent/JP2016040705A/ja
Application granted granted Critical
Publication of JP6266468B2 publication Critical patent/JP6266468B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は入力画像から所定の対象が現れた対象領域を検出する対象検出装置に関する。
監視カメラなどで撮影した入力画像から人物領域などを検出するために識別器やパターンマッチング器を用いた探索処理が行われる。入力画像における対象の位置、大きさ、姿勢は一般に未知である。そこで、探索処理では、入力画像内の各位置に複数通りの大きさの窓領域を設定し、各窓領域における画像の特徴量を複数通りの姿勢の識別器やパターンマッチング器それぞれに入力する。そして、識別器等から出力されるスコアが閾値を超える窓領域を対象の候補領域として抽出する。
この探索処理では1つの対象に対して、複数の候補領域が互いに重複して抽出され得、その場合、複数の候補領域に基づいて対象領域が決定される。特許文献1の画像処理装置は、重複して抽出された候補領域の中から最高スコアのものを対象領域として選出する。また、重複して抽出された複数の候補領域を平均化により合成して対象領域を求めることも行われる。
特開2010−160640号公報
しかしながら、重複して抽出された複数の候補領域(以下、領域グループ)を用いて対象領域を求める際に、領域グループにおける最高スコアの候補領域を対象領域として選出する手法と、候補領域を平均化により合成して対象領域を生成する手法とのいずれにおいても対象の検出精度が劣化する問題があった。具体的には、識別器等に用意される大きさや姿勢は離散的であり、例えば、窓領域の大きさを識別器に対応する規定の窓領域の大きさの1.0倍と1.2倍に設定して探索処理を行ったときに、真の対象の大きさが1.1倍である場合のように、真の対象の大きさや姿勢が識別器等における大きさや姿勢の中間になる場合がある。つまり、最高スコアの候補領域を対象領域として選出する手法では、好適に合致する窓領域が設定されていない対象に対して、真の対象領域との誤差が比較的大きくなる場合がある。一方、複数の候補領域を合成して対象領域を生成する手法では、例えば、窓領域の大きさに1.0倍と1.2倍が設定されているときに真の対象の大きさが1.0倍である場合のように、真の対象領域に好適に合致する窓領域が設定されている場合でも、誤差が大きい他の窓領域による候補領域を含めて合成が行われることにより精度が劣化し得る。すなわち、限られた窓領域の設定の下で択一的な手法によって対象領域を検出すると精度が低下する場合がある。
また、検出対象である人物の服装の影響、鞄や傘などの所持物の影響などによって位置や大きさが真の対象の位置や大きさからずれた候補領域が低いスコアで検出される場合がある。この場合に最高スコアの候補領域を対象領域として選出すると、真の対象領域との誤差が比較的大きくなってしまう。すなわち、対象の変動によっても対象領域の検出精度が低下する場合がある。
本発明は上記問題を鑑みてなされたものであり、限られた窓領域の設定の下であっても、また対象の変動があっても対象領域を精度よく検出可能な対象検出装置を提供することを目的とする。
本発明に係る対象検出装置は、入力画像において所定の対象が現れている対象領域を検出するものであって、 前記入力画像内に設定される注目領域に前記対象が存在する尤もらしさを表す指標値を前記入力画像内の各所にて抽出される特徴量を用いて算出するための指標値算出関数を予め記憶している記憶部と、前記入力画像内の複数の位置に前記注目領域を設定し、当該注目領域における前記指標値を前記指標値算出関数により算出する指標値算出部と、前記注目領域のうち前記指標値が予め定められた第一閾値を超えるものを候補領域として抽出すると共に、当該候補領域相互についての予め定められた重複関係を満たす複数の前記候補領域からなる領域グループを生成する領域グループ生成部と、 前記領域グループごとに、当該領域グループに帰属する帰属候補領域から選択した1つの代表領域と、前記帰属候補領域を平均した平均領域とのいずれかを前記帰属候補領域の前記指標値が予め定めた条件を満たすか否かに応じて切り替えて前記対象領域として定める対象領域決定部と、を備える。
本発明の好適な態様は、前記対象領域決定部が、前記帰属候補領域の前記指標値のいずれかが前記第一閾値よりも高く定めた第二閾値以上の場合に、前記代表領域を選択して前記対象領域とし、前記帰属候補領域の前記指標値のいずれもが前記第二閾値未満の場合に、前記平均領域を求めて前記対象領域とする対象検出装置である。
さらに、前記対象領域決定部は、前記帰属候補領域の前記指標値の最高値が前記第二閾値以上の場合に、当該最高値が得られた前記帰属候補領域を前記代表領域とすることができる。
本発明の他の好適な態様は、前記対象領域決定部が、前記各帰属候補領域の位置及び寸法を当該帰属候補領域の前記指標値で重み付け平均して前記平均領域を定める対象検出装置である。
本発明によれば、限られた窓領域の設定の下であっても、また対象の変動があっても対象領域を精度よく検出可能することができる。
本発明の実施形態に係る人物検出装置の概略のブロック構成図である。 入力画像及び縮小画像の例を示す模式図である。 本発明の実施形態に係る人物検出装置の概略の動作を示すフロー図である。 倍率が異なる複数の画像から抽出された候補領域を1つの画像上にまとめて表示した模式図である。 領域グループ生成部の概略の処理フロー図である。 対象領域決定部の概略の処理フロー図である。
以下、本発明の実施の形態(以下実施形態という)について、図面に基づいて説明する。本実施形態に係る対象検出装置は、画像中に映った人物を検出の対象とする人物検出装置1である。
[構成例]
図1は、実施形態に係る人物検出装置1の概略のブロック構成図である。人物検出装置1は、画像入力部2、制御部3、記憶部4及び出力部5を含んで構成される。画像入力部2、記憶部4及び出力部5は制御部3と接続される。
画像入力部2は例えば、監視カメラなどの撮像装置、又は映像を記録したデジタルビデオレコーダーなどの記録装置であり、画像を制御部3へ出力する。以下、画像入力部2から制御部3に入力される画像を入力画像と称する。
制御部3はCPU(Central Processing Unit)、DSP(Digital Signal Processor)等の演算装置を用いて構成される。制御部3は、画像入力部2からの入力画像を処理して人の存在有無を判定し、その判定結果等を出力部5へ出力する処理を行う。そのために、制御部3は、記憶部4からプログラムを読み出して実行し、画像縮小部30、特徴量抽出部31、指標値算出部32、部位検出部33、領域グループ生成部34及び対象領域決定部35として機能する。
画像縮小部30は、入力画像に撮像されている人物のサイズが様々であることに対応して、予め設定された複数段階の倍率で入力画像を縮小する。これにより画像内にて人物を検出するために設定する窓領域の大きさは変えずに、様々なサイズの人物領域を検出することが可能となる。例えば、画像縮小部30は入力画像を予め定めた最小幅または高さになるまで決まった間隔で順次縮小し、縮小画像を生成する。縮小倍率は、例えば縦横のサイズが半分になるまでの間に10段階に設定される。例えば、図2(a)に示す画像100が原サイズの入力画像であり、図2(b),(c)に示す画像110,120は画像100を縮小した入力画像の例である。
特徴量抽出部31は、原サイズの入力画像及び縮小した入力画像のそれぞれを予め定めたブロックサイズに区切り、各ブロックの画像から特徴量を抽出する。特徴量として、ヒストグラム・オブ・オリエンティッド・グラディエント(Histograms of Oriented Gradients:HOG)特徴量、局所二値パターン(Local Binary Pattern:LBP)特徴量、Haar-like特徴量などの従来知られた特徴量を単独で、又は複数を組み合わせて用いることができる。
指標値算出部32は、原サイズの入力画像及び縮小した入力画像内の各位置に人物を検出するための枠として、予め定めた人の大きさの窓領域(注目領域)を設定し、当該窓領域に対象が存在する尤もらしさを表す多値の指標値であるスコアを、入力画像内の各所にて抽出された特徴量と予め学習した指標値算出関数により算出する。例えば、指標値算出部32は、各窓領域内の特徴量を指標値算出関数に入力して当該窓領域に対するスコアを算出する、または、人物の腕部等が窓領域からはみ出す姿勢変動を考慮して窓領域内及び窓領域周辺の所定範囲の特徴量を指標値算出関数に入力して当該窓領域に対するスコアを算出する。
なお、図2では画像100,110,120に設定される矩形の窓領域101の例を点線で示している。指標値算出部32は窓領域101を少しずつずらしながら繰り返し設定し、画像全体を走査する。例えば、窓領域101の走査は画像の左上から水平方向の走査が開始される。水平方向の走査は垂直方向の位置を少しずつずらしつつ繰り返される。
指標値算出関数は本実施形態では、検出対象である「人」と「人」以外とを識別する識別器である。識別器は「人」が映っている多数の画像と、「人」が映っていない多数の画像とを用いて予め学習され、後述する指標値算出関数格納部40に格納されている。指標値算出部32は識別器に窓領域の位置に応じて特徴量を与えることでスコアを算出する。
指標値算出部32は、スコアが予め定めた第一閾値Tを超える窓領域を人の候補領域として、当該窓領域の矩形情報(入力画像における位置、幅及び高さ)とそのスコアを、後述する候補領域格納部41に格納する。例えば、入力画像における窓領域の位置として窓領域をなす矩形の左上の座標が格納される。
部位検出部33は予め定めた部位、例えば頭部などを検出する。この部位の検出結果は、最終的な人の検出領域を補正するために用いる。部位を検出するために、予め収集した人の当該部位とそれ以外の画像から抽出された特徴量を用いて識別器を学習し、学習した識別器のパラメータを指標値算出関数格納部40に格納しておく。
部位検出部33は、候補領域格納部41に格納された各候補領域について部位の検出を行う。候補領域内に部位検出用の窓領域を設定し、当該窓領域内から得られた特徴量を部位検出用の識別器に与えることで部位らしさを表すスコアを計算する。このスコアが候補領域内で最大になるところを見つける。この時、部位の位置や大きさに関する制約を入れてもよい。例えば、頭部であれば、人物の候補領域の上の方ある可能性が高いため、探索範囲を絞り込むことができる。また、候補領域の大きさからおおよその頭部の大きさの範囲がわかるので、それを利用してもよい。
部位検出部33から出力される情報は、部位の矩形領域(入力画像における位置、幅及び高さ)及び部位らしさを表すスコアである。なお、入力画像における部位の位置として例えば、部位検出用の窓領域をなす矩形の左上の座標が格納される。
本実施形態では、部位検出部33は後述する領域グループを構成する各候補領域にて頭部検出を行い、頭部を検出した矩形領域を頭部らしさを表すスコアで重み付け平均して、当該領域グループに対応した人物の頭部の矩形位置を算出する。なお、負のスコアを含む場合は、スコアの最小値の絶対値を加えたスコアで重み付ける。また、頭部位置の算出における平均化の方法は、スコアの重み付きではなく単純平均とすることもできる。また、頭部らしさを表すスコアにシグモイド関数を用いた非線形変換を施し、変換後のスコアで重み付き平均しても良い。
また、指標値算出部32でスコアを算出する際に、人物の全身について1つの識別器を用いる場合と複数の部位による識別器を用いる場合が考えられ、指標値算出部32が複数の部位検出によって算出されるものであれば、部位検出部33はその結果を利用して部位検出を行ってもよい。
領域グループ生成部34は、候補領域格納部41に格納されている候補領域について、当該候補領域相互についての予め定められた重複関係を満たす複数の領域からなる領域グループを生成する。具体的には、領域グループ生成部34は、所定以上の重複を有する候補領域同士に同じラベル番号を割り当てることによって領域グループの情報を生成する。また、その際にスコアの高い候補領域を優先的にグループの核とする。詳細は動作の説明にて後述する。領域グループ生成部34で割り当てた各候補領域のラベル番号は、矩形情報及びスコアと共に候補領域格納部41に格納される。
対象領域決定部35は候補領域格納部41に格納されている候補領域から最終的な人物領域(対象領域)を求める。対象領域決定部35は、領域グループ生成部34で算出されたグループごとに1つの人物領域を定め、当該人物領域の領域情報をスコアと共に対象領域格納部42に格納する。
ここで、スコアが高い候補領域は真の対象領域との間に位置や大きさのずれが生じにくく、スコアが低い候補領域は真の対象領域との間に位置や大きさのずれが生じやすい傾向があるという知見が実験的に得られた。また、領域グループ単位でみた場合、帰属する候補領域の最大スコアが十分に高い領域グループでは最高スコアが得られた候補領域の方が帰属する複数の候補領域を平均化した領域よりも真の対象領域とのずれが生じにくく、帰属する候補領域の最高スコアが低めの領域グループでは、帰属する複数の候補領域を平均化した領域の方が最高スコアが得られた候補領域よりも真の対象領域とのずれが生じにくい傾向があるという知見が得られた。そこで対象領域決定部35は、スコアによって対象領域の決定方法を切り替える。
具体的には、対象領域決定部35は領域グループごとに、当該領域グループに帰属する候補領域(帰属候補領域)から選択した1つの代表領域と、帰属候補領域を平均した平均領域とのいずれかを対象領域として定める。その際、対象領域決定部35は、帰属候補領域のスコアが予め定めた条件を満たすか否かに応じて、代表領域と平均領域とのいずれを対象領域とするかを切り替える。
本実施形態では、対象領域決定部35は、帰属候補領域のスコアのいずれかが第一閾値Tよりも高く定めた第二閾値T以上の場合に、代表領域を選択して対象領域とし、帰属候補領域のスコアのいずれもが第二閾値T未満の場合に、平均領域を求めて対象領域とする。例えば、対象領域決定部35は帰属候補領域のスコアの最高値が第二閾値T以上の場合に、当該最高値が得られた帰属候補領域を代表領域とする。また、対象領域決定部35は各帰属候補領域の位置及び寸法を当該帰属候補領域のスコアで重み付け平均して平均領域を生成する。
なお、代表領域を選択する際、帰属候補領域のうち外れ値のスコアを有する帰属候補領域を除外してから、スコアの最高値が得られた帰属候補領域を代表領域としてもよい。この場合、例えば、スコアが高い帰属候補領域から順に規定数の個数の帰属候補領域を外れ値として除外してもよいし、スコアが高い帰属候補領域から順に規定割合の個数の帰属領域を外れ値として除外してもよいし、スコアの高さが1つ下位の帰属候補領域との間でスコアの差が所定値以上である帰属候補領域を外れ値として除外してもよい。
なお、平均領域を生成する際の平均化の方法は、スコアの重み付きではなく単純平均とすることもできる。また、スコアにシグモイド関数を用いた非線形変換を施し、変換後のスコアで重み付き平均しても良い。
また、平均領域を生成する際、領域グループにおいてスコアが高い帰属候補領域から順に規定個数の帰属候補領域を使って上述の平均化を行ってもよい。
また、スコアに負の値がある場合は、正のスコアを持つ帰属候補領域のみを使って上述の平均化を行ってもよい。また、スコアに負の値がある場合に、スコアの最低値の絶対値を各帰属候補領域のスコアに足すなどの線形変換により全てのスコアを0以上に変換し、変換後のスコアで重み付き平均をしてもよい。
対象領域を決定する方法を切り替えるための第二閾値Tは、例えば予めの実験に基づき真の対象領域に対する候補領域のずれと、領域グループ単位で得られる最高スコアとの関係から定めることができる。具体的には、真の対象領域を予め目視確認により設定したテスト画像に対し候補領域を抽出し、領域グループ生成処理を行う。生成された領域グループそれぞれに対して真の対象領域とのずれ度合いが予め定めた閾値(例えば、0.2)未満である候補領域の有無を判定し、ずれ度合いが閾値未満の候補領域の最大スコアを算出する。
候補領域と真の対象領域とのずれ度合いは例えば、1−(候補領域と真の対象領域との重なり領域)/(候補領域と真の対象領域との和領域)や1−(候補領域と真の対象領域との重なり領域の高さ)/(候補領域と真の対象領域との和領域の高さ)などで計算される。ずれ度合いは候補領域が真の対象領域と完全に一致すれば0になり、真の対象領域とまったく合致しない場合は1となる。
そして,テスト画像から生成された領域グループのうち、ずれ度合いが閾値未満である候補領域を含んだ領域グループそれぞれから求めた最大スコアのうち最小値を、人物領域算出方法の切替閾値である第二閾値Tに設定する。つまり、この第二閾値Tは真の対象領域に対するずれが小さな代表領域を含む領域グループのうち最もスコアが低い領域グループに基づいて定めた閾値であるので、代表領域を対象領域として求めるべき領域グループと平均領域を対象領域として求める領域グループとの境界となる閾値として推定することができる。
制御部3は,入力画像から最終的な人物領域が1つでも検出された場合は、その情報を出力部5に出力する。
記憶部4はROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等の記憶装置であり、制御部3で使用されるプログラムやデータを記憶する。記憶部4はこれらプログラム、データを制御部3との間で入出力する。記憶部4は指標値算出関数格納部40、候補領域格納部41及び対象領域格納部42としての機能を有する。
指標値算出関数格納部40は、入力画像内に設定される窓領域に対象が存在する尤もらしさを表す指標値であるスコアを、入力画像内の各ブロックにて抽出される特徴量を用いて算出するための指標値算出関数、及び第一閾値Tを予め記憶している。指標値算出関数は既に述べたように識別器であり、具体的には予め収集した人の学習用画像と人以外の学習用画像にサポートベクターマシーン(Support Vector Machine:SVM)を適用して求めた識別器のパラメータが指標値算出関数格納部40に格納される。学習アルゴリズムとして線形SVMを用いた場合、識別器のパラメータは学習用画像から生成した重みベクトルである。この重みベクトルは、特徴量の各要素に対する重みである。重みベクトルは、当該重みベクトルと学習用画像から抽出された特徴量との内積が0より大きい場合は人、0以下の場合は人以外と識別されるように学習において調整され、入力画像の特徴量と重みベクトルとの内積の値がスコアを表す。よって、人と人以外のスコアを識別する閾値は原理上は0であり、通常、第一閾値Tは0に設定することができる。ただし、人を人以外であると識別する誤りを減じるために、第一閾値Tを0よりも小さな値に設定してもよい。
識別器の学習アルゴリズムにはSVMの他、アダブースト(AdaBoost)法など、従来知られた各種のものを用いることができる。
また、識別器の代わりにパターンマッチング器を用いることもでき、その場合、スコアは人の学習用画像から抽出した特徴量の平均パターンと入力画像の特徴量との距離の逆数などとなり、指標値算出関数は当該スコアを出力値とし入力画像の特徴量を入力値とする関数とすることができる。
候補領域格納部41は、指標値算出部32により得られた人物の候補領域の情報と領域グループ生成部34により得られた領域グループを示すラベル情報とを対応付けて格納する。なお、候補領域の情報は上述したように窓領域の位置・寸法、及びスコアである。ちなみに、窓領域は矩形であり、その寸法は幅と高さである。また例えば、入力画像における窓領域の位置として窓領域をなす矩形の左上の座標が格納される。
対象領域格納部42は、対象領域決定部35により最終的に人物がいると判定された人物領域の情報を格納する。人物領域の情報は、候補領域の情報と同様、入力画像における人物領域の矩形情報(矩形の左上の座標、及び寸法)とスコアとを対応付けた情報である。
出力部5は対象領域決定部35の結果を受けて、ディスプレイなどの外部表示装置に入力画像と共に異常発生の旨を表示し、または、異常信号をセンタ装置へ送出するといった警報出力を行う。
[動作例]
次に人物検出装置1の動作を説明する。図3は人物検出装置1の概略の動作を示すフロー図である。制御部3は画像入力部2から画像を入力されると(ステップS10)、画像縮小部30により、入力画像を複数の倍率それぞれで縮小して縮小画像を作成する(ステップS20)。例えば、図2に示したように、入力画像100から縮小画像110,120が生成される。
特徴量抽出部31は入力画像及び複数の縮小画像それぞれについて、画像内の各所における特徴量を計算する(ステップS30)。
指標値算出部32は、特徴量抽出部31で抽出された特徴量と指標値算出関数格納部40に格納されている識別器とにより画像内の各所に設定する窓領域に対応したスコアを算出し、設定した窓領域の中からスコアが第一閾値Tを超えるものを人物の候補領域として候補領域格納部41に格納する(ステップS40)。
図2では、窓領域101を点線の矩形で示し、候補領域の例を窓領域に応じた大きさの実線の矩形で示している。画像100では左側の小さな(遠くの)人物像が窓領域101に近い大きさとなり、その辺りにて大きなスコアが得られ候補領域102a,102bが抽出されている。また、画像120では右側の大きな(近くの)人物像が窓領域101に近い大きさとなり、その辺りにて大きなスコアが得られ候補領域122a,122bが抽出されている。なお、図2に示すように、1つ人物像に対し、重複した複数の候補領域が抽出され得る。
図4は倍率が異なる複数の画像100,110,120から抽出された候補領域を1つの画像上にまとめて表示した模式図である。図4に示す画像130は入力画像100と等倍のサイズであり、画像100の候補領域102a,102bはそのままの倍率で画像130上の候補領域131a,131bとなる。一方、縮小画像における候補領域は入力画像100の倍率に正規化され、候補領域122a,122bはそれぞれ候補領域132a,132bとなる。
領域グループ生成部34は、候補領域格納部41に格納されている候補領域同士の重複度を算出し、候補領域相互の重複度が予め定められたグループ判定閾値以上である候補領域からなるグループ(領域グループ)を生成し、当該グループを示すラベル番号を候補領域の情報に追加し候補領域格納部41に格納する(図3のステップS50)。
図5は領域グループ生成部34の概略の処理フロー図である。図5を用いて領域グループ生成部34の動作について説明する。
領域グループ生成部34は候補領域格納部41を参照し、候補領域をスコアの降順に並べ替え(ステップS500)、全候補領域についてラベル情報をラベル番号が未割当であることを示す状態に設定する(ステップS501)。
領域グループ生成部34は、ラベル番号を0から順次、インクリメントして設定する。そこで、現在のラベル番号を初期値0に設定する(ステップS502)。
領域グループ生成部34はラベル番号が未割当の候補領域があるかどうかチェックする(ステップS503)。未割当の候補領域がある場合は(ステップS503にて「YES」の場合)、未割当の候補領域の中からスコアが最大になるもの(候補領域Aとする)を選択し(ステップS504)、現在のラベル番号を付与する(ステップS505)。
そして候補領域Aを比較の基準として、ラベル未割当の候補領域を1つずつ比較相手として繰り返されるループ処理(S506〜S510)が行われる。当該ループ処理では比較相手として選択されていない候補領域を順次選択し(ステップS506)、比較相手として選択された候補領域Bと、候補領域Aとの重複度を計算し(ステップS507)、重複度が予め定められたグループ判定閾値より大きいか否かを判定する(ステップS508)。
重複度は、例えば、(入力画像中での候補領域Aと候補領域Bとの共通領域の面積)/(入力画像中での候補領域A及び候補領域Bの面積のうち小さい方)で計算される。また、(入力画像中での候補領域Aと候補領域Bとの共通領域の面積)/(入力画像中での候補領域Aと候補領域Bとの和領域の面積)で重複度を計算することもできる。例えば、重複度のグループ判定閾値は0.5に設定することができる。
重複度がグループ判定閾値より大きい場合は(ステップS508にて「YES」の場合)、候補領域Bに候補領域Aと同じラベル番号を付与し(ステップS509)、当該候補領域Bについての処理を終えステップS506に戻る。一方、重複度がグループ判定閾値以下の場合は(ステップS508にて「NO」の場合)、候補領域Bはラベル番号を未割当の状態のままとして当該候補領域Bについての処理を終えステップS506に戻る。
或る候補領域Aについて未割当の候補領域すべてとの比較が終了した場合、つまりステップS506で未処理の候補領域が存在せず選択できなかった場合(ステップS510にて「NO」の場合)、現在のラベル番号をインクリメントし(ステップS511)、ステップS503に戻り、新たな候補領域Aを選択してステップS504〜S511の処理を繰り返す。
一方、候補領域に対してラベル番号の付与が全て終了した場合、つまり未割当の候補領域が無い場合は、(ステップS503で「NO」の場合)、グループ生成処理を終了し図3のステップS60に処理を移行する。なお、候補領域に付与されたラベル番号は既に述べたように候補領域格納部41に格納される。
ちなみに、上述のように、スコアが高い候補領域を優先してグループの核に設定することにより、近接する複数の人物に係る候補領域が1つのグループとなることを回避することが期待できる。
領域グループ生成部34の処理の結果、例えば、図4の画像130における候補領域132a,132bがラベル番号“0”のグループとなり、候補領域131a,131bがラベル番号“1”のグループとなる。
領域グループ生成部34により候補領域格納部41に格納されている候補領域に対してラベル番号の付与が全て終了したら、対象領域決定部35は最終的な人物領域を算出し対象領域格納部42に格納する(図3のステップS60)。対象領域決定部35は、候補領域格納部41を参照し、同一ラベル番号が割り当てられている候補領域から1つの人物領域を求めて出力する。これにより、最終的にはラベル数分だけ最終的な人物領域が出力される。
なお、重複度に基づくグループ生成は候補領域の重心と寸法をパラメータとしたクラスタリングによって行うこともできる。
図6は対象領域決定部35の概略の処理フロー図である。図6を用いて対象領域決定部35の動作について説明する。
対象領域決定部35は領域グループごとに人物領域を決定する処理を行い(ステップS600〜S606)、全領域グループについて人物領域を決定し終えていれば図3のステップS70に処理を移行する(ステップS600にて「YES」の場合)。
対象領域決定部35は人物領域を決定していない領域グループがある場合は(ステップS600にて「NO」の場合)、当該領域グループのラベル番号を選択し、候補領域格納部41から当該ラベル番号を付された候補領域の情報を抽出する(ステップS601)。
対象領域決定部35は、処理対象とする領域グループに帰属する候補領域におけるスコアの最大値を求め、その最大スコアと予め定めた第二閾値Tとの比較結果に応じて人物領域の決定手法を切り替える。
すなわち、領域グループ内での最大スコアが第二閾値T以上である場合は(ステップS602にて「YES」の場合)、最大スコアを与える候補領域を代表領域として選択し、当該領域グループにおける人物領域の検出結果とする(ステップS603)。
一方、最大スコアが第二閾値T未満の場合は(ステップS602にて「NO」の場合)、対象領域決定部35は処理対象とする領域グループに帰属する候補領域の矩形情報をスコアで重み付き平均した平均領域を計算し、これを当該領域グループにおける人物領域の検出結果とする(ステップS604)。
さて、個々の人物の体型や姿勢によって、実際の人物領域の縦横比は一定ではない。しかし、上述の予め定めた窓領域を用いた検知処理では、それにより抽出された候補領域は全て同じ縦横比を有する。ステップS603,S604で算出した人物領域は当該候補領域に基づいているので、実際の人物領域と縦横比に違いが生じ得る。
そこで、本実施形態では、比較的人物の部位の中でも安定的に検出できる頭部などの部位検出を用いることで、個々の人物の体型や姿勢に対応する。具体的には、人物領域の決定に際し頭部位置を考慮した補正を行う。そのため、部位検出部33はステップS601にて抽出した各候補領域について頭部を検出し、処理対象としている領域グループに対応した人物の頭部の矩形位置を求める(ステップS605)。
そして、対象領域決定部35は、ステップS603又はS604にて算出された人物領域に対し、ステップS605にて得られた頭部検出結果を用いた補正を行い、人物領域の最終結果を算出する(ステップS606)。そして、算出した最終結果を対象領域格納部42に格納する。例えば、対象領域決定部35は、部位検出部33により得られた頭部の位置を使って、人物領域の高さを修正する。具体的には、人物の高さが求めた頭部の位置と同じになるように修正する。
ステップS60にて人物領域の算出後、画像中に人物が一人でもいた場合(ステップS70にて「YES」の場合)、例えば、出力部5は検出された人物領域の情報と当該人物領域が検出された入力画像とを含めた異常信号をセンタ装置に送出する(ステップS80)。
以上、実施形態を用いて説明した本発明では、1つの対象に起因して複数抽出され得る候補領域から1つの対象領域を決定する際に、当該候補領域のスコアが予め定めた条件を満たすか否かに応じて対象領域の計算方法を切り替えることで、対象領域の最終的な検出結果の精度を向上させることができる。
上述の実施形態では、当該計算方法の切り替えの例として、候補領域の抽出に用いる第一閾値Tよりも高く定めた第二閾値Tを用い、対象領域決定部35が、帰属候補領域のスコアのいずれかが第二閾値T以上の場合に、代表領域を選択して対象領域とし、帰属候補領域のスコアのいずれもが第二閾値T未満の場合に、平均領域を求めて対象領域とする構成を説明した。しかし、当該計算方法の切り替え方は他の構成とすることもでき、例えば、対象領域決定部35は、帰属候補領域のスコアのいずれもが第二閾値T以上の場合に、代表領域を選択して対象領域とし、帰属候補領域のスコアのいずれかが第二閾値T未満の場合に、平均領域を求めて対象領域としてもよい。
この場合、第二閾値は実験データに基づき、真の対象領域に対するずれが小さな平均領域を含む領域グループのうち最大スコアが最も高い領域グループに基づいて定めることができる。
また、例えば、領域グループごとのスコアの平均値に対して第二閾値を予め設定して切り替える、領域グループごとの上位規定割合のスコアの平均値に対する第二閾値を予め設定して切り替える、または領域グループごとの上位規定個数のスコアの平均値に対する第二閾値を設定して切り替えるなど、代表領域と平均領域のいずれに基づいて対象領域を定めるかを切り替える条件は予めの実験により得られる領域グループごとのスコアに基づいて適宜定めることができる。
なお、上記実施形態においては検出対象を人物としたが、検出対象は顔や上半身などの部位でもよく、車輌や標識など他の物体でもよく、表情や姿勢などの状態であってもよい。
1 人物検出装置、2 画像入力部、3 制御部、4 記憶部、5 出力部、30 画像縮小部、31 特徴量抽出部、32 指標値算出部、33 部位検出部、34 領域グループ生成部、35 対象領域決定部、40 指標値算出関数格納部、41 候補領域格納部、42 対象領域格納部。

Claims (4)

  1. 入力画像において所定の対象が現れている対象領域を検出する対象検出装置であって、
    前記入力画像内に設定される注目領域に前記対象が存在する尤もらしさを表す指標値を前記入力画像内の各所にて抽出される特徴量を用いて算出するための指標値算出関数を予め記憶している記憶部と、
    前記入力画像内の複数の位置に前記注目領域を設定し、当該注目領域における前記指標値を前記指標値算出関数により算出する指標値算出部と、
    前記注目領域のうち前記指標値が予め定められた第一閾値を超えるものを候補領域として抽出すると共に、当該候補領域相互についての予め定められた重複関係を満たす複数の前記候補領域からなる領域グループを生成する領域グループ生成部と、
    前記領域グループごとに、当該領域グループに帰属する帰属候補領域から選択した1つの代表領域と、前記帰属候補領域を平均した平均領域とのいずれかを前記帰属候補領域の前記指標値が予め定めた条件を満たすか否かに応じて切り替えて前記対象領域として定める対象領域決定部と、
    を備えることを特徴とする対象検出装置。
  2. 前記対象領域決定部は、前記帰属候補領域の前記指標値のいずれかが前記第一閾値よりも高く定めた第二閾値以上の場合に、前記代表領域を選択して前記対象領域とし、前記帰属候補領域の前記指標値のいずれもが前記第二閾値未満の場合に、前記平均領域を求めて前記対象領域とすること、を特徴とする請求項1に記載の対象検出装置。
  3. 前記対象領域決定部は、前記帰属候補領域の前記指標値の最高値が前記第二閾値以上の場合に、当該最高値が得られた前記帰属候補領域を前記代表領域とすること、を特徴とする請求項2に記載の対象検出装置。
  4. 前記対象領域決定部は、前記各帰属候補領域の位置及び寸法を当該帰属候補領域の前記指標値で重み付け平均して前記平均領域を定めること、を特徴とする請求項1から請求項3のいずれか1つに記載の対象検出装置。
JP2014164911A 2014-08-13 2014-08-13 対象検出装置 Active JP6266468B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014164911A JP6266468B2 (ja) 2014-08-13 2014-08-13 対象検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014164911A JP6266468B2 (ja) 2014-08-13 2014-08-13 対象検出装置

Publications (2)

Publication Number Publication Date
JP2016040705A JP2016040705A (ja) 2016-03-24
JP6266468B2 true JP6266468B2 (ja) 2018-01-24

Family

ID=55541018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014164911A Active JP6266468B2 (ja) 2014-08-13 2014-08-13 対象検出装置

Country Status (1)

Country Link
JP (1) JP6266468B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6558387B2 (ja) 2017-03-14 2019-08-14 オムロン株式会社 画像解析装置、画像解析方法、及び画像解析プログラム
JP6907774B2 (ja) * 2017-07-14 2021-07-21 オムロン株式会社 物体検出装置、物体検出方法、およびプログラム
JP6920944B2 (ja) * 2017-09-26 2021-08-18 セコム株式会社 物体検出装置
JP6937266B2 (ja) * 2018-05-18 2021-09-22 Kddi株式会社 領域選択装置、領域選択方法、及び領域選択プログラム
JP7464263B2 (ja) 2020-04-08 2024-04-09 日本電気通信システム株式会社 検出装置、検出方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4712563B2 (ja) * 2006-01-16 2011-06-29 富士フイルム株式会社 顔検出方法および装置並びにプログラム
JP2009070344A (ja) * 2007-09-18 2009-04-02 Fujitsu Ten Ltd 画像認識装置、画像認識方法および電子制御装置

Also Published As

Publication number Publication date
JP2016040705A (ja) 2016-03-24

Similar Documents

Publication Publication Date Title
JP5214533B2 (ja) 人物追跡方法、人物追跡装置および人物追跡プログラム
JP5227888B2 (ja) 人物追跡方法、人物追跡装置および人物追跡プログラム
JP6266468B2 (ja) 対象検出装置
JP5772821B2 (ja) 顔特徴点位置補正装置、顔特徴点位置補正方法および顔特徴点位置補正プログラム
JP5517504B2 (ja) 画像処理装置、画像処理方法、およびプログラム
WO2019064375A1 (ja) 情報処理装置、制御方法、及びプログラム
MX2012010602A (es) Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara.
JP2009251893A (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
JP2009230703A (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
JP5290227B2 (ja) 対象物検知装置及びその学習装置
WO2019013246A1 (ja) 物体検出装置、物体検出方法、およびプログラム
CN110188780B (zh) 用于定位多目标特征点的深度学习模型的构建方法及装置
WO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
JP2017049676A (ja) 姿勢判定装置および物体検知装置
JP5027030B2 (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
JP6110174B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
US9697441B2 (en) Feature selection method and apparatus, and pattern discrimination method and apparatus
Loutas et al. Probabilistic multiple face detection and tracking using entropy measures
JP5155250B2 (ja) 対象物検出装置
JP2014021602A (ja) 画像処理装置及び画像処理方法
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JP5407897B2 (ja) 画像分類方法、装置、及びプログラム
JP2009251892A (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
JP6348368B2 (ja) 対象検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

R150 Certificate of patent or registration of utility model

Ref document number: 6266468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250