JP2013062688A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2013062688A
JP2013062688A JP2011199935A JP2011199935A JP2013062688A JP 2013062688 A JP2013062688 A JP 2013062688A JP 2011199935 A JP2011199935 A JP 2011199935A JP 2011199935 A JP2011199935 A JP 2011199935A JP 2013062688 A JP2013062688 A JP 2013062688A
Authority
JP
Japan
Prior art keywords
image
area
human body
processing
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011199935A
Other languages
English (en)
Other versions
JP5795916B2 (ja
JP2013062688A5 (ja
Inventor
Hiroshi Adachi
啓史 安達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011199935A priority Critical patent/JP5795916B2/ja
Priority to US13/594,422 priority patent/US9111346B2/en
Priority to CN201210339883.XA priority patent/CN102999900B/zh
Publication of JP2013062688A publication Critical patent/JP2013062688A/ja
Publication of JP2013062688A5 publication Critical patent/JP2013062688A5/ja
Application granted granted Critical
Publication of JP5795916B2 publication Critical patent/JP5795916B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 画像中の検出対象物体の大きさによらず高速に特定物体検出を可能にするための技術を提供すること。
【解決手段】 第1画像を再帰的に縮小することで、第2乃至第N画像を生成する。第1乃至N画像のそれぞれに対して被写体検出処理を行う。その際、第m画像(1≦m≦N)上の各画像領域のうち、予め該第m画像と関連づけられている画像領域を対象画像領域とする。そして、該対象画像領域内の各位置に規定サイズの矩形領域を設定して該対象画像領域に対して被写体検出処理を行う。
【選択図】図1

Description

本発明は、画像から被写体を検出するための技術に関するものである。
従来、監視カメラの画像から顔や人体等の特定の対象を検出する場合、パターンマッチング処理により対象の検出を行っていた。例えば、特許文献1では、画像の大きさを変更しながら照合パターンを画像全域に用いて複数の局所パターンを抽出し、それぞれの局所特徴量を算出する。そして、局所特徴量に重み付けを行った結果の総和から人体であるかを判定する。また、これらの特定物体の検出処理は、ネットワークカメラ機器の高画素化という背景や、監視等で実時間処理を行うために高速に実行できることが必要である。処理の高速化を実現する方法について、特許文献2には、パターンマッチングに用いる縮小画像(レイヤ)の優先度を過去の画像撮影結果に基づいて切り替える手法が記載されている。
特開2009−211311号公報 特許第4626493号公報
しかしながら、特に監視カメラにおいては主に奥行のある広範囲を撮像することが多く、同一画面中に大きい被写体と小さい被写体が混在する場面があり、被写体が画面内で一様の大きさになるとは限らない。
この環境において、検出対象物体をもれなく検出するためには、物体の大きさが小さい場合から大きい場合までの照合パターンを用いる必要がある。そのため、照合処理に用いる縮小画像(レイヤ)の優先度を変えても結局高速度に検出処理を行うことが出来ない。
本発明は上述した問題を解決するためになされたものであり、画像中の検出対象物体の大きさによらず高速に特定物体検出を可能にするための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は、第1画像を取得する取得手段と、前記第1画像を再帰的に縮小することで、第2乃至第N画像を生成する縮小手段と、前記第1乃至N画像のそれぞれに対して被写体検出処理を行う検出手段であって、第m画像(1≦m≦N)上の各画像領域のうち、予め該第m画像と関連づけられている画像領域を対象画像領域とし、該対象画像領域内の各位置に規定サイズの矩形領域を設定して該対象画像領域に対して被写体検出処理を行う前記検出手段とを備えることを特徴とする。
本発明の構成によれば、画像中の検出対象物体の大きさによらず高速に特定物体検出を行うことができる。
画像処理装置の機能構成例を示すブロック図。 人体検出処理を説明する図。 画像の分割例を示す図。 対応テーブルの構成例を示す図。 GUIの表示例を示す図。 画像処理装置が行う処理のフローチャート。 ステップS603,S605,S607,S609のフローチャート。 画像処理装置の機能構成例を示すブロック図。 人体検出処理を説明する図。 画像処理装置が行う処理のフローチャート。 ステップS1007,S1010,S1013のフローチャート。 対応テーブルの構成例を示す図。 GUIの表示例を示す図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態に係る画像処理装置は、監視カメラなどの撮像装置内に組み込まれる画像処理回路や、パーソナルコンピュータなどのコンピュータ装置に適用することができるものである。先ず、本実施形態に係る画像処理装置の機能構成例について、図1のブロック図を用いて説明する。
画像取得部101は、外部から供給された動画像若しくは静止画像を取得し、取得した動画像若しくは静止画像を後段の人体検出部102に送出する。画像取得部101は、動画像を取得した場合は、該動画像を構成する各フレームの画像を順次、人体検出部102に送出するし、静止画像を取得した場合は、この静止画像を人体検出部102に送出する。なお、動画像若しくは静止画像の供給元については特に限定するものではなく、有線若しくは無線を介して動画像若しくは静止画像を供給するサーバ装置や撮像装置であってもよい。また、外部に限るものではなく、画像処理装置内のメモリから動画像若しくは静止画像を取得するようにしてもよい。以下の説明では、画像取得部101が動画像を取得した場合であっても静止画像を取得した場合であっても、人体検出部102にある1枚の画像が入力された場合について説明する。前者の場合は、この1枚の画像が動画像を構成する各フレームに相当するし、後者の場合は、この1枚の画像が静止画像に相当する。
人体検出部102は、画像取得部101から供給された画像(第1画像)からそれぞれ異なる大きさの被写体を検出するために、先ず、第1画像を再帰的に縮小することで、複数枚の画像(第2乃至第N画像)を生成する。以下では、第1乃至N画像の各画像を処理レイヤと呼称する場合がある。処理レイヤについて詳しくは後述する。そして人体検出部102は第1乃至N画像のそれぞれに対して人体照合パターンとの照合を行うことで被写体検出処理を行うのであるが、その際、第m画像(1≦m≦N)上の各画像領域のうち予め該第m画像と関連づけられている画像領域を対象画像領域とする。そして、該対象画像領域内の各位置に規定サイズの矩形領域を設定して該矩形領域に対して被写体検出処理を行う。本実施形態では、被写体が人体である場合について説明するが、被写体が他のオブジェクトであっても、以下の説明は同様に適用することができる。また、本実施形態では、被写体検出処理に上記の人体照合パターンを用いた周知のパターンマッチングを用いるが、他の技術を用いて被写体検出処理を実現させてもよい。
記憶部105には、第1乃至N画像において相対的に同じ位置の画像領域と、第1乃至N画像の何れかと、を関連づけたテーブル(対応テーブル)が保持(登録)されている。人体検出部102が、第m画像(1≦m≦N)上の各画像領域のうち、予め該第m画像と関連づけられている画像領域を対象画像領域として特定する際には、この対応テーブルを参照することになる。また、記憶部105には、人体の検出処理で用いる上記の人体照合パターンが登録されている。
レイヤ設定部104は、入力部103からの操作入力に従って、上記の対応テーブルを作成する。入力部103は、キーボードやマウスなどにより構成されており、ユーザが操作することで、各種の指示を入力することができる。
表示部109は、CRTや液晶画面などにより構成されており、後述する様々な画面を表示することができる。なお、入力部103と表示部109とを統合して、タッチパネル式の画面を構成してもよい。
外部出力部106は、人体検出部102による処理結果を出力する。出力先については特定の出力先に限るものではなく、無線若しくは有線を介して外部の装置に対して出力してもよいし、表示部109に対して出力してもよい。また、出力する情報をそのまま出力してもよいし、可視可能な何らかのグラフィックスでもって出力してもよい。
つぎに、様々なサイズの画像(本実施形態の場合には第1乃至N画像)に対して、人体照合パターンを用いたパターンマッチングを行うことで、該画像から被写体を検出する処理について説明する。それぞれの画像上の各位置に人体照合パターンを配置してパターンマッチングを行うために、先ず、図2(a)に示す如く、第1画像である画像201の左上隅に人体照合パターン202を配置する。ここで、以下では第1画像を処理レイヤ0(L0)と呼称する場合がある。そして人体照合パターン202の配置後、そこから右側に、上から下に向かって人体照合パターン202の位置を移動させる。移動させる毎に人体照合パターン202と重なっている画像領域と人体照合パターン202とのパターンマッチングを行い、人体を検出する。
次に、図2(b)に示す如く、第1画像を所定倍率(1よりも小さい倍率)だけ縮小した第2画像としての画像203を生成する。ここで、以下では第2画像を処理レイヤ1(L1)と呼称する場合がある。そして、第2画像である画像203の左上隅に人体照合パターン202を配置する。そして人体照合パターン202の配置後、そこから右側に、上から下に向かって人体照合パターン202の位置を移動させる。移動させる毎に人体照合パターン202と重なっている画像領域と人体照合パターン202とのパターンマッチングを行い、人体を検出する。
次に、図2(c)に示す如く、第2画像を所定倍率(1よりも小さい倍率)だけ縮小した第3画像としての画像204を生成する。ここで、以下では第3画像を処理レイヤ2(L2)と呼称する場合がある。そして、第3画像である画像204の左上隅に人体照合パターン202を配置する。そして人体照合パターン202の配置後、そこから右側に、上から下に向かって人体照合パターン202の位置を移動させる。移動させる毎に人体照合パターン202と重なっている画像領域と人体照合パターン202とのパターンマッチングを行い、人体を検出する。
このように、同じ人体照合パターンを繰り返し縮小画像に用いることにより、画像中の様々な大きさの人体を検出することが可能である。ここで、処理レイヤとは、入力画像を拡大または縮小して生成される、解像度の異なる複数の画像集合である。これまで述べたように、本実施形態における処理レイヤとは、複数の処理レイヤの画像集合であり、元画像をレイヤ0、画像を縮小していく毎に処理レイヤ1、処理レイヤ2としている。また、上記のように処理レイヤと検出する人体の大きさは関連している。
これらの処理を繰り返し行って各種大きさの人体を検出し、規定時間だけ処理を続けると終了する。処理終了は、本実施形態では処理を開始してからの経過時間に基づき決定しているが、処理を終了させるための条件はこれに限るものではない。例えば、検出した人体の数、人体検出処理を実行した回数などから処理終了を決定するようにしてもよい。
また、処理レイヤP(P≧1)を生成するための縮小倍率は1倍未満であれば何倍でも構わない。縮小倍率が1に近いほど高精度ではあるが処理時間は長くなり、縮小倍率が低くなるほど一般的には低精度になるが処理時間は短くなるため、運用条件によって適切な縮小倍率を設定するのが望ましい。また、本実施形態では、第1画像を再帰的に縮小した画像群から順次大きな人体を検出しているが、小さな人体から大きな人体を検出するように処理順を変えても構わない。
また、本実施形態では被写体として人体を対象としているが、顔、自動車、動物等、であってもよい。更に、複数種類の特定物体を検出することができ、且つ同時に複数の被写体が検出可能であるならば、物体に複数の特定物体検出処理を実施してもよい。
また、別途設定した物体の大きさ、アスペクト比などの設定値に用いた物体の属性に応じて、複数の特定物体検出処理から所定の処理のみを選択し処理を実施してもよい。例えば、特定物体検出として、人体検出と車検出を行うとする。このとき、画面内で出現しうる車の大きさを車両最小サイズとして、ユーザの指示に従い予め設定する。そして、物体の大きさが車両最小サイズより小さい場合、車として検出される可能性は低いため、車検出は行わず、人体検出のみ実施する。一方で、物体の大きさが車両最小サイズより大きい場合、車として検出される可能性があるため、車検出を実施する。また、複数の人が集団で行動し、一つの物体として検出された可能性もあるため、人体検出も実施する。
次に、上記の対応テーブル及びこれを作成する手順について説明する。
先ずレイヤ設定部104は、図3に示す如く、画像取得部101が取得した画像、即ち第1画像としての画像301を複数の矩形領域(画像領域)302に分割する。図3では、3(縦)×4(横)個の矩形領域302に分割しているが、分割数や分割パターンについてはこれに限るものではない。即ち、画像を等間隔に分割しなくてもよいし、画像全体でなく一部の領域を複数の領域に分割するようにしてもよい。また、分割した領域の形状は矩形に限るものではなく、任意の形状の領域であってもよいし、ユーザが設定した多角形等のような形状であっても構わない。
そしてレイヤ設定部104は、それぞれの矩形領域302を識別するために、それぞれの矩形領域に識別番号を割り当てる。図3では、最上段の矩形領域302に対し、左端から順に(1,1)、(1,2)、(1,3)、(1,4)というように識別番号を割り当てている。また、中段の矩形領域302に対し、左端から順に(2,1)、(2,2)、(2,3)、(2,4)というように識別番号を割り当てている。また、最下段の矩形領域302に対し、左端から順に(3,1)、(3,2)、(3,3)、(3,4)というように識別番号を割り当てている。
図3において、識別番号が(1,3)の矩形領域内の人体303は、識別番号(2,1)の矩形領域及び識別番号(3,1)の矩形領域にまたがって映っている人体304に比べて奥に位置しているために、より小さく映っている。本実施形態では係る点に着目し、第1画像の全ての矩形領域に対して人体検出処理を行うのではなく、人体が比較的小さく映っている領域に関しては第1画像から検出し、人体が比較的大きく映っている領域に関してはより縮小した画像から検出する。
次に、レイヤ設定部104は、図5(a)に示す如く、表示部109の表示画面501上に、画像取得部101が取得した第1画像を表示する。そしてユーザは、入力部103を操作して、この第1画像内に写っている人体を囲む枠502,503を設定する。この枠502,503は、検出対象とする人体のサイズを示すサンプル矩形である。また、この枠502,503は四隅に制御点を持ち、その形状やサイズ、第1画像内における位置を変更可能である。なお、表示画面501に第1画像を表示することなく、ユーザは適当なサイズ及び位置の枠を入力部103を用いて設定するようにしてもよい。
いずれにせよ、図5(a)のように、奥行がある場合は、表示画面内で小さい枠と大きい枠を設定するのが望ましく、図5(a)では表示画面奥で小さな枠を設定し、表示画面手前では大きな枠が設定されている。
そしてユーザが入力部103を操作してこの設定が完了した旨を入力すると、レイヤ設定部104は、次のように動作する。先ず、表示画面501上で設定された1以上の枠のサイズから、第1画像上の各矩形領域に対し、該矩形領域内に人体が映った場合に想定される該人体を包含する枠(想定被写体サイズ)を求める。図5(b)では、枠502及び枠503のサイズと枠502及び枠503への距離とから、線形補間により、各矩形領域における想定被写体サイズを求めており、点線で示している枠504は、この想定被写体サイズを有する枠である。もちろん、各矩形領域における想定被写体サイズを求める方法はこれに限るものではない。以下では、ユーザが設定した枠(図5(a)では枠502,503)及び該枠から補間により求めた枠(図5(b)では枠504)を総称して被写体枠と呼称する。
レイヤ設定部104は各矩形領域における被写体枠が定まると、図4に例示する如く、各矩形領域の識別番号と、該矩形領域について求めた被写体枠のサイズに対応する処理レイヤとの対応関係を管理する上記の対応テーブルを生成して記憶部105に登録する。
図4に例示した対応テーブルは、図3に示した第1画像に対応するものである。図3に示した第1画像では、最上段の矩形領域については図5(b)の如く、比較的サイズが小さい被写体枠が設定されるので、この場合、最上段の矩形領域に対しては、比較的サイズが大きい画像である第1,2画像(処理レイヤ0,1)が関連づけられている。
また、図3に示した第1画像では、中段の矩形領域については図5(b)の如く、最上段の矩形領域よりも比較的サイズが大きい被写体枠が設定される。然るにこの場合、中段の矩形領域に対しては、最上段の矩形領域よりも比較的サイズが小さい画像である第2,3画像(処理レイヤ1,2)が関連づけられている。
また、図3に示した第1画像では、最下段の矩形領域については図5(b)の如く、中段の矩形領域よりも比較的サイズが大きい被写体枠が設定される。然るにこの場合、最下段の矩形領域に対しては、中段の矩形領域よりも比較的サイズが小さい画像である第4,5画像(処理レイヤ3,4)が関連づけられている。
これらの設定は、画像上部の領域では小さい人体のみ検出処理を行い、大きい人体は検出処理を行わないように設定していることを示している。なお、被写体枠のサイズと、第1乃至N画像のそれぞれのサイズと、の対応関係は予め設定されており、被写体枠のサイズが決まると、これに対応する画像が第1乃至N画像の何れであるのかが特定できるようになっている。
しかし、図4のような対応テーブルの生成方法はこれに限るものではなく、ユーザが入力部103を操作して作成するようにしてもよい。例えば、識別番号(1,1)の矩形領域には被写体が映っていないので、この矩形領域に対しては、処理レイヤは関連づけなくてもよい。このような関連づけに係る例外操作などは、ユーザが入力部103を用いて行うようにしてもよい。
このように、人体検出処理時において、各領域の検出処理時に対応テーブルの処理レイヤのみを用いることにより、不要な大きさの人体検出処理を省略出来るため、人体検出処理の高速化が可能となる。
ここで、矩形領域と処理レイヤとの関連づけ方法には様々なものがあり、例えば、次のような方法が考え得る。例えば、ある矩形領域に対応する処理レイヤとして処理レイヤ2を登録するだけでなく、その前後の処理レイヤ(処理レイヤ1や処理レイヤ3)をも、該矩形領域に対応する処理レイヤとして登録するようにしてもよい。あるいは前後1レイヤではなく前後複数レイヤを登録するようにしてもよい。これは、人体検出処理における画像の縮小倍率に関連し、縮小倍率が0に近いほど検出漏れが発生する可能性が高いため、処理レイヤのマージンを広くとるようにするとよい。
また、例えば、上記のように、ユーザが設定した2つの枠から各矩形領域における枠を求めるのではなく、1つの枠と2つ以上の直線を設定させてこの1つの枠と2つ以上の直線とから各矩形領域における枠を求めてもよい。この場合、複数の直線から画像上の消失点を求める。そして消失点と設定した枠の位置に基づき各矩形領域における枠を設定し、設定した枠のサイズに対応する処理レイヤを求める。各矩形領域における枠の算出方法は、単純に消失点での人体サイズを0とし、消失点からの距離で比例的に求めることが可能である。
この場合、図5のGUIの代わりに、図13に例示するGUIを表示し、このGUIを用いて各矩形領域における枠を求めればよい。図13において表示部109の表示画面1301上に枠1302と直線1303とをユーザに設定させる。直線1303は、直線抽出処理により抽出したものであってもよい。消失点1304は、2つの直線1303を延長した場合に交差した点である。
またあるいは、ハフ変換等の画像から直線を求める画像処理技術は多数知られており、これらを用いて自動的に画像から2つ以上の直線を求め、消失点を求め、同様に画像内の各位置における処理レイヤを求めるようにしても構わない。またここでは直線から消失点を求める例を挙げたが、画像における消失点を求める方法であればどのような手法であっても構わない。
次に、本実施形態に係る画像処理装置が行う処理について、同処理のフローチャートを示す図6を用いて説明する。なお、このフローチャートに従った処理を開始する時点で、記憶部105には、上記のような対応テーブルがすでに登録されているものとする。
ステップS601では、画像処理装置100の不図示の制御部は、以下の処理を継続するか否かを判断する。この判断では上記の通り、図6のフローチャートの処理を開始してから規定時間以上が経過した場合には、処理を終了するものと判断し、まだ規定時間が経過していない場合は、以下の処理を継続するものと判断する。ステップS601における判断の結果、継続する場合は、処理はステップS602に進み、継続しない場合は、本処理を終了する。ステップS602では、画像取得部101は、第1画像としての入力画像を取得する。
ステップS603では、人体検出部102は、ステップS601で画像取得部101が取得した第1画像に対して人体検出処理を行う。ステップS603,S605,S607,S609のそれぞれにおける人体検出処理は何れも同じフローチャートに沿って行われる処理であるため、これらのステップにおける処理についての説明は、後述する。
ステップS603における処理が終わると、次にステップS604では、人体検出部102は、第1画像を縮小した画像である第2画像を生成する。
ステップS605では、人体検出部102は、ステップS604で生成した第2画像に対して人体検出処理を行う。ステップS605における処理が終わると、次にステップS606では、人体検出部102は、第2画像を縮小した画像である第3画像を生成する。
ステップS607では、人体検出部102は、ステップS606で生成した第3画像に対して人体検出処理を行う。以降、同様の処理を第N画像まで行う(S608,S609)。
ステップS610では、外部出力部106は、第1乃至N画像からの人体検出処理の結果を統合する。この統合処理では、第1乃至N画像のそれぞれにおける人体の検出領域に対応する、第1画像上の領域を求める処理である。そして外部出力部106は、この求めた領域の位置やサイズを出力する。
次に、ステップS603,S605,S607,S609のそれぞれにおける人体検出処理について、同処理のフローチャートを示す図7を用いて説明する。以下では、第m画像(1≦m≦N)に対する人体検出処理について説明する。然るに、ステップS603ではm=1とすればよいし、ステップS605ではm=2とすればよいし、ステップS607ではm=3とすればよいし、ステップS609ではm=Nとすればよい。
ステップS701では、人体検出部102は、第m画像内での人体照合パターンの移動が完了したか否かを判断する。即ち、第m画像内で人体照合パターンを用いた人体検出処理が完了したか否かを判断する。この判断の結果、第m画像内での人体照合パターンの移動が完了した、即ち、第m画像内で人体照合パターンを用いた人体検出処理が完了した場合は、図7のフローチャートに従った処理は完了する。一方、第m画像内での人体照合パターンの移動がまだ完了していない、即ち、第m画像内で人体照合パターンを用いた人体検出処理がまだ完了していない場合は、処理はステップS702に進む。ステップS702では、人体検出部102は、記憶部105から上記の対応テーブルを取得する。
ステップS703では、人体検出部102は、対応テーブルを参照し、第m画像上における現在の人体照合パターンが、第m画像に関連づけられている識別番号を有する矩形領域内に位置しているか否かを判断する。この判断の結果、「第m画像に関連づけられている識別番号を有する矩形領域内に位置している」と判断した場合は、処理はステップS704に進む。一方、「第m画像に関連づけられている識別番号を有する矩形領域内に位置している」と判断できなかった場合は、処理はステップS705に進む。
図4の例では、m=1の場合、人体照合パターンが識別番号(1,2)、(1,3)、(1,4)の矩形領域内に位置している場合にのみ、処理はステップS704に進み、それ以外はステップS705に進む。
ステップS704では、人体検出部102は、第m画像において人体照合パターンと重なっている領域と人体照合パターンとのパターンマッチングにより人体検出処理を行い、人体を検知した位置やサイズを出力する。
ステップS705では、人体検出部102は、人体照合パターンを次の位置に移動させる。なお、ステップS704からステップS705に処理が進んだ場合、ステップS705では、人体照合パターンを数画素分だけ移動させればよい。一方、ステップS703からステップS705に処理が進んだ場合も同様の分だけ移動させてもよいが、数画素分だけ移動させても、移動した先の位置はまだ「第m画像に関連づけられている識別番号を有する矩形領域内」ではない可能性がある。そこでこのような場合は、次の矩形領域まで移動させてもよい。このような処理を行うことで、同一矩形領域内の人体検出処理を一括して省略することが可能となる。
以上の説明により、本実施形態によれば、画像中に登場する被写体のサイズに関係なく、より高速に被写体の検出処理を行うことができる。
[第2の実施形態]
以下では、第1の実施形態と異なる点のみについて説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1の実施形態では、画像全体に対して対象レイヤの人体検出処理を行っていた。しかし、例えば、元画像に対し動体検出処理を行い、動体を検出した領域に対してのみ人体検出処理を行う、というようにしてもよい。また、第1の実施形態では、人体検出処理の際の照合スキャン位置で対象レイヤを判別して用いていた。しかし、例えば、動体領域の位置で対象レイヤを判別して用いるようにしてもよい。
本実施形態に係る画像処理装置の機能構成例について、図8のブロック図を用いて説明する。なお、図8において、図1に示した構成要件と同じ構成要件については同じ参照番号を付しており、その説明は省略する。
動体領域検出部801は、画像取得部101が取得した第1画像から背景差分法により動体が映っている領域を動体領域として検出する。検出する内容は、第1画像上における動体領域の位置、動体領域の外接矩形、動体領域のサイズ、等、第1画像上における動体領域を規定する情報(動体領域情報)である。なお、第1画像から動体領域を検出する方法には、様々な技術が適用できるため、背景差分法に限らず、他の技術を適用してもよい。
そして動体領域検出部801は、検出した動体領域情報を後段の人体検出部102に送出する。人体検出部102は、第m画像上の各画像領域のうち、予め該第m画像と関連づけられている画像領域であって動体領域情報が示す動体領域を含む画像領域を対象画像領域とする。そして人体検出部102は、該対象画像領域内の各位置に規定サイズの矩形領域を設定して該対象画像領域に対して人体検出処理を行う。
なお、人体検出処理は、動体領域を完全に含む画像領域だけでなく部分的に含む画像領域に対しても行う方が、動体検出処理で誤って未検出と判別されてしまった動体領域箇所に対しても人体検出を行うことが出来る。
本実施形態で行う人体検出処理について、図9を用いて説明する。第1画像としての画像901に対して動体領域検出部801が動体検出処理を行うことで得られる動体領域が領域902,903であるとすると、この領域902,903内で人体照合パターン904を用いて人体検出処理を行う。もちろん、人体検出処理は、領域902,903内の全ての画像領域に対して行うのではなく、画像901に関連づけられている画像領域に対して行う。そして同様の処理を、第2画像、第3画像、…、第N画像の各画像に対しても行う。
次に、本実施形態に係る画像処理装置が行う処理について、同処理のフローチャートを示す図10を用いて説明する。
ステップS1001では、画像処理装置100の不図示の制御部は、上記のステップS601と同様にして、以下の処理を継続するか否かを判断する。ステップS1001における判断の結果、継続する場合は、処理はステップS1002に進み、継続しない場合は、本処理を終了する。ステップS1002では、画像取得部101は、第1画像としての入力画像を取得し、動体領域検出部801は、この第1画像から動体領域を検出する。
ステップS1003では、人体検出部102は先ず、ステップS1002で検出された動体領域のうちまだ以下の処理の対象となっていない動体領域を1つ、選択動体領域として選択する。選択順については特定の順序に限るものではないが、例えば第1画像の左上隅の位置からラスタースキャン順に選択すればよい。
ステップS1004では、人体検出部102は、第1画像から選択動体領域を原画像L0として抽出する。ステップS1005では、人体検出部102は、記憶部105に格納されている対応テーブルから、選択動体領域を含む画像領域の識別番号に関連づけられている処理レイヤを特定する。
ステップS1006では、人体検出部102は、ステップS1005で特定した処理レイヤに第1画像が含まれているか否かを判断する。この判断の結果、含まれている場合は、処理はステップS1007に進み、含まれない場合は、処理はステップS1008に進む。
ステップS1007では、人体検出部102は、原画像L0に対して人体検出処理を行う。ステップS1007,S1010,S1013のそれぞれにおける人体検出処理は何れも同じフローチャートに沿って行われる処理であるため、これらのステップにおける処理についての説明は、後述する。
ステップS1008では、人体検出部102は、ステップS1005で特定した処理レイヤに第2画像が含まれているか否かを判断する。この判断の結果、含まれている場合は、処理はステップS1009に進み、含まれない場合は、第3画像についてステップS1008〜S1010に対応する処理を行う。このようにして、第4画像、…、第N画像についても同様の処理を行う(S1011〜S1013)。
ステップS1009では、人体検出部102は、第1画像を縮小した画像である第2画像を生成する。ステップS1010では、人体検出部102は、ステップS1009で生成した第2画像中の、上記原画像L0に対応する領域(即ち第2画像中の動体領域)に対して人体検出処理を行う。
ステップS1014では、外部出力部106は、第1乃至N画像からの人体検出処理の結果を統合する。この統合処理では、第1乃至N画像のそれぞれにおける人体の検出領域に対応する、第1画像上の領域を求める処理である。そして外部出力部106は、この求めた領域の位置やサイズを出力する。
ステップS1015では、不図示の制御部は、ステップS1002で検出された全ての動体領域について人体検出処理が行われたか否かを判断する。この判断の結果、全ての動体領域について人体検出処理が行われた場合は処理はステップS1001に進み、まだ人体検出処理が行われていない動体領域が残っている場合は、処理はステップS1003に進む。
ここで、本実施形態では、ステップS1008やステップS1011にて、ステップS1005で特定した処理レイヤに第m画像が含まれているか否かを判断した後、この第m画像を生成していた。しかし例えば、対応テーブルに処理するレイヤの縮小画像自体を予め作成しておくことで、ステップS1009やステップS1012における処理を省くようにしてもよい。
次に、ステップS1007,S1010,S1013のそれぞれにおける人体検出処理について、同処理のフローチャートを示す図11を用いて説明する。以下では、第m画像(1≦m≦N)に対する人体検出処理について説明する。然るに、ステップS1007ではm=1とすればよいし、ステップS1010ではm=2とすればよいし、ステップS1013ではm=Nとすればよい。
ステップS1101では、人体検出部102は、第m画像内における選択動体領域内での人体照合パターンの移動が完了したか否かを判断する。即ち、第m画像内における選択動体領域内で人体照合パターンを用いた人体検出処理が完了したか否かを判断する。この判断の結果、完了した場合は、図11のフローチャートに従った処理は完了する。一方、完了していない場合は、処理はステップS1102に進む。
ステップS1102では、人体検出部102は、第m画像において人体照合パターンと重なっている領域と人体照合パターンとのパターンマッチングにより人体検出処理を行い、人体を検知した位置やサイズを出力する。
ステップS1103では、人体検出部102は、人体照合パターンを次の位置に移動させる。なお、この移動では、人体照合パターンを数画素分だけ移動させればよい。もちろん、移動量は特定の移動量に限るものではない。
以上の説明により、本実施形態によれば、画像中の検出対象物体の大きさによらず高速に特定物体検出処理を行うことが出来る。また、元画像に対し動体検出処理を行い、動体を検出した領域のみに対し人体検出処理を行うことで人体検出を高速に行うことが出来る。
[第3の実施形態]
以下では、第1の実施形態と異なる点のみについて説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1の実施形態では、図4に例示したような対応テーブルを予め作成して人体検出処理に用いていた。しかし、例えば、過去の人体検出結果に基づいて対応テーブルを作成し、それを用いて人体検出を行うようにしてもよい。
本実施形態では予め、複数枚の入力画像のそれぞれに対して次のような処理を行う。先ず、入力画像から第1乃至N画像を生成する。そして、第1乃至N画像のそれぞれを図3に示す如く複数の矩形領域に分割し、それぞれの矩形領域に対して人体検出処理を行う。人体が検出された領域に対してはカウント値(初期値は0)を1つインクリメントする。
このような処理により、結果として図12のような対応テーブルが得られる。この対応テーブルには、第1乃至N画像(L0〜Ln)のそれぞれに対し、識別番号(1,1)〜(3,4)の各矩形領域におけるカウント値が登録されている。
例えば、第1画像、第2画像、第3画像、第4画像のそれぞれにおける識別番号(1,2)の矩形領域には、人体が5回(カウント値が5)、4回(カウント値が4)、3回(カウント値が3)、0回(カウント値が0)検出されている。また、第1画像、第2画像、第3画像、第4画像のそれぞれにおける識別番号(3,2)の矩形領域には、人体が0回(カウント値が0)、0回(カウント値が0)、1回(カウント値が1)、4回(カウント値が4)検出されている。
つまりこの対応テーブルは、画像上方では比較的大きい人体がよく検出され、画像下方では比較的小さい人体が良く検出されていることを示している。このような対応テーブルを作成すると、記憶部105に登録する。この一連の処理は、入力部103からの操作とレイヤ設定部104による動作と、により行ってもよいし、外部装置が行ってもよい。
そして本実施形態においても、ステップS703における処理を除き、第1の実施形態と同様にして人体検出処理を行う。以下に、本実施形態に係るステップS703について説明する。
ステップS703では人体検出部102は、上記の対応テーブルを参照し、第m画像上の現在の人体照合パターンが属する矩形領域の識別番号に対する第1乃至N画像のそれぞれのカウント値のうち最大カウント値に対応するものが第m画像であるかを判断する。
ここで一例を挙げてステップS703を説明する。ステップS703の時点で、人体照合パターンが第3画像上の識別番号(2,3)の矩形領域上にあるとする。識別番号(2,3)における第1乃至N画像のそれぞれのカウント値は0,3,5,0,…(以降、全て0)であり、第3画像のカウント値が最も大きいため、この場合は処理はステップS704に進む。一方、人体照合パターンが第2画像上の識別番号(2,3)の矩形領域上にある場合、第3画像のカウント値が最も大きいため、この場合は処理はステップS705に進む。
なお、最大カウント値の代わりに、規定回数以上のカウント値に対応する(規定回数以上検出される)ものが第m画像であるかを判断するようにしてもよい。この場合の規定回数は学習期間(上記複数枚の入力画像を取得する期間)により変動させるのが望ましい。またあるいは、最大カウント値の画像の前後の画像(レイヤ番号が前後)であれば、ステップS704に進むようにしてもよい(R(2,3)の場合はL1、L2、L2が処理レイヤとなる)。
以上の説明により、本実施形態によれば、画像中の検出対象物体の大きさによらず高速に特定物体検出処理を行うことが出来る。また、過去の検出結果に基づき検出処理を行うようにすることで検出処理に用いる処理レイヤの設定を簡易に行うことが出来る。
また、上記の各実施形態は適宜組み合わせて用いてもよい。また、図1,8に示した画像処理装置の各部のうち、入力部103、記憶部105、表示部109を除く各部の一部若しくは全部はハードウェアで構成してもよいし、ソフトウェア(コンピュータプログラム)で構成してもよい。後者の場合、このコンピュータプログラムは画像処理装置内の不図示のメモリに格納され、画像処理装置が有するCPU等の制御部により実行されることになる。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (7)

  1. 第1画像を取得する取得手段と、
    前記第1画像を再帰的に縮小することで、第2乃至第N画像を生成する縮小手段と、
    前記第1乃至N画像のそれぞれに対して被写体検出処理を行う検出手段であって、第m画像(1≦m≦N)上の各画像領域のうち、予め該第m画像と関連づけられている画像領域を対象画像領域とし、該対象画像領域内の各位置に規定サイズの矩形領域を設定して該対象画像領域に対して被写体検出処理を行う前記検出手段と
    を備えることを特徴とする画像処理装置。
  2. 更に、
    前記第1乃至N画像において相対的に同じ位置の画像領域と、前記第1乃至N画像の何れかと、を関連づけたテーブルを保持する保持手段を備え、
    前記検出手段は、前記第m画像上の各画像領域のうち、前記テーブルによって該第m画像と関連づけられている画像領域を対象画像領域とし、該対象画像領域内の各位置に規定サイズの矩形領域を設定して該矩形領域に対して被写体検出処理を行う
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 更に、
    前記第1画像上の各画像領域に対し、該画像領域内に被写体が映った場合に想定される想定被写体サイズを、前記第1画像上に設定された1以上の領域のサイズから求める手段と、
    前記第1乃至N画像において相対的に同じ位置の画像領域に対し、前記第1乃至N画像のうち該画像領域について求めた想定被写体サイズに対応づけられている画像を関連づけた前記テーブルを生成して前記保持手段に登録する登録手段と
    を備えることを特徴とする請求項2に記載の画像処理装置。
  4. 前記検出手段は、前記第1画像において動体が映っている領域を動体領域として検出し、前記第m画像上の各画像領域のうち、予め該第m画像と関連づけられており且つ前記第m画像内で前記動体領域に対応する領域を含む画像領域、を対象画像領域とし、該対象画像領域内の各位置に規定サイズの矩形領域を設定して該対象画像領域に対して被写体検出処理を行うことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 前記検出手段は、前記第m画像上の各画像領域のうち、予め該第m画像と関連づけられており且つ被写体が規定回数以上検出される画像領域として予め特定しておいた画像領域、を対象画像領域とし、該対象画像領域内の各位置に規定サイズの矩形領域を設定して該対象画像領域に対して被写体検出処理を行うことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  6. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の取得手段が、第1画像を取得する取得工程と、
    前記画像処理装置の縮小手段が、前記第1画像を再帰的に縮小することで、第2乃至第N画像を生成する縮小工程と、
    前記画像処理装置の検出手段が、前記第1乃至N画像のそれぞれに対して被写体検出処理を行う検出工程であって、第m画像(1≦m≦N)上の各画像領域のうち、予め該第m画像と関連づけられている画像領域を対象画像領域とし、該対象画像領域内の各位置に規定サイズの矩形領域を設定して該対象画像領域に対して被写体検出処理を行う前記検出工程と
    を備えることを特徴とする画像処理方法。
  7. コンピュータを、請求項1乃至5の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2011199935A 2011-09-13 2011-09-13 画像処理装置、画像処理方法 Active JP5795916B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011199935A JP5795916B2 (ja) 2011-09-13 2011-09-13 画像処理装置、画像処理方法
US13/594,422 US9111346B2 (en) 2011-09-13 2012-08-24 Image processing apparatus, image processing method, and recording medium
CN201210339883.XA CN102999900B (zh) 2011-09-13 2012-09-13 图像处理设备和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011199935A JP5795916B2 (ja) 2011-09-13 2011-09-13 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2013062688A true JP2013062688A (ja) 2013-04-04
JP2013062688A5 JP2013062688A5 (ja) 2014-10-30
JP5795916B2 JP5795916B2 (ja) 2015-10-14

Family

ID=48186989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011199935A Active JP5795916B2 (ja) 2011-09-13 2011-09-13 画像処理装置、画像処理方法

Country Status (1)

Country Link
JP (1) JP5795916B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092507A (ja) * 2016-12-07 2018-06-14 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2019049961A (ja) * 2017-09-08 2019-03-28 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2021149327A1 (ja) * 2020-01-22 2021-07-29 三菱電機株式会社 物体検出装置、物体検出方法及び物体検出プログラム
JP7489225B2 (ja) 2020-04-20 2024-05-23 メタウォーター株式会社 画像処理システム、情報処理装置、プログラムおよび画像処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110486A (ja) * 2007-11-01 2009-05-21 Sony Corp 画像処理装置、画像処理方法および画像処理プログラム、並びに、撮像装置および撮像装置の制御方法
JP2010026603A (ja) * 2008-07-15 2010-02-04 Canon Inc 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2010165052A (ja) * 2009-01-13 2010-07-29 Canon Inc 画像処理装置及び画像処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110486A (ja) * 2007-11-01 2009-05-21 Sony Corp 画像処理装置、画像処理方法および画像処理プログラム、並びに、撮像装置および撮像装置の制御方法
JP2010026603A (ja) * 2008-07-15 2010-02-04 Canon Inc 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2010165052A (ja) * 2009-01-13 2010-07-29 Canon Inc 画像処理装置及び画像処理方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092507A (ja) * 2016-12-07 2018-06-14 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US10521653B2 (en) 2016-12-07 2019-12-31 Canon Kabushiki Kaisha Image processing device, image processing method, and storage medium
JP2019049961A (ja) * 2017-09-08 2019-03-28 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7134716B2 (ja) 2017-09-08 2022-09-12 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2021149327A1 (ja) * 2020-01-22 2021-07-29 三菱電機株式会社 物体検出装置、物体検出方法及び物体検出プログラム
JP2021117533A (ja) * 2020-01-22 2021-08-10 三菱電機インフォメーションシステムズ株式会社 物体検出装置、物体検出方法及び物体検出プログラム
JP7489225B2 (ja) 2020-04-20 2024-05-23 メタウォーター株式会社 画像処理システム、情報処理装置、プログラムおよび画像処理方法

Also Published As

Publication number Publication date
JP5795916B2 (ja) 2015-10-14

Similar Documents

Publication Publication Date Title
JP5925068B2 (ja) 映像処理装置、映像処理方法、およびプログラム
EP2677500A2 (en) Event-based image processing apparatus and method
JP2022526548A (ja) ターゲット検出方法、装置、電子機器およびコンピュータ可読記憶媒体
US20220245809A1 (en) Computer aided diagnosis system for detecting tissue lesion on microscopy images based on multi-resolution feature fusion
KR20200079697A (ko) 영상 처리 장치 및 그 영상 처리 방법
JP6568374B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2012042390A2 (en) User interface system and method of operation thereof
US20100315315A1 (en) Optimal graphics panelization for mobile displays
JP5795916B2 (ja) 画像処理装置、画像処理方法
Chen et al. Improved seam carving combining with 3D saliency for image retargeting
KR102558704B1 (ko) 목표 검출 방법 및 장치, 컴퓨터 시스템 및 판독 가능 저장 매체
CN112752158A (zh) 一种视频展示的方法、装置、电子设备及存储介质
US9111346B2 (en) Image processing apparatus, image processing method, and recording medium
US20070186191A1 (en) Method of visualizing a pointer during interaction
JP2013148989A (ja) スキャンウィンドウサイズ決定装置および検出枠サイズヒストグラム情報取得装置、スキャンウィンドウサイズ決定方法
CN105530505B (zh) 三维图像转换方法和装置
JP2005157134A (ja) 情報出力方法及び装置及びプログラム及び情報出力プログラムを格納したコンピュータ読み取り可能な記憶媒体
CN106682595A (zh) 一种图像内容标注方法和装置
JP2011198006A (ja) オブジェクト検出装置、オブジェクト検出方法、およびオブジェクト検出プログラム
JP2018092507A (ja) 画像処理装置、画像処理方法及びプログラム
CN107133022A (zh) 终端设备中的控件显示方法和装置
CN106168922A (zh) 一种终端界面显示的测试方法和装置
JP2015232765A (ja) 画像生成装置、コンピュータプログラム及び画像生成方法
JP2020166653A (ja) 情報処理装置、情報処理方法、およびプログラム
WO2021131127A1 (ja) 識別情報付与装置、識別情報付与方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140916

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150817

R151 Written notification of patent or utility model registration

Ref document number: 5795916

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151