JP7134716B2 - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP7134716B2 JP7134716B2 JP2018104554A JP2018104554A JP7134716B2 JP 7134716 B2 JP7134716 B2 JP 7134716B2 JP 2018104554 A JP2018104554 A JP 2018104554A JP 2018104554 A JP2018104554 A JP 2018104554A JP 7134716 B2 JP7134716 B2 JP 7134716B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- human body
- layer
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.
監視カメラは、監視員が24時間モニタリングしなくても、入力画像から画像解析を行い、人の有無を判別することで、人の侵入の検出や人数のカウントを行う。監視カメラは、入力画像から人体などの特定の物体を検出する場合、パターンマッチング処理により検出を行っている。パターンマッチング処理では、監視カメラは、入力画像を再帰的に縮小した縮小画像の集合である画像ピラミッドを生成し、各縮小画像(レイヤ)でテンプレート画像とのマッチング処理を行うことで、大きさの異なる人体の検出を行う。 Surveillance cameras perform image analysis from input images and determine the presence or absence of people, thereby detecting intrusion of people and counting the number of people, even if a monitor does not monitor for 24 hours. A surveillance camera detects a specific object such as a human body from an input image by pattern matching processing. In pattern matching processing, the surveillance camera generates an image pyramid, which is a collection of reduced images obtained by recursively reducing the input image. Perform different human body detection.
特許文献1では、パターンマッチングに用いる縮小画像のレイヤの優先度を、過去の検出実績に基づいて切り替える手法が開示されている。特許文献2では、領域に対応付けてレイヤの種類を対応づけることで、処理速度を向上させる手法が開示されている。 Japanese Patent Application Laid-Open No. 2002-200001 discloses a method of switching the priority of a layer of a reduced image used for pattern matching based on past detection results. Japanese Patent Application Laid-Open No. 2002-200000 discloses a technique for improving the processing speed by associating layer types with regions.
しかし、全レイヤの縮小画像でパターンマッチング処理を行うと、処理負荷がかかるため、リアルタイムな人体検出処理を行う場合、処理中に次の画像が入力されたら今の画像の人体検出処理を途中で打ち切り、次の画像の人体検出処理を行う必要がある。そのため、人体検出処理を最後まで完了することができず、検出漏れが発生する場合がある。また、シチュエーション上、大きい人体又は小さい人体がいないようなケースの場合でも、全レイヤで処理を行うため、誤検出が発生する場合がある。 However, if the pattern matching process is performed on the reduced images of all layers, the processing load will be heavy. It is necessary to discontinue and perform human body detection processing on the next image. Therefore, the human body detection process cannot be completed to the end, and detection omissions may occur. Moreover, even in cases where there is no large human body or small human body, erroneous detection may occur because processing is performed in all layers.
特許文献1の手法では、画像の撮影環境が著しく変わる環境下の場合、却って検出精度が低下する可能性がある。特許文献2の手法では、奥行きがあるような場所で、大きい人体と小さい人体が混在する場所では、処理速度の向上を図れない。 In the method of Patent Document 1, the detection accuracy may rather deteriorate in an environment where the imaging environment of the image changes significantly. With the technique of Patent Document 2, it is not possible to improve the processing speed in a place with depth and where large and small human bodies coexist.
本発明の目的は、画像の撮影環境が著しく変わる環境下においても、高精度かつ低負荷で特定物を検出することができる画像処理装置、画像処理方法及びプログラムを提供することである。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus, an image processing method, and a program capable of detecting a specific object with high accuracy and low load even in an environment where the imaging environment of an image changes significantly.
本発明の画像処理装置は、入力された画像を縮小することにより大きさが異なる複数の画像を生成する画像生成手段と、前記入力された画像内の動体を検出する動体検出手段と、前記動体に応じて決定された前記複数の画像の一部または順序に基づいてテンプレート画像のマッチング処理を行うことによって、前記入力された画像内の特定物を検出する特定物検出手段とを有し、前記特定物検出手段は、前記動体検出手段により検出された動体のうちの最大の動体の大きさと最小の動体の大きさに応じて、前記複数の画像のうちの一部の画像に対してテンプレート画像のマッチング処理を行う。 The image processing apparatus of the present invention comprises: image generation means for generating a plurality of images of different sizes by reducing an input image; moving object detection means for detecting a moving object in the input image; specific object detection means for detecting a specific object in the input image by matching a template image based on part or order of the plurality of images determined according to the A specific object detection means detects a template image for a part of the plurality of images according to the size of the maximum moving object and the minimum size of the moving object detected by the moving object detection means. matching process .
本発明によれば、画像の撮影環境が著しく変わる環境下においても、高精度かつ低負荷で特定物を検出することができる。 According to the present invention, it is possible to detect a specific object with high accuracy and low load even under an environment in which the imaging environment of an image changes significantly.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Preferred embodiments of the present invention are described in detail below with reference to the accompanying drawings. Note that the configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
(第1の実施形態)
図1は、本発明の第1の実施形態に係る人体検出システム100の構成例を示すブロック図である。人体検出システム100は、特定物検出システムであり、入力された画像情報から画像中の人体(特定物)を検出して表示するシステムである。特定物は、人体に限定されない。以下、特定物が人体の例を説明する。人体検出システム100は、画像入力装置101と、人体検出装置102と、モニタ装置103とを有する。人体検出装置102とモニタ装置103は、ビデオインターフェースを介して接続されている。画像入力装置101は、周囲を撮影して撮影画像を生成する装置であり、カメラ等により構成される。画像入力装置101は、撮像された画像情報を人体検出装置102へ出力する。
(First embodiment)
FIG. 1 is a block diagram showing a configuration example of a human
人体検出装置102は、画像処理装置であり、画像入力装置101から画像情報が入力されると、画像中の人体の検出処理を行い、検出した結果と処理画像を画像出力部112を介して、モニタ装置103に出力する。人体検出装置102は、画像入力部104と、縮小画像生成部105と、レイヤ構築部106と、動体検出部107と、レイヤ決定部108と、辞書109と、人体検出処理部110と、検出結果生成部111と、画像出力部112とを有する。
The human
画像入力部104は、画像入力装置101で撮像された画像情報を入力し、縮小画像生成部105、動体検出部107、及び画像出力部112へ出力する。縮小画像生成部105は、画像入力部104から入力した画像を再帰的に縮小することにより大きさが異なる複数の縮小画像を生成し、元画像と生成した縮小画像をレイヤ構築部106へ出力する。レイヤ構築部106は、縮小画像生成部105から入力した元画像及び各縮小画像から画像ピラミッドを生成し、各画像を処理レイヤとして割り当てたレイヤを構築する。
The
ここで、図2(A)を用いて、画像ピラミッドのレイヤ構成201について説明する。縮小画像生成部105は、画像入力部104から入力した画像210を再帰的に縮小することにより大きさが異なる複数の縮小画像204~209を生成する。レイヤ構築部106は、入力された元画像210及び縮小画像204~209から、画像ピラミッドのレイヤ構成201を構築する。レイヤ構築部106は、レイヤ構成201として、入力された元画像210を最底辺とし、その上に元画像210を縮小した縮小画像209を積み上げ、さらに縮小画像209を縮小した縮小画像208を積み上げる。同様に、レイヤ構築部106は、縮小画像208を縮小した縮小画像207を積み上げ、縮小画像207を縮小した縮小画像206を積み上げ、縮小画像206を縮小した縮小画像205を積み上げ、縮小画像205を縮小した縮小画像204を積み上げる。レイヤ構築部106は、縮小画像を積み上げた画像ピラミッドを生成し、画像ピラミッドの頂点の縮小画像204から元画像210まで7個の画像を順に、レイヤ0、レイヤ1、レイヤ2、・・・、レイヤ6と割り当てることで、レイヤ構成201を構築する。レイヤ構築部106は、画像ピラミッドのレイヤ構成201として、特に指定が無い限り基本的にはレイヤ0を開始レイヤ、レイヤ6を終了レイヤとして順に処理を行う。レイヤ構築部106は、レイヤ構成201のレイヤ構成情報をレイヤ決定部108へ出力し、レイヤ構成201のレイヤ構成情報を人体検出処理部110へ出力する。
Here, the
動体検出部107は、画像入力部104から入力した画像内の動体を検出する。動体検出部107は、動体の検出方法として、前回入力された画像と今回入力された画像の差分から画像内の動体を検出するフレーム間差分法を用いる。フレーム間差分法については、公知の技術であるため、詳細な説明を省略する。動体検出部107は、検出した各動体の矩形情報をレイヤ決定部108へ出力する。
A moving
レイヤ決定部108は、レイヤ構築部106から入力したレイヤ構成情報と、動体検出部107から入力した画像内の各動体の矩形情報から、レイヤの検出開始位置及び検出終了位置を決定する。ここで、図2(B)、(C)及び図3を用いて、レイヤの検出開始位置及び検出終了位置の変更について説明する。
The
図3は、動体検出部107の動体の検出結果を示す図である。動体検出部107は、入力画像210内の動体を検出し、検出した各動体の矩形情報をレイヤ決定部108へ出力する。レイヤ決定部108は、入力画像210内の各動体の矩形情報を入力し、入力した矩形情報から最も大きい動体の矩形302と最も小さい動体の矩形303を特定し、その矩形302及び303の大きさを取得する。レイヤ決定部108は、最も大きい動体の矩形302の大きさに応じてレイヤの検出開始位置を決定し、最も小さい動体の矩形303の大きさに応じてレイヤの検出終了位置を決定する。
FIG. 3 is a diagram showing the result of moving object detection by the moving
レイヤ決定部108は、最も大きい動体の矩形302の大きさが、人体検出可能な人体の最大値を下回っている場合、その矩形302の大きさに応じてレイヤの検出開始位置を決定する。例えば、レイヤ決定部108は、図2(B)のレイヤ構成201に示すように、最も大きい動体の矩形302の大きさに応じて、縮小画像207のレイヤ3をレイヤの検出開始位置として決定する。これにより、人体検出処理部110は、縮小画像204、205、206のレイヤの処理をスキップし、その動体の矩形302の大きさの人体検出に適した縮小画像207のレイヤから処理を開始する。
If the size of the
また、レイヤ決定部108は、最も小さい動体の矩形303の大きさが、人体検出可能な人体の最小値を上回っている場合、その矩形303の大きさに応じてレイヤの検出終了位置を決定する。例えば、レイヤ決定部108は、図2(C)のレイヤ構成201に示すように、最も小さい動体の矩形303の大きさに応じて、縮小画像207のレイヤ3をレイヤの検出終了位置として決定する。これにより、人体検出処理部110は、その動体の矩形303の大きさの人体検出に適した縮小画像207のレイヤまでで処理を終了し、縮小画像208、209及び元画像210のレイヤの処理をスキップする。
Further, when the size of the
レイヤ決定部108は、決定したレイヤの検出開始位置とレイヤの検出終了位置を人体検出処理部110へ出力する。辞書109は、人体検出用のテンプレート画像を多数辞書として記憶し、人体検出用のテンプレート画像を人体検出処理部110へ出力する。人体検出処理部110は、レイヤ構築部106から入力したレイヤ構成情報と、レイヤ決定部108から入力したレイヤの検出開始位置及びレイヤの検出終了位置情報と、辞書109から入力した人体検出用のテンプレート画像を使用して、人体検出処理を行う。人体検出処理部110は、特定物検出手段であり、各レイヤの画像204~210の全部又は一部に対してテンプレート画像のマッチング処理を行い、人体(特定物)を検出する。人体検出処理部110は、レイヤの検出開始位置の画像から順次処理を行っていき、レイヤの検出終了位置の画像で人体検出処理を終える。
図4は、人体検出処理部110が人体を検出する処理を示す図である。人体検出処理部110は、各レイヤの画像401~403に対して人体検出用のテンプレート画像404をスキャン405の順番でラスタスキャンすることにより、画像401~403中の人体を検出する。画像401~403は、図2(A)の大きさが異なる複数の画像204~210の一部又は全部に対応する。人体検出処理部110は、複数の画像401~403に対してテンプレート画像404のマッチング処理を行い、人体を検出する。このように、人体検出処理部110は、各レイヤの画像401~403に対して人体検出処理を行うことにより、小さい画像401程大きい人体を検出し、大きい画像403程小さい人体を検出することができる。人体検出処理部110は、リアルタイムで人体検出処理を行うため、人体検出処理の途中で次の画像が入力された場合、現在行っている画像の人体検出処理を打ち切り、次の画像の人体検出処理を開始する。人体検出処理部110は、レイヤの検出開始位置及びレイヤの検出終了位置情報に応じて、複数の画像204~210のうちの一部の画像に対してテンプレート画像404のマッチング処理を行い、人体を検出する。これにより、人体検出時間が短くなり、上記の人体検出処理の打ち切りを防止することができる。人体検出処理部110は、検出した人体情報を検出結果生成部111へ出力する。
FIG. 4 is a diagram showing a process of detecting a human body by the human body
検出結果生成部111は、人体検出処理部110から入力した人体情報を基に、人体の矩形情報を生成する。検出結果生成部111は、生成した矩形情報を画像出力部112へ出力する。画像出力部112は、画像入力部104から入力した画像と、検出結果生成部111から入力した人体の矩形情報を重畳し、人体の矩形情報が重畳された画像をモニタ装置103へ出力する。モニタ装置103は、人体検出装置102の画像出力部112から出力された画像を表示する。
The detection
図5は、第1の実施形態による人体検出システム100の画像処理方法を示すフローチャートである。人体検出システム100は、ユーザ操作により起動され、人体検出処理を開始する。初めに、ステップS501において、画像入力部104は、画像入力装置101から画像210を入力する。次に、ステップS502において、縮小画像生成部105は、画像入力部104から入力した画像210を再帰的に縮小した縮小画像204~209を生成する。次に、ステップS503において、レイヤ構築部106は、入力された画像210と縮小画像204~209からレイヤ構成201を構築する。次に、ステップS504において、動体検出部107は、画像入力部104から入力した画像210から動体の検出処理を行い、画像210内の動体の矩形の大きさから、最小動体の矩形303の大きさと最大動体の矩形302の大きさを求める。
FIG. 5 is a flow chart showing an image processing method of the human
次に、ステップS505において、レイヤ決定部108は、動体検出部107から入力した最大動体の矩形302の大きさ(サイズ)が更新されたか否かを判定する。最大動体の矩形のサイズのデフォルト値は、検出可能な最大矩形サイズである。レイヤ決定部108は、最大動体の矩形302のサイズが更新されたと判定した場合にはステップS506に処理を進め、最大動体の矩形302のサイズが更新されていないと判定した場合にはステップS507に処理を進める。ステップS506において、レイヤ決定部108は、画像210内の最大動体の矩形302のサイズから、レイヤの検出開始位置を決定し、レイヤの検出開始位置を更新し、ステップS507に処理を進める。
Next, in step S505, the
ステップS507において、レイヤ決定部108は、動体検出部107から入力した最小動体の矩形303のサイズが更新されたか否かを判定する。最小動体の矩形のサイズのデフォルト値は、検出可能な最小矩形サイズである。レイヤ決定部108は、最小動体の矩形303のサイズが更新されたと判定した場合にはステップS508に処理を進め、最小動体の矩形303のサイズが更新されていないと判定した場合にはステップS509に処理を進める。ステップS508において、レイヤ決定部108は、画像210内の最小動体の矩形303のサイズから、レイヤの検出終了位置を決定し、レイヤの検出終了位置を更新し、ステップS509に処理を進める。
In step S507, the
ステップS509において、人体検出処理部110は、レイヤ決定部108により決定されたレイヤの検出開始位置及び検出終了位置に応じて、各レイヤの人体検出処理を行う。次に、ステップS510において、検出結果生成部111は、人体検出処理部110から入力した人体情報から人体の矩形情報を生成する。次に、ステップS511において、画像出力部112は、画像入力部104から入力した画像210と、検出結果生成部111から入力した人体の矩形情報とを重畳し、人体の矩形情報が重畳された画像をモニタ装置103へ出力する。次に、ステップS512において、モニタ装置103は、画像出力部112から入力した画像を表示する。
In step S<b>509 , the human body
次に、ステップS513において、人体検出システム100は、ユーザ操作による不図示の人体検出処理オン/オフスイッチが操作され、人体検出処理の停止操作が行われたか否かを判定する。人体検出システム100は、停止操作が行われていないと判定した場合にはステップS501に処理を戻し、停止操作が行われたと判定した場合には人体検出処理を終了する。
Next, in step S513, the human
なお、動体検出部107は、検出された動体に基づき現在の混雑度を検出してもよい。その場合、人体検出処理部110は、混雑度が閾値以上である場合には、混雑していると判断し、複数の画像204~210のすべての画像に対してテンプレート画像のマッチング処理を行う。また、人体検出処理部110は、混雑度が閾値以上でない場合には、混雑していないと判断し、レイヤの検出開始位置と検出終了位置に応じて、上記のように、複数の画像204~210のうちの一部の画像に対してテンプレート画像のマッチング処理を行う。
Note that the moving
以上のように、人体検出システム100は、画像210内の最大動体の矩形302のサイズと最小動体の矩形303のサイズに応じて、レイヤの検出開始位置と検出終了位置を変更する。人体検出処理部110は、画像210内の最大動体の矩形302のサイズと最小動体の矩形303のサイズに応じて、複数の画像204~210のうちの一部の画像に対してテンプレート画像のマッチング処理を行い、人体を検出する。これにより、人体検出システム100は、画像の撮影環境が著しく変わる環境下においても、高精度かつ低負荷で人体検出を行うことができる。
As described above, the human
(第2の実施形態)
図6は、本発明の第2の実施形態に係る人体検出システム100の構成例を示すブロック図である。図6の人体検出システム100は、図1の人体検出システム100に対して、動体検出部107の代わりに消失点検出部607を設けたものである。消失点検出部607は、人体検出装置102内に設けられ、画像入力部104から入力した画像内の遠近法における消失点を検出する。以下、本実施形態が第1の実施形態と異なる点を説明する。
(Second embodiment)
FIG. 6 is a block diagram showing a configuration example of a human
図7は、消失点検出部607による消失点の検出方法を説明するための図である。消失点検出部607は、画像入力部104から画像210を入力し、入力画像210に対してエッジ検出処理を行い、ハフ変換処理により画像210上の直線703、704、705を求める。次に、消失点検出部607は、画像210内で3本以上の直線703~705が交差する点を消失点702として検出する。エッジ検出処理とハフ変換処理は、公知の技術であるため、詳細な説明を省略する。消失点検出部607は、検出した消失点702をレイヤ決定部108へ出力する。
FIG. 7 is a diagram for explaining a method of detecting a vanishing point by the vanishing
レイヤ決定部108は、レイヤ構築部106から入力したレイヤ構成201と、消失点検出部607から入力した消失点702から、人体検出処理を行うレイヤの順序を決定する。画像210内に消失点702が存在する場合、入力画像210に大きい人体から小さい人体まで混在する可能性があるため、順次処理を行っていくと、順番が最後となる小さい人体の検出処理で処理が打ち切られ、小さい人体だけ検出漏れが多発する場合がある。そこで、レイヤ決定部108は、大きい人体から小さい人体までまんべんなく検出できるように、図8(A)のレイヤ構成201に示すように、一つ飛ばしのレイヤの画像204、206、208、210の順序で処理を行う検出処理順序を決定する。それに続き、レイヤ決定部108は、図8(B)のレイヤ構成201に示すように、図8(A)で飛ばしたレイヤの画像205、207、209の順序で処理を行う検出処理順序を決定する。すなわち、レイヤ決定部108は、図8(A)のレイヤ順序で処理を行い、その後、図8(B)のレイヤ順序で処理を行う検出処理順序を決定する。なお、レイヤ決定部108は、画像210内に消失点702が存在しない場合は、大きい人体を検出するレイヤの画像204から小さい人体を検出する画像210まで順次処理を行う検出処理順序を決定する。レイヤ決定部108は、決定した検出処理順序情報を人体検出処理部110へ出力する。
消失点検出部607は、大きい人体と小さい人体が混在するシーンを検出するために設けられているが、これに限定されない。第1の実施形態の動体検出部107が、画像210内の各動体の大きさから大きい人体と小さい人体が混在するシーンを検出してもよい。
The vanishing
人体検出処理部110は、レイヤ構築部106から入力したレイヤ構成情報と、レイヤ決定部108から入力した検出処理順序情報と、辞書109から入力した人体検出用のテンプレート画像を使用して人体検出処理を行う。人体検出処理部110は、検出処理順序情報に応じたフレームの順序で、第1の実施形態と同様の人体検出処理を行う。その他の構成は、第1の実施形態と同じである。
The human body
図9は、第2の実施形態による人体検出システム100の画像処理方法を示すフローチャートである。図9のフローチャートは、図5のフローチャートに対して、ステップS504~S508の代わりに、ステップS904~S908を設けたものである。以下、本実施形態が第1の実施形態と異なる点を説明する。
FIG. 9 is a flow chart showing an image processing method of the human
初めに、ステップS501において、画像入力部104は、画像入力装置101から画像210を入力する。次に、ステップS502において、縮小画像生成部105は、画像入力部104から入力した画像210を再帰的に縮小した縮小画像204~209を生成する。次に、ステップS503において、レイヤ構築部106は、入力された画像210と縮小画像204~209からレイヤ構成201を構築する。
First, in step S<b>501 , the
次に、ステップS904において、消失点検出部607は、画像入力部104から入力した画像210内の消失点702の検出処理を行う。次に、S905において、レイヤ決定部108は、消失点検出部607が消失点を検出したか否かを判定する。レイヤ決定部108は、消失点検出部607が消失点を検出したと判定した場合にはステップS906に処理を進め、消失点検出部607が消失点を検出していないと判定した場合にはステップS907に処理を進める。
Next, in step S<b>904 , the vanishing
ステップS906において、レイヤ決定部108は、消失点検出部607により検出された消失点が画像210内にあるか否かを判定する。レイヤ決定部108は、消失点が画像210内にあると判定した場合にはステップS908に処理を進め、消失点が画像210内にないと判定した場合にはステップS907に処理を進める。
In step S<b>906 , the
ステップS907において、レイヤ決定部108は、検出処理順序として、大きい人体を検出するレイヤから小さい人体を検出するレイヤへ順次処理する通常検出処理順序を決定し、ステップS509に処理を進める。
In step S907, the
ステップS908において、レイヤ決定部108は、検出処理順序として、図8(A)及び(B)に示すように、一つ飛ばしの順序でレイヤを処理する検出処理順序を決定し、ステップS509に処理を進める。
In step S908, the
ステップS509において、人体検出処理部110は、レイヤ決定部108により決定されたレイヤの検出処理順序に合わせて、各レイヤの人体検出処理を行う。次に、ステップS510において、検出結果生成部111は、人体検出処理部110から入力した人体情報から、人体の矩形情報を生成する。次に、ステップS511において、画像出力部112は、画像入力部104から入力した画像210と、検出結果生成部111から入力した人体の矩形情報とを重畳し、人体の矩形情報が重畳された画像をモニタ装置103へ出力する。次に、ステップS512において、モニタ装置103は、画像出力部112から入力した画像を表示する。次に、ステップS513において、人体検出システム100は、第1の実施形態と同様の処理を行う。
In step S<b>509 , the human body
以上のように、人体検出処理部110は、消失点検出部607の消失点の検出結果に応じて、異なる順序で複数の画像204~210に対してテンプレート画像のマッチング処理を行う。人体検出処理部110は、消失点が検出されなかった場合には、ステップS907のように、画像の大きさの順序で複数の画像204~210に対してテンプレート画像のマッチング処理を行う。また、人体検出処理部110は、消失点が検出された場合には、ステップS908のように、画像の大きさの順序でない順序で複数の画像204~210に対してテンプレート画像のマッチング処理を行う。これにより、人体検出システム100は、大きい人体から小さい人体まで混在するような画角に画像入力装置101の向きが変わった場合でも、人体の大きさによって人体検出精度がばらつくことを防止できる。
As described above, the human body
(第3の実施形態)
図10は、本発明の第3の実施形態に係る人体検出システム100の構成例を示すブロック図である。図10の人体検出システム100は、図1の人体検出システム100に対して、動体検出部107の代わりに複雑度検出部1007を設けたものである。複雑度検出部1007は、人体検出装置102内に設けられる。以下、本実施形態が第1の実施形態と異なる点を説明する。
(Third Embodiment)
FIG. 10 is a block diagram showing a configuration example of a human
複雑度検出部1007は、画像入力部104から入力した画像210に対してエッジ検出処理を行い、画像210全体の複雑度を検出する。エッジ検出処理については、公知の技術であるため、詳細な説明を省略する。複雑度検出部1007は、画像210全体の複雑度情報をレイヤ決定部108へ出力する。
The
レイヤ決定部108は、レイヤ構築部106から入力したレイヤ構成情報と、複雑度検出部1007から入力した複雑度情報から、検出処理を行うレイヤの検出方向を決定する。レイヤ決定部108は、画像210全体の複雑度が予め決められた閾値以上である場合には、小さい人体が多数いる可能性が高いと判断し、小さい人体を検出するための大きい画像のレイヤから小さい画像のレイヤに向けて順に処理を行う検出方向を決定する。また、レイヤ決定部108は、画像210全体の複雑度が閾値未満である場合には、大きい人体がいる可能性が高いと判断し、大きい人体を検出するための小さい縮小画像のレイヤから大きい画像のレイヤに向けて順に処理を行う検出方向を決定する。レイヤ決定部108は、決定した検出方向情報を人体検出処理部110へ出力する。
人体検出処理部110は、レイヤ構築部106から入力したレイヤ構成情報と、レイヤ決定部108から入力した検出方向情報と、辞書109から入力した人体検出用のテンプレート画像を使用して、人体検出処理を行う。人体検出処理部110は、検出方向情報が示すレイヤの検出方向で、各レイヤに対して人体検出処理を行う。その他の構成は、第1の実施形態と同じである。
The human body
図11は、第3の実施形態による人体検出システム100の画像処理方法を示すフローチャートである。図11のフローチャートは、図5のフローチャートに対して、ステップS504~S508の代わりに、ステップS1104~S1107を設けたものである。以下、本実施形態が第1の実施形態と異なる点を説明する。
FIG. 11 is a flow chart showing an image processing method of the human
初めに、ステップS501において、画像入力部104は、画像入力装置101から画像210を入力する。次に、ステップS502において、縮小画像生成部105は、画像入力部104から入力した画像210を再帰的に縮小した縮小画像204~209を生成する。次に、ステップS503において、レイヤ構築部106は、入力された画像210と縮小画像204~209から、レイヤ構成201を構築する。
First, in step S<b>501 , the
次に、ステップS1104において、複雑度検出部1007は、画像入力部104から入力した画像210に対してエッジ検出処理を行い、画像210全体の複雑度を検出する。次に、ステップS1105において、レイヤ決定部108は、複雑度検出部1007から入力した複雑度が閾値以上であるか否かを判定する。レイヤ決定部108は、複雑度が閾値以上である場合には、ステップS1107に処理を進め、複雑度が閾値以上でない場合には、ステップS1106に処理を進める。
Next, in step S<b>1104 , the
ステップS1106において、レイヤ決定部108は、大きい人体を検出するための小さい画像のレイヤから大きい画像のレイヤに向けて人体検出を開始する検出方向を決定し、ステップS509に処理を進める。
In step S1106, the
ステップS1107において、レイヤ決定部108は、小さい人体を検出するための大きい画像のレイヤから小さい画像のレイヤに向けて人体検出を開始する検出方向を決定し、ステップS509に処理を進める。
In step S1107, the
ステップS509において、人体検出処理部110は、レイヤ決定部108により決定されたレイヤの検出方向に合わせて、各レイヤの人体検出処理を行う。次に、ステップS510において、検出結果生成部111は、人体検出処理部110から入力した人体情報から、人体の矩形情報を生成する。次に、ステップS511において、画像出力部112は、画像入力部104から入力した画像210と、検出結果生成部111から入力した人体の矩形情報とを重畳し、人体の矩形情報が重畳された画像をモニタ装置103へ出力する。次に、ステップS512において、モニタ装置103は、画像出力部112から入力した画像を表示する。次に、ステップS513において、人体検出システム100は、第1の実施形態と同様の処理を行う。
In step S<b>509 , the human body
以上のように、人体検出処理部110は、画像210の複雑度に応じて、異なる順序で複数の画像204~210に対してテンプレート画像のマッチング処理を行う。人体検出処理部110は、複雑度が閾値以上である場合には、ステップS1107のように、大きい画像から小さい画像に向けた順序で複数の画像204~210に対してテンプレート画像のマッチング処理を行う。また、人体検出処理部110は、複雑度が閾値以上でない場合には、ステップS1106のように、小さい画像から大きい画像に向けた順序で複数の画像204~210に対してテンプレート画像のマッチング処理を行う。人体検出システム100は、画像210全体の複雑度に応じて、レイヤの検出方向を変えることにより、人の数が著しく変わる環境下においても、高精度に人体検出処理を行うことができる。
As described above, the human body
(第4の実施形態)
図12は、本発明の第4の実施形態に係る人体検出システム100の構成例を示すブロック図である。図12の人体検出システム100は、図1の人体検出システム100に対して、ズーム装置1213を追加で設け、動体検出部107の代わりにズーム情報保持部1207を設けたものである。ズーム情報保持部1207は、人体検出装置102内に設けられる。以下、本実施形態が第1の実施形態と異なる点を説明する。
(Fourth embodiment)
FIG. 12 is a block diagram showing a configuration example of a human
ズーム装置1213は、複数枚のレンズから構成されるレンズユニットを持ち、レンズユニット内の画角調整用のレンズを前後に移動することで、撮像する画像の画角を調整する装置である。ズーム装置1213は、複数枚のレンズと、レンズを移動するステッピングモータと、モータ制御用のモータドライバとを有する。ズーム装置1213は、ズーム情報をズーム情報保持部1207へ出力する。
The
ズーム情報保持部1207は、ズーム装置1213から入力したズーム情報を保持する。ズーム情報保持部1207は、保持しているズーム情報をレイヤ決定部108へ出力する。
A zoom
レイヤ決定部108は、レイヤ構築部106から入力したレイヤ構成情報と、ズーム情報保持部1207から入力したズーム情報から、レイヤの検出開始位置及び検出終了位置を決定する。ここで、図13(A)、(B)、(C)を用いて、レイヤの検出開始位置及び検出終了位置の変更について説明する。
The
例えば、レイヤ決定部108は、図13(A)のレイヤ構成201に示すように、ズーム情報のズーム倍率が2倍である場合には、縮小画像206のレイヤ2を検出開始位置とし、縮小画像208のレイヤ4を検出終了位置とする。人体検出処理部110は、ズーム情報のズーム倍率が2倍を示す場合には、複数の画像のうちの第1の範囲の一部の画像206~208に対してテンプレート画像のマッチング処理を行う。
For example, as shown in the
次に、ズーム情報がズームアウト方向に制御され、ズーム倍率が2倍から1倍へ変更された場合を説明する。その場合、レイヤ決定部108は、現在検出できる人体がズームアウトされてサイズが小さくなったとしても正しく検出できるよう、レイヤの検出開始位置及び検出終了位置をズーム倍率に合わせて下位のレイヤとなるように制御する。例えば、レイヤ決定部108は、ズーム情報のズーム倍率が1倍に変更された場合には、図13(B)のレイヤ構成201に示すように、検出開始位置を縮小画像208のレイヤ4に変更し、検出終了位置を画像210のレイヤ6に変更する。縮小画像204、205、206、207の検出処理は、スキップする。人体検出処理部110は、ズーム情報が上記の2倍より小さい1倍を示す場合には、複数の画像のうちの第2の範囲の一部の画像208~210に対してテンプレート画像のマッチング処理を行う。図13(B)の検出範囲の画像208~210は、図13(A)の検出範囲の画像206~208より画像の大きさが大きい範囲である。
Next, a case where the zoom information is controlled in the zoom-out direction and the zoom magnification is changed from 2× to 1× will be described. In this case, the
次に、ズーム情報がズームイン方向に制御され、ズーム倍率が2倍から4倍へ変更された場合を説明する。レイヤ決定部108は、ズーム情報がズームイン方向に制御されると、現在検出できる人体がズームインされてサイズが大きくなっても正しく検出できるよう、レイヤの検出開始位置及び終了位置をズーム倍率に合わせて上位レイヤとなるように制御する。例えば、レイヤ決定部108は、ズーム情報のズーム倍率が4倍に変更された場合には、図13(C)のレイヤ構成201に示すように、検出開始位置を縮小画像204のレイヤ0に変更し、検出終了位置を縮小画像206のレイヤ2に変更する。画像207、208、209、210の検出処理は、スキップする。人体検出処理部110は、ズーム情報が上記の2倍より大きい4倍を示す場合には、複数の画像のうちの第3の範囲の一部の画像204~206に対してテンプレート画像のマッチング処理を行う。図13(C)の検出範囲の画像204~206は、図13(A)の検出範囲の画像206~208より画像の大きさが小さい範囲である。その他の構成は、第1の実施形態と同じである。
Next, a case where the zoom information is controlled in the zoom-in direction and the zoom magnification is changed from 2× to 4× will be described. When the zoom information is controlled in the zoom-in direction, the
図14は、第4の実施形態による人体検出システム100の画像処理方法を示すフローチャートである。図14のフローチャートは、図5のフローチャートに対して、ステップS504~S508の代わりに、ステップS1404~S1407を設けたものである。以下、本実施形態が第1の実施形態と異なる点を説明する。
FIG. 14 is a flow chart showing an image processing method of the human
初めに、ステップS501において、画像入力部104は、画像入力装置101から画像210を入力する。次に、ステップS502において、縮小画像生成部105は、画像入力部104から入力した画像210を再帰的に縮小した縮小画像204~209を生成する。次に、ステップS503において、レイヤ構築部106は、入力された画像210と縮小画像204~209から、レイヤ構成201を構築する。
First, in step S<b>501 , the
次に、ステップS1404において、ズーム情報保持部1207は、ズーム装置1213から入力したズーム情報を保持する。次に、ステップS1405において、レイヤ決定部108は、ズーム情報保持部1207から入力したズーム情報のズーム位置が更新されたか否かを判定する。レイヤ決定部108は、ズーム位置が更新された場合には、ステップS1406に処理を進め、ズーム位置が更新されていない場合には、ステップS509に処理を進める。
Next, in step S<b>1404 , the zoom
ステップS1406において、レイヤ決定部108は、ズーム情報のズーム倍率に応じて、レイヤの検出開始位置を決定し、レイヤの検出開始位置を更新する。次に、ステップS1407において、レイヤ決定部108は、ズーム情報のズーム倍率に応じて、レイヤの検出終了位置を決定し、レイヤの検出終了位置を更新し、ステップS509に処理を進める。
In step S1406, the
ステップS509において、人体検出処理部110は、レイヤ決定部108により決定されたレイヤの検出開始位置及び検出終了位置に応じて、各レイヤの人体検出処理を行う。次に、ステップS510において、検出結果生成部111は、人体検出処理部110から入力した人体情報から、人体の矩形情報を生成する。次に、ステップS511において、画像出力部112は、画像入力部104から入力した画像210と、検出結果生成部111から入力した人体の矩形情報とを重畳し、人体の矩形情報が重畳された画像をモニタ装置103へ出力する。次に、ステップS512において、モニタ装置103は、画像出力部112から入力した画像を表示する。次に、ステップS513において、人体検出システム100は、第1の実施形態と同様の処理を行う。
In step S<b>509 , the human body
以上のように、人体検出システム100は、ズーム倍率に応じて、レイヤの検出開始位置と検出終了位置を決め、画像204~210のうちの一部の画像に対してテンプレート画像のマッチング処理を行い、人体を検出する。これにより、人体検出システム100は、ズーム倍率を変える制御を行った場合においても、ズームイン/アウトに伴って発生する検出結果の不一致や誤検出を防ぐ高精度の人体検出を行うことができる。
As described above, the human
(その他の実施形態)
上述の人体検出装置102は、1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The human
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist.
100 人体検出システム、101 画像入力装置、102 人体検出装置、103 モニタ装置、104 画像入力部、105 縮小画像生成部、106 レイヤ構築部、107 動体検出部、108 レイヤ決定部、109 辞書、110 人体検出処理部、111 検出結果生成部、112 画像出力部
100 human
Claims (12)
前記入力された画像内の動体を検出する動体検出手段と、
前記動体に応じて決定された前記複数の画像の一部または順序に基づいてテンプレート画像のマッチング処理を行うことによって、前記入力された画像内の特定物を検出する特定物検出手段と
を有し、
前記特定物検出手段は、前記動体検出手段により検出された動体のうちの最大の動体の大きさと最小の動体の大きさに応じて、前記複数の画像のうちの一部の画像に対してテンプレート画像のマッチング処理を行うことを特徴とする画像処理装置。 an image generating means for generating a plurality of images having different sizes by reducing an input image;
a moving object detection means for detecting a moving object in the input image;
specific object detection means for detecting a specific object in the input image by performing template image matching processing based on part or order of the plurality of images determined according to the moving object; ,
The specific object detection means detects a template for a part of the plurality of images according to the size of the maximum moving object and the minimum size of the moving object detected by the moving object detection means. An image processing apparatus characterized by performing image matching processing .
前記特定物検出手段は、前記消失点の検出結果に応じて、異なる順序で前記複数の画像に対してテンプレート画像のマッチング処理を行うことを特徴とする請求項1に記載の画像処理装置。 further comprising vanishing point detection means for detecting a vanishing point in the input image;
2. The image processing apparatus according to claim 1, wherein said specific object detection means performs template image matching processing on said plurality of images in a different order according to a detection result of said vanishing point.
前記特定物検出手段は、前記複雑度に応じて、異なる順序で前記複数の画像に対してテンプレート画像のマッチング処理を行うことを特徴とする請求項1に記載の画像処理装置。 further comprising complexity detection means for detecting the complexity of the input image;
2. The image processing apparatus according to claim 1, wherein said specific object detection means performs template image matching processing on said plurality of images in different orders according to said complexity.
前記ズーム手段のズーム情報が第1のズーム倍率を示す場合には、前記複数の画像のうちの第1の範囲の一部の画像に対してテンプレート画像のマッチング処理を行い、
前記ズーム手段のズーム情報が前記第1のズーム倍率より小さい第2のズーム倍率を示す場合には、前記複数の画像のうちの前記第1の範囲より画像の大きさが大きい第2の範囲の一部の画像に対してテンプレート画像のマッチング処理を行い、
前記ズーム手段のズーム情報が前記第1のズーム倍率より大きい第3のズーム倍率を示す場合には、前記複数の画像のうちの前記第1の範囲より画像の大きさが小さい第3の範囲の一部の画像に対してテンプレート画像のマッチング処理を行うことを特徴とする請求項8に記載の画像処理装置。 The specific object detection means is
if the zoom information of the zoom means indicates a first zoom magnification, performing template image matching processing on a part of the images in the first range among the plurality of images;
When the zoom information of the zoom means indicates a second zoom magnification smaller than the first zoom magnification, a second range of images larger in size than the first range of the plurality of images is selected. Perform template image matching processing for some images,
When the zoom information of the zoom means indicates a third zoom magnification that is larger than the first zoom magnification, a third range of images smaller in size than the first range among the plurality of images is selected. 9. The image processing apparatus according to claim 8 , wherein template image matching processing is performed on part of the images.
前記入力された画像内の動体を検出する動体検出ステップと、
前記動体に応じて決定された前記複数の画像の一部または順序に基づいてテンプレート画像のマッチング処理を行うことによって、前記入力された画像内の特定物を検出する特定物検出ステップと
を有し、
前記特定物検出ステップは、前記動体検出ステップで検出された動体のうちの最大の動体の大きさと最小の動体の大きさに応じて、前記複数の画像のうちの一部の画像に対してテンプレート画像のマッチング処理を行うことを特徴とする画像処理方法。 an image generating step of generating a plurality of images having different sizes by reducing the input image by the image generating means;
a moving body detection step of detecting a moving body in the input image;
and a specific object detection step of detecting a specific object in the input image by performing template image matching processing based on part or order of the plurality of images determined according to the moving object. ,
In the specific object detection step, template detection is performed on a part of the plurality of images according to the size of the maximum moving object and the minimum size of the moving object detected in the moving object detection step. An image processing method characterized by performing image matching processing .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/117,574 US20190080201A1 (en) | 2017-09-08 | 2018-08-30 | Image processing apparatus, image processing method, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017173374 | 2017-09-08 | ||
JP2017173374 | 2017-09-08 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019049961A JP2019049961A (en) | 2019-03-28 |
JP2019049961A5 JP2019049961A5 (en) | 2021-07-26 |
JP7134716B2 true JP7134716B2 (en) | 2022-09-12 |
Family
ID=65906332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018104554A Active JP7134716B2 (en) | 2017-09-08 | 2018-05-31 | Image processing device, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7134716B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7394542B2 (en) * | 2019-05-30 | 2023-12-08 | キヤノン株式会社 | Imaging device, notification device, notification method, and program |
JP6893751B2 (en) * | 2019-08-19 | 2021-06-23 | 東芝情報システム株式会社 | Image detection device, image detection method and image detection program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001243476A (en) | 2000-03-02 | 2001-09-07 | Mitsubishi Heavy Ind Ltd | Method and device for monitoring moving body |
JP2007135115A (en) | 2005-11-14 | 2007-05-31 | Sony Corp | Image processor, image processing method, program for image processing method and recording medium with record of program for image processing method |
JP2013062688A (en) | 2011-09-13 | 2013-04-04 | Canon Inc | Image processing apparatus and image processing method |
-
2018
- 2018-05-31 JP JP2018104554A patent/JP7134716B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001243476A (en) | 2000-03-02 | 2001-09-07 | Mitsubishi Heavy Ind Ltd | Method and device for monitoring moving body |
JP2007135115A (en) | 2005-11-14 | 2007-05-31 | Sony Corp | Image processor, image processing method, program for image processing method and recording medium with record of program for image processing method |
JP2013062688A (en) | 2011-09-13 | 2013-04-04 | Canon Inc | Image processing apparatus and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2019049961A (en) | 2019-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9313400B2 (en) | Linking-up photographing system and control method for linked-up cameras thereof | |
JP5746937B2 (en) | Object tracking device | |
JP2005210217A (en) | Stereoscopic camera | |
US8577098B2 (en) | Apparatus, method and program for designating an object image to be registered | |
JP2009193421A (en) | Image processing device, camera device, image processing method, and program | |
TWI629550B (en) | Image capturing apparatus and image zooming method thereof | |
JP7134716B2 (en) | Image processing device, image processing method and program | |
CN111917941B (en) | Camera picture processing method and camera | |
US8334919B2 (en) | Apparatus and method for digital photographing to correct subject area distortion caused by a lens | |
CN108810326B (en) | Photographing method and device and mobile terminal | |
CN109391769B (en) | Control apparatus, control method, and storage medium | |
JP2014230002A (en) | Image display apparatus, control method and program for image display apparatus | |
JP6104066B2 (en) | Image processing apparatus and image processing method | |
JP2006253805A (en) | Photographing apparatus and method | |
JP4799367B2 (en) | Image reproducing apparatus and method, and imaging apparatus | |
US9049382B2 (en) | Image processing apparatus and image processing method | |
JP6579764B2 (en) | Image processing apparatus, image processing method, and program | |
JP2018092507A (en) | Image processing apparatus, image processing method, and program | |
JP2006253806A (en) | Photographing apparatus and method | |
JP2011130206A (en) | Imaging apparatus, and method of controlling the same | |
JP6501749B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
US20190080201A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2008098739A (en) | Imaging apparatus, image processing method used for imaging apparatus and program making computer execute same image processing method | |
JP6062483B2 (en) | Digital camera | |
JP2020009099A (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210525 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210525 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220831 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7134716 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |