JP2013186834A - Image processing apparatus, control method for image processing apparatus, and program - Google Patents
Image processing apparatus, control method for image processing apparatus, and program Download PDFInfo
- Publication number
- JP2013186834A JP2013186834A JP2012053683A JP2012053683A JP2013186834A JP 2013186834 A JP2013186834 A JP 2013186834A JP 2012053683 A JP2012053683 A JP 2012053683A JP 2012053683 A JP2012053683 A JP 2012053683A JP 2013186834 A JP2013186834 A JP 2013186834A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- detection
- specific object
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像から特定の物体を検出する画像処理装置、画像処理装置の制御方法、およびプログラムに関し、特に、監視カメラの画像から高速に人体を検出する画像処理装置、画像処理装置の制御方法、およびプログラムに関する。 The present invention relates to an image processing device for detecting a specific object from an image, a control method for the image processing device, and a program, and more particularly to an image processing device for detecting a human body at high speed from an image of a surveillance camera and a control method for the image processing device. And related to the program.
従来、監視カメラの画像から顔や人体など特定の物体を検出する場合、パターンマッチング処理により物体の検出を行っていた。 Conventionally, when a specific object such as a face or a human body is detected from an image of a monitoring camera, the object is detected by pattern matching processing.
特許文献1では、画像の大きさを変更しながら照合パターンを画像全域に用いて複数の局所パターンを抽出し、それぞれの局所特徴量を算出する。そして、局所特徴量に重み付けを行った結果の総和から人体であるかを判定する手法が記載されている。また、特許文献2では、カメラ本体の姿勢に応じて、顔検出処理の方法を変更する手法が。そして、特許文献3では、パターンマッチングによる追尾手法が記載されている。また、これらの特定物体の検出処理は、ネットワークカメラ機器の高画素化という背景や、監視等で実時間処理を行うために高速に実行できることが必要である。処理の高速化を実現する方法として、特許文献4では、パターンマッチングに用いる縮小画像(レイヤ)の優先度を過去の画像撮影結果に基づいて切り替える手法が記載されている。
In Patent Document 1, a plurality of local patterns are extracted using a matching pattern over the entire image while changing the size of the image, and each local feature is calculated. And the method of determining whether it is a human body from the sum total of the result of having weighted the local feature-value is described. Japanese Patent Application Laid-Open No. 2004-26883 discloses a method of changing the face detection processing method according to the posture of the camera body. And in patent document 3, the tracking method by pattern matching is described. In addition, these specific object detection processes need to be able to be performed at high speed in order to perform real-time processing in the background of increasing the number of pixels of network camera devices and monitoring. As a method for realizing high-speed processing,
しかしながら、特許文献1乃至特許文献4に記載の手法では、特定物体の検出処理が常に正しく行われるとは限らない。そのため、本来は特定物体が出現しない箇所において特定物体が頻繁に誤検出される場合、過去の検出実績に基づいてパターンマッチングに用いるレイヤの優先度を変える手法が有効に働かない可能性があるという課題がある。
However, with the methods described in Patent Literature 1 to
上記の課題に鑑み、本発明は、特定物体の検出処理に誤検出が起こる場合においても、パターンマッチングに用いるレイヤの優先度を適切に決定し、高速に特定物体を検出することを目的とする。 In view of the above problems, an object of the present invention is to appropriately determine the priority of a layer used for pattern matching and detect a specific object at high speed even when erroneous detection occurs in the specific object detection process. .
上記の目的を達成する本発明に係る画像処理装置は、
入力画像を拡大または縮小して生成される解像度の異なる画像である1つ以上のレイヤを用いて、前記入力画像から特定物体を検出する検出手段と、
前記特定物体の検出に用いられた画像を特定するための情報を示す画像特定情報を生成する画像特定情報生成手段と、
前記画像における前記特定物体の検出位置を特定するための情報を示す位置特定情報を生成する位置特定情報生成手段と、
前記画像特定情報および前記位置特定情報に基づいて、前記特定物体の検出結果に対して評価情報を付与する付与手段と、
前記評価情報に基づいて、前記特定物体の検出に用いるレイヤを前記入力画像について設定する設定手段と、
を備えることを特徴とする。
An image processing apparatus according to the present invention that achieves the above object is as follows.
Detection means for detecting a specific object from the input image using one or more layers that are images having different resolutions generated by enlarging or reducing the input image;
Image specifying information generating means for generating image specifying information indicating information for specifying an image used for detection of the specific object;
Position specifying information generating means for generating position specifying information indicating information for specifying a detection position of the specific object in the image;
An assigning means for assigning evaluation information to a detection result of the specific object based on the image specifying information and the position specifying information;
Setting means for setting a layer used for detection of the specific object for the input image based on the evaluation information;
It is characterized by providing.
本発明によれば、特定物体の検出処理に誤検出が起こる場合においても、パターンマッチングに用いるレイヤの優先度を適切に決定し、高速に特定物体を検出することができる。 According to the present invention, even when erroneous detection occurs in the specific object detection process, it is possible to appropriately determine the priority of the layer used for pattern matching and detect the specific object at high speed.
<第1実施形態>
図1を参照して、第1実施形態に係る画像処理装置100の構成例を説明する。画像処理装置100は、画像取得部101と、人体検出部102と、画像特定情報生成部103と、検出位置特定情報生成部104と、評価情報付与部105と、レイヤ設定部106と、記憶部107と、外部出力部108とを備える。各処理部は、不図示のCPUにより制御される。
<First Embodiment>
A configuration example of the
画像取得部101は、処理対象の画像を時系列順に外部から取得する。画像を取得する外部の装置はカメラに限定されるものではなく、サーバや外部メモリなどに保存されたものでもよい。また、静止画、動画のいずれをも含む。人体検出部102は、異なる大きさの人体を検出するために、入力画像を拡大または縮小して生成される解像度の異なる画像である1つ以上のレイヤ(縮小画像)を用いてパターンマッチング処理を行い、画像から人体を検出する。
The
画像特定情報生成部103は、人体検出部102による人体の検出結果に対して、人体検出時に使用した画像を特定するための情報である画像特定情報を生成し、記憶部107に保存する。検出位置特定情報生成部104は、人体検出部102による人体の検出結果に対して、人体検出時の検出位置を特定するための情報である検出位置特定情報を生成し、記憶部107に保存する。
The image specifying
評価情報付与部105は、画像特定情報生成部103により生成された画像特定情報および検出位置特定情報生成部104により生成された検出位置特定情報に基づいて、検出結果に対する評価情報を付与する。レイヤ設定部106は、評価情報付与部105により付与された評価情報に基づいて、画像における所定領域と処理レイヤとを対応付けた対応テーブルを作成する。処理レイヤとは、人体検出部102による人体検出にどのレイヤを用いるかという情報のことを指す。
Based on the image specifying information generated by the image specifying
記憶部107は、画像特定情報生成部103により生成された画像特定情報、検出位置特定情報生成部104により生成された検出位置特定情報、およびレイヤ設定部106により作成された対応テーブルを記憶する。人体検出部102は、この記憶された対応テーブルの設定値に基づいて人体検出処理を行う。また、記憶部107は、人体検出処理に用いる人体照合パターンも記憶する。外部出力部108は、画像処理装置100により処理された各種情報を外部の装置へ出力する。
The
以下、レイヤ、人体検出処理、画像特定情報、検出位置特定情報、評価情報付与、および対応テーブルについて詳細に説明していく。 Hereinafter, the layer, the human body detection process, the image specification information, the detection position specification information, the evaluation information addition, and the correspondence table will be described in detail.
まずはレイヤおよび人体検出処理について説明する。図2は人体検出処理におけるレイヤ処理を説明した図である。画像201は、画像取得部101が取得した画像である。ここで、画像201をレイヤ0(L0)と称する。照合パターン202は、パターンマッチング処理で人体検出を行う際の照合パターンである。画像201については、照合パターン202を用いて取得画像の左上部からラスタスキャンし人体を検出する。次に、画像201のサイズを所定の倍率だけ縮小した画像203を作成し、画像203に対して画像201と同じ照合パターン202を用いてラスタスキャンを行い人体を検出する。ここで、縮小した画像203をレイヤ1(L1)と称する。同様に画像203を所定の倍率だけ縮小した画像204(レイヤ2(L2))に対し照合パターン202を用いて人体検出処理を行っていく。同じ照合パターン202を繰り返し縮小画像に用いることにより、画面中の様々な大きさの人体を検出することが可能となる。ここで、レイヤとは、入力画像を拡大または縮小して生成される、解像度の異なる複数の画像集合である。これまで述べたように、本実施形態におけるレイヤとは、複数のレイヤ0からレイヤNまでの画像集合であり、元画像をレイヤ0、画像を縮小していく毎にレイヤ1、レイヤ2としている。また、上述したようにレイヤと検出する人体の大きさとは関連している。
First, the layer and human body detection process will be described. FIG. 2 is a diagram illustrating layer processing in human body detection processing. An
これらの処理を繰り返し行い各種大きさの人体を検出し、処理を開始してからの経過時間が閾値に達すると終了する。処理終了条件は、本実施形態においては処理を開始してからの経過時間に基づいて決定しているが、経過時間に限定されるものではない。処理終了条件は、検出した人体の数、人体検出処理を実行した回数などから決定するようにしてもよい。 These processes are repeated to detect human bodies of various sizes, and the process ends when the elapsed time from the start of the process reaches a threshold value. In the present embodiment, the process end condition is determined based on the elapsed time from the start of the process, but is not limited to the elapsed time. The process end condition may be determined from the number of detected human bodies, the number of times the human body detection process is executed, and the like.
また縮小画像を作成する際の所定の倍率は1倍未満であれば何倍であってもよい。1に近いほど高精度であるが処理時間は長くなり、倍率が低くなるほど一般的に低精度になるが処理時間は短くなるため、運用条件によって適切な値を設定する。また、本実施形態では元の画像201を繰り返し縮小し順次大きな人体を検出しているが、大きな人体から小さな人体を検出するように処理順を変えてもよい。
Further, the predetermined magnification for creating the reduced image may be any number as long as it is less than 1. The closer to 1, the higher the accuracy, but the longer the processing time, and the lower the magnification, the generally lower the accuracy, but the shorter the processing time, so an appropriate value is set according to the operating conditions. In the present embodiment, the
また、本実施形態においては検出対象を人体としているが、必ずしも人体に限定されるものではない。検出対象としては、顔、自動車(車両)、動物等、入力された画像上に様々な大きさで現れる可能性のある物体であればよい。さらに、複数種類の特定物体を検出する特定物体検出部により、同時に複数の検出が可能であるならば、物体に複数の特定物体検出処理を実施してもよい。また、別途設定した物体の大きさ、アスペクト比などの設定値に用いた物体の属性に応じて、複数の特定物体検出処理から所定の処理のみを選択し処理を実施してもよい。例えば、特定物体検出部として、人体検出部と車検出部と有するものとする。このとき、画面内で出現しうる車の大きさを車両最小サイズとして、ユーザの指示に従って予め設定する。そして、物体の大きさが車両最小サイズより小さい場合、車として検出される可能性は低いため、車検出部での処理は行わず、人体検出部での処理のみ実施する。一方で、物体の大きさが車両最小サイズより大きい場合、車として検出される可能性があるため、車検出部での処理を実施する。また、複数の人が集団で行動し一つの物体として検出された可能性もあるため、人体検出部での処理も実施する。 Moreover, in this embodiment, although the detection target is a human body, it is not necessarily limited to a human body. The detection target may be an object that may appear in various sizes on the input image, such as a face, a car (vehicle), or an animal. Furthermore, if a plurality of types of specific objects can be detected simultaneously by a specific object detection unit that detects a plurality of types of specific objects, a plurality of specific object detection processes may be performed on the object. In addition, depending on the object attributes used for the set values such as the object size and aspect ratio set separately, only a predetermined process may be selected from a plurality of specific object detection processes and the process may be performed. For example, the specific object detection unit includes a human body detection unit and a vehicle detection unit. At this time, the size of the car that can appear in the screen is set as a minimum vehicle size in accordance with a user instruction. When the size of the object is smaller than the minimum vehicle size, the possibility of being detected as a car is low, and therefore, the processing in the vehicle detection unit is not performed and only the processing in the human body detection unit is performed. On the other hand, if the size of the object is larger than the minimum vehicle size, there is a possibility that the object is detected as a car, and therefore the process in the car detection unit is performed. In addition, since there is a possibility that a plurality of people act as a group and are detected as one object, processing in the human body detection unit is also performed.
次に、画像特定情報について説明する。画像特定情報は、人体検出部102による人体の検出結果に対し、人体検出時に使用した画像(レイヤ)を特定するための情報のことである。例えば、人体の検出時に使用した画像そのものを示す情報を、画像特定情報として使用する。また、人体検出時に使用した画像のフレーム識別子情報や、人体検出時の時刻情報を、画像特定情報として使用してもよい。この場合は、人体検出時に使用した画像を後で特定することができるように、画像取得部101が外部から取得した静止画または動画を、フレーム識別子情報や時刻情報とともに、記憶部107または外部の記憶部に記録しておく必要がある。
Next, the image specifying information will be described. The image specifying information is information for specifying the image (layer) used at the time of detecting the human body with respect to the detection result of the human body by the human
次に、検出位置特定情報について説明する。検出位置特定情報は、人体検出部102による人体の検出結果に対し、人体検出時の検出位置を特定するための情報のことである。例えば、人体検出部102が人体を検出した位置を表す座標情報を、検出位置特定情報として使用する。このときの座標は、縮小された画像における座標系を用いてもよいし、縮小された画像における検出位置を、縮小された画像に対応するレイヤ0の画像(元画像)上の検出位置に換算した後の、レイヤ0における座標系を用いてもよい。また、画像特定情報に含まれる画像に、人体が検出された位置を表す情報を重畳した画像情報を、検出位置特定情報として使用してもよい。
Next, the detection position specifying information will be described. The detection position specifying information is information for specifying the detection position at the time of human body detection with respect to the human body detection result by the human
本実施形態では、所定の期間を学習期間とし、この学習期間内に入力画像の全レイヤを用いて人体検出処理を実行する。その検出結果に基づいて、画像特定情報生成部103が画像特定情報を生成し、検出位置特定情報生成部104が検出位置特定情報を生成する。なお、所定の期間を学習期間とする方法以外で検出結果を収集してもよい。例えば、人体検出が一定数行われるまでを学習期間とし、検出結果を収集してもよい。また、あらかじめ用意された検出結果を直接用いてもよい。
In the present embodiment, a predetermined period is set as a learning period, and the human body detection process is executed using all layers of the input image within the learning period. Based on the detection result, the image specifying
この画像特定情報と検出位置特定情報との保持例を、図3の記録テーブルに示す。記録テーブルは、レイヤごとに、人体検出イベントが起こった回数を記録する。ここで人体検出イベントとは、人体検出が任意のレイヤで1回検出されることを指す。図3の例では、学習期間において、L2で95回の人体検出イベントが起こったことが分かる。また、学習期間において、L5で34回の人体検出イベントが起こったことが分かる。記録テーブルは、検出イベントのそれぞれに対して一意のID(例えば、L2−001、…、L2−095、L5−001、…、L5−034)を与え、そのイベントに対応する画像特定情報と検出位置特定情報とを、当該IDと関連付けて記録する。 An example of holding the image specifying information and the detected position specifying information is shown in the recording table of FIG. The recording table records the number of times that the human body detection event has occurred for each layer. Here, the human body detection event indicates that human body detection is detected once in an arbitrary layer. In the example of FIG. 3, it can be seen that 95 human body detection events have occurred in L2 during the learning period. It can also be seen that 34 human detection events occurred at L5 during the learning period. The recording table gives a unique ID (for example, L2-001,..., L2-095, L5-001,..., L5-034) to each detected event, and the image specifying information and the detection corresponding to the event. The position specifying information is recorded in association with the ID.
記録テーブルは記憶部107に記憶される。なお、画像特定情報と検出位置特定情報との保持方法はこの方法に限定されるものではなく、各レイヤにおける検出イベントに対応する画像特定情報および検出位置特定情報を取り出せる任意の方法を用いてよい。
The recording table is stored in the
次に、評価情報付与について説明する。評価情報付与とは、記録テーブルに記録された過去の人体検出イベントに対し、評価情報を付与することを意味する。図4に、評価情報付与部105として機能するユーザインタフェース401を示す。このユーザインタフェース401は、記録テーブルに記録された、過去の人体検出イベントに対応する画像特定情報および検出位置特定情報を、順々にユーザに提示する。ユーザインタフェース401は、人体検出イベントのID402と、画像特定情報を用いて取得した入力画像上に検出位置特定情報を用いて取得した人体検出位置を示す矩形を重畳した入力画像403と、をユーザに提示している。矩形の大きさは、人体検出時に使用したレイヤの番号と、パターンマッチング処理で用いる照合パターンの大きさから決まる。
Next, evaluation information provision will be described. The evaluation information addition means that evaluation information is added to a past human body detection event recorded in the recording table. FIG. 4 shows a
ユーザは、提示された情報に基づいて、その人体検出結果が正しかったか誤りであったかを評価し、その評価結果を、ボタン群404を用いて付与する。図4の例では、正しく人体が検出されているとユーザが判断した場合には“はい”を選択し、誤って人体が検出されているとユーザが判断した場合には“いいえ”を選択する。また、判断がつかない場合、あるいは判断をスキップしたい場合、“スキップ”を選択する。ここで付与された、人体検出が正しいか誤りかという正誤情報が評価情報の一例である。このようにして、ユーザからの評価情報の受付が行われる。
The user evaluates whether the human body detection result is correct or incorrect based on the presented information, and assigns the evaluation result using the
評価情報付与部105が付与する評価情報は、上述の情報に限定されない。例えば、検出する必要がある物体かどうかという評価情報を付与してもよい。また、検出された人体の向きや、検出された人体の種別などの詳細情報を評価情報として付与してもよい。ここで種別とは、例えば男性か女性か、子供か大人かなど、検出された物体が有する性質のことを指す。また、特定物体の検出が誤りであった場合に、その誤りの原因情報を評価情報として付与してもよい。
The evaluation information provided by the evaluation
また、評価情報付与の方法についても特に限定するものではない。例えば、人体検出部102よりも検出精度が高いが計算コストの大きい人体認識エンジン(第2の検出部)を用いて、記録テーブルに記録された入力画像に対して再び人体検出を行う。そしてその人体検出の結果を正解データと仮定して、検出の正否についての評価情報を自動付与するようにしてもよい。
Further, the method for providing evaluation information is not particularly limited. For example, the human body detection is performed again on the input image recorded in the recording table by using a human body recognition engine (second detection unit) having higher detection accuracy but higher calculation cost than the human
図5は、図3の記録テーブルに、評価情報を追加した記録テーブルである。この例では、検出イベントのそれぞれに対して、検出結果が正しいか誤りかを評価情報として付与する。図5では、検出結果が正しいことを「正」、検出結果が誤りであることを「誤」として表しており、まだ「正」または「誤」のいずれも付与されていないことを「未」として表している。 FIG. 5 is a recording table in which evaluation information is added to the recording table of FIG. In this example, for each detection event, whether the detection result is correct or incorrect is added as evaluation information. In FIG. 5, “correct” indicates that the detection result is correct, “error” indicates that the detection result is incorrect, and “not yet” indicates that neither “correct” nor “false” is assigned. It represents as.
なお、評価情報の保持方法はこの方法に限定されるものではなく、各レイヤにおける検出イベントに対応する評価情報を取り出せる任意の方法を用いてよい。 Note that the method for holding evaluation information is not limited to this method, and any method that can extract evaluation information corresponding to a detection event in each layer may be used.
また、図5では、各レイヤにおける評価情報の統計を (n,p,f)という形式で記録する。nは、図3で示した検出回数と同様に、当該レイヤにおいて人体検出イベントが起こった回数を表す。pは、nのうち、「正」の評価情報を付与された数を表す。fは、nのうち、「誤」の評価情報を付与された数を表す。nからfを引いた検出回数を実効検出回数と称する。ただし、実効検出回数の計算は任意の方法でよく、たとえばpを用いてもよい。 In FIG. 5, the statistics of the evaluation information in each layer are recorded in the format (n, p, f). n represents the number of times that a human body detection event has occurred in the layer, similarly to the number of detections shown in FIG. p represents the number to which “positive” evaluation information is assigned among n. f represents the number to which the evaluation information of “false” is given among n. The number of detections obtained by subtracting f from n is referred to as the effective number of detections. However, the number of effective detections may be calculated by any method, for example, p may be used.
次に、対応テーブルについて説明する。具体的には、評価情報の付与された記録テーブルから対応テーブルを作成する方法について説明する。対応テーブルとは、人体検出処理を行うレイヤを記録したものである。対応テーブルは例えば以下のいずれかの方法により作成する。 Next, the correspondence table will be described. Specifically, a method for creating a correspondence table from a recording table to which evaluation information is assigned will be described. The correspondence table records a layer for performing human body detection processing. The correspondence table is created by one of the following methods, for example.
・最も実効検出回数の多かったレイヤのみから対応テーブルを作成
・最も実効検出回数の多かったレイヤの前後数レイヤから対応テーブルを作成
・実効検出回数、または単位時間あたりの実効検出回数が閾値以上のレイヤから対応テーブルを作成
・誤検出回数、または単位時間あたりの誤検出回数が閾値以下のレイヤから対応テーブルを作成
ただし、対応テーブルの作成方法は任意の方法でよく、これらの方法に限定されるものではない。
-Create a correspondence table only from the layer with the highest number of effective detections-Create a correspondence table from the layers before and after the layer with the highest number of effective detections-The number of effective detections or the number of effective detections per unit time exceeds the threshold Create a correspondence table from layers-Create a correspondence table from a layer whose number of false detections or false detections per unit time is less than or equal to the threshold. However, the creation method of the correspondence table may be any method and is limited to these methods. It is not a thing.
図5の記録テーブルに基づいて作成した対応テーブルの例を図6に示す。この例では、実効検出回数をn−fと定義し、n−fが30以上であるレイヤから対応テーブルを作成している。図6の対応テーブルは、入力画像の全領域において、レイヤ2およびレイヤ3を用いて人体検出を行うことを示している。この対応テーブルを記憶部107に記憶する。
An example of a correspondence table created based on the recording table of FIG. 5 is shown in FIG. In this example, the effective detection count is defined as n−f, and the correspondence table is created from layers whose n−f is 30 or more. The correspondence table in FIG. 6 indicates that human body detection is performed using layer 2 and layer 3 in the entire area of the input image. This correspondence table is stored in the
以上、評価情報として検出結果が正しいか誤りかという情報を用いた場合の対応テーブルの作成方法を説明した。同様に、評価情報として、検出された物体の向きや、検出された物体の種別などの詳細を用いる場合や、検出の誤りの原因情報を用いる場合にも、任意の方法で対応テーブルを作成できる。例えば、横向きの男性が検出された回数が閾値以上のレイヤのみから対応テーブルを作成するとしてもよい。 As described above, the method for creating the correspondence table when the information indicating whether the detection result is correct or incorrect is used as the evaluation information has been described. Similarly, a correspondence table can be created by an arbitrary method even when details such as the direction of the detected object and the type of the detected object are used as the evaluation information, or when the cause information of the detection error is used. . For example, the correspondence table may be created only from the layers in which the number of times that a horizontal man is detected is equal to or greater than a threshold value.
次に図7のフローチャートを参照して、人体検出部102による全体処理の手順を説明する。
Next, the procedure of the entire process performed by the human
S701において、人体検出部102は、処理を継続するか否かを判定する。処理を継続すると判定された場合(S701;YES)、S702へ進む。一方、処理を終了すると判定された場合(S701;NO)、処理を終了する。
In step S <b> 701, the human
S702において、人体検出部102は、図6に示される対応テーブルを記憶部107から取得する。S703において、人体検出部102は、画像取得部101により外部から取得されたレイヤ0(L0)の画像を取得する。
In step S <b> 702, the human
S704において、人体検出部102は、レイヤ0に対して人体検出を行う必要があるか否かを、対応テーブルを参照して判定する。レイヤ0に対して人体検出を行う必要があると判定された場合(S704;YES)、S705へ進む。一方、レイヤ0に対して人体検出を行う必要がないと判定された場合(S704;NO)、S706へ進む。S705において、人体検出部102は、レイヤ0の全領域に対し人体検出処理を行う。
In step S <b> 704, the human
S706−S709は、レイヤ1からレイヤNまでの各レイヤについて人体検出を行うためのループ処理である。最初はn=1であり、ループを繰り返すごとにnが1ずつ大きくなる。n=Nのときの処理が完了すると、ループ処理が終了し、S710へ進む。 S706 to S709 are loop processes for performing human body detection for each layer from layer 1 to layer N. Initially, n = 1, and n increases by 1 each time the loop is repeated. When the process when n = N is completed, the loop process ends, and the process proceeds to S710.
S706において、人体検出部102は、レイヤn以降のレイヤの中に、人体検出を行う必要があるレイヤが少なくとも1つ存在するか否かを、対応テーブルを参照して判定する。人体検出を行う必要があるレイヤが1つでも存在すると判定された場合(S706;YES)、S707へ進む。一方、人体検出を行う必要があるレイヤが存在しないと判定された場合(S706;NO)、ループを抜けて、S710へ進む。例えばn=1、対応テーブルが{L2, L3}である場合、S706の処理はYesと判定されて、S707へ進む。
In step S <b> 706, the human
S707において、人体検出部102は、レイヤ(n−1)を縮小して、レイヤnを生成する。S708において、人体検出部102は、レイヤnに対して人体検出を行う必要があるか否かを、対応テーブルを参照して判定する。レイヤnに対して人体検出を行う必要があると判定された場合(S708;YES)、S709へ進む。一方、レイヤnに対して人体検出を行う必要がないと判定された場合(S708;NO)、S709をスキップして次のループに入る。例えばn=1、対応テーブルが{L2, L3}である場合、S708の処理はNoと判定されて、S709をスキップして次のループに入り、S706へ進む。
In step S <b> 707, the human
S709において、人体検出部102は、レイヤnの全領域に対し人体検出処理を行う。S710において、人体検出部102は、各レイヤでの人体検出結果の統合処理を行う。統合処理とは、各レイヤでの人体検出結果の位置やサイズに基づいて、元画像における人体の位置・サイズに換算する処理である。その後、S701へ戻る。以上で図7のフローチャートの各処理が終了する。
In step S <b> 709, the human
次に図8のフローチャートを参照して、図7における一つのレイヤに対する人体検出処理サブルーチンS705およびS709での処理手順を説明する。S801において、人体検出部102は、スキャン処理を継続するか否かを判定する。スキャン処理を継続すると判定された場合(S801;YES)、S802へ進む。一方、スキャン処理を終了すると判定された場合(S801;NO)、処理を終了する。ここでは、対象レイヤ画像において人体照合パターンを用いたスキャンを画像内の全位置で終えた場合にスキャン処理終了となる。
Next, with reference to the flowchart of FIG. 8, the processing procedure in the human body detection processing subroutines S705 and S709 for one layer in FIG. 7 will be described. In step S <b> 801, the human
S802において、人体検出部102は、記憶部107に記憶されている人体照合パターンを用いて人体検出処理を行い、人体を検知した位置やサイズを出力する。S803において、人体検出部102は、人体照合パターンを用いた人体検出処理を行う位置を、画面のラスタスキャン方向へ数pixel(画素)分移動させて、次のスキャン位置へ進める。その後、S801へ戻る。以上で図8のフローチャートの各処理が終了する。
In step S <b> 802, the human
以上説明したように、本実施形態によれば、特定物体の検出処理に誤検出が起こる場合においても、パターンマッチングに用いるレイヤの優先度を適切に決定し、高速な特定物体検出が可能になる。 As described above, according to the present embodiment, even when erroneous detection occurs in the specific object detection process, the priority of the layer used for pattern matching is appropriately determined, and high-speed specific object detection can be performed. .
<第2実施形態>
第2実施形態では、入力画像を領域ごとに分割し、各領域それぞれに対して対応テーブルを別々に設定する構成について説明する。画像処理装置の構成およびその他の処理の手順は第1実施形態と同様である。以下では、第1実施形態と同様の部分については説明を省略し、第1実施形態と異なる点のみについて説明する。
Second Embodiment
In the second embodiment, a configuration will be described in which an input image is divided for each region, and a correspondence table is separately set for each region. The configuration of the image processing apparatus and other processing procedures are the same as those in the first embodiment. Below, description is abbreviate | omitted about the part similar to 1st Embodiment, and only a different point from 1st Embodiment is demonstrated.
図9は、入力画像を領域分割した例を示す図である。図9において、画像901は入力された画像である。領域ID902は、入力された画像901を縦3分割、横4分割した領域のうち、左上の領域に割り当てたID(1,1)である。図9の例では左上(1,1)から右下(3,4)まで領域IDを割り当てている。また図9において、撮像した画像に奥行があるため奥の領域ID(1,3)に位置する人体903は小さく、手前の領域ID(3,1)に位置する人体904は大きく撮像されている。
FIG. 9 is a diagram illustrating an example in which an input image is divided into regions. In FIG. 9, an
ここで、本実施形態では、画面全体を等間隔に分割し領域を作成しているが、画面全体でなく画面の一部を領域として割り当ててもよい。あるいは、領域は矩形でなくユーザの設定した多角形等どのような形状であってもよい。 Here, in the present embodiment, the entire screen is divided at equal intervals to create a region. However, instead of the entire screen, a part of the screen may be allocated as a region. Alternatively, the area may be any shape such as a polygon set by the user instead of a rectangle.
図10は、第2実施形態に係る記録テーブルの例である。図10の記録テーブルでは、画像特定情報、検出位置特定情報および評価情報を、領域ごとに分けて記録する。例えば、ID(1,1)で示される領域R(1,1)に対して、L0では評価情報の統計は(n,p,f)=(5,3,1)である。ただし、画像特定情報、検出位置特定情報等、各検出イベントに対する詳細情報は省略してありその詳細については図3、図5と同様である。 FIG. 10 is an example of a recording table according to the second embodiment. In the recording table of FIG. 10, image specifying information, detected position specifying information, and evaluation information are recorded separately for each region. For example, for the region R (1, 1) indicated by ID (1, 1), the statistics of the evaluation information at L0 is (n, p, f) = (5, 3, 1). However, detailed information for each detection event such as image specifying information and detection position specifying information is omitted, and the details thereof are the same as those in FIGS.
図11は、第2実施形態に係る対応テーブルの例である。本実施形態では、画面上の領域ごとに、レイヤ設定部106を用いて対応テーブルを求める。この例では、領域R(1,1)ではどのレイヤに対しても人体検出を行わない。また、領域R(1,2)乃至R(1,4)ではレイヤ0およびレイヤ1に対して人体検出を行う。領域R(2,1)乃至R(2,4)ではレイヤ1およびレイヤ2に対して人体検出を行う。領域R(3,1)乃至R(3,4)ではレイヤ3およびレイヤ4に対して人体検出を行う。
FIG. 11 is an example of a correspondence table according to the second embodiment. In this embodiment, a correspondence table is obtained for each region on the screen using the
次に図12のフローチャートを参照して、人体検出部102による全体処理の手順を説明する。図12の各処理のうち、S1201、S1203、S1207、S1210の各処理は、図7のS701、S703、S707、S710の各処理と同様であるため説明を省略する。S1202において、人体検出部102は、図11に示される対応テーブルを記憶部107から取得する。
Next, the procedure of the entire process performed by the human
S1204において、人体検出部102は、レイヤ0の中に人体検出処理を行うことになっている領域が少なくとも1つ存在するか否かを、図11に示される対応テーブルを参照して判定する。領域が1つでも存在すると判定された場合(S1204;YES)、1205へ進む。一方、領域が存在しないと判定された場合(S1204;NO)、1206へ進む。
In step S1204, the human
S1205において、人体検出部102は、レイヤ0に対して人体検出処理を行う。S1206において、人体検出部102は、レイヤn以降のレイヤの中に、人体検出処理を行う必要のある領域が少なくとも1つ存在するか否かを、対応テーブルを参照して判定する。少なくとも1つ存在すると判定された場合(S1206;YES)、S1207へ進む。一方、存在しないと判定された場合(S1206;NO)、途中でループを抜けてS1210へ進む。
In step S <b> 1205, the human
S1208において、人体検出部102は、レイヤnについて人体検出処理を行う必要のある領域が少なくとも1つ存在するか否かを、対応テーブルを参照して判定する。領域が1つでも存在すると判定された場合(S1208;YES)、S1209へ進む。一方、領域が存在しないと判定された場合(S1209;NO)、S1209の処理をスキップして次のループに入る。S1209において、人体検出部102は、レイヤnの人体検出処理を行う必要のある領域に対し人体検出処理を行う。以上で図12のフローチャートの各処理が終了する。
In step S1208, the human
次に図13のフローチャートを参照して、図12における一つのレイヤに対する人体検出処理サブルーチンS1205およびS1209での処理手順を説明する。図13の各処理のうちS1303の処理は、図8のS802の処理と同様であるため説明を省略する。 Next, with reference to the flowchart of FIG. 13, the processing procedure in the human body detection processing subroutines S1205 and S1209 for one layer in FIG. 12 will be described. Of the processes in FIG. 13, the process in S1303 is the same as the process in S802 in FIG.
S1301において、人体検出部102は、スキャン処理を終了するか否かを判定する。スキャン処理を終了すると判定された場合(S1301;YES)、処理を終了する。一方、スキャン処理を継続すると判定された場合(S1301;NO)、S1302へ進む。ここでは、対象レイヤ画像について人体検出処理を行うことになっている領域内の全位置において、人体照合パターンを用いた人体検出をすべて終えた場合に終了となる。
In step S1301, the human
S1302において、人体検出部102は、現在照合を行っている画面内のスキャン位置が属する領域(図9に示されるような分割領域)が、人体検出を行う対象となっているか否かを、対応テーブルを用いて判定する。現在の領域が人体検出の対象となっていると判定された場合(S1302;YES)、S1303へ進む。一方、人体検出の対象となっていない場合(S1302;NO)、S1304へ進む。
In step S1302, the human
S1304において、人体検出部102は、次のスキャン位置へ進める処理を行い、S1301へ戻る。次のスキャン位置は、S1302でレイヤが検出対象に該当している場合には画面のラスタスキャン方向へ数pixel照合パターンを移動させる。S1302でレイヤが検出対象に該当していなかった場合には該当している場合と同様の処理を行ってもよいが、ラスタスキャン方向の次の分割領域位置まで次スキャン位置を進めるようにしてもよい。このような処理を行うことで、同一分割領域内の人体検出処理を一括して省略することが可能となる。以上で図13のフローチャートの各処理が終了する。
In step S1304, the human
以上説明したように、本実施形態によれば、画面を領域で分割し、領域ごとにパターンマッチングに用いるレイヤの優先度を適切に決定することによって、高速な特定物体検出が可能になる。 As described above, according to the present embodiment, it is possible to detect a specific object at high speed by dividing a screen into regions and appropriately determining the priority of a layer used for pattern matching for each region.
本発明によれば、過去の所定の期間における特定物体検出部の処理レイヤごとの検出結果を保持する検出記録テーブルに対し、評価情報を付与することで、誤検出結果を取り除き、物体検出を行うレイヤを適切に選択できるようになる。従って、監視カメラ等から得た映像において特定物体が頻繁に誤検出される場合であっても、高速に物体検出処理を行うことが可能になる。 According to the present invention, evaluation information is added to a detection record table that holds detection results for each processing layer of a specific object detection unit in a predetermined period in the past, thereby removing erroneous detection results and performing object detection. The layer can be selected appropriately. Therefore, even when a specific object is frequently erroneously detected in a video obtained from a surveillance camera or the like, it is possible to perform object detection processing at high speed.
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (10)
前記特定物体の検出に用いられた画像を特定するための情報を示す画像特定情報を生成する画像特定情報生成手段と、
前記画像における前記特定物体の検出位置を特定するための情報を示す位置特定情報を生成する位置特定情報生成手段と、
前記画像特定情報および前記位置特定情報に基づいて、前記特定物体の検出結果に対して評価情報を付与する付与手段と、
前記評価情報に基づいて、前記特定物体の検出に用いるレイヤを前記入力画像について設定する設定手段と、
を備えることを特徴とする画像処理装置。 Detection means for detecting a specific object from the input image using one or more layers that are images having different resolutions generated by enlarging or reducing the input image;
Image specifying information generating means for generating image specifying information indicating information for specifying an image used for detection of the specific object;
Position specifying information generating means for generating position specifying information indicating information for specifying a detection position of the specific object in the image;
An assigning means for assigning evaluation information to a detection result of the specific object based on the image specifying information and the position specifying information;
Setting means for setting a layer used for detection of the specific object for the input image based on the evaluation information;
An image processing apparatus comprising:
前記画像特定情報および前記位置特定情報をユーザへ提示する提示手段と、
前記ユーザから前記評価情報を受け付ける受付手段と、を備え、
前記ユーザから受け付けられた前記評価情報を付与することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 The giving means is
Presenting means for presenting the image specifying information and the position specifying information to a user;
Receiving means for receiving the evaluation information from the user,
The image processing apparatus according to claim 1, wherein the evaluation information received from the user is added.
前記付与手段は、前記画像特定情報および前記位置特定情報と、前記第2の検出手段による検出結果とに基づいて前記評価情報を生成し、当該評価情報を付与することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 A second detection means having higher detection accuracy than the detection means,
The said giving means generates the said evaluation information based on the said image specific information and the said position specific information, and the detection result by the said 2nd detection means, The said evaluation information is provided, The said evaluation information is provided. 4. The image processing device according to any one of items 1 to 3.
前記設定手段は、前記分割された領域ごとに、前記特定物体の検出に用いるレイヤを設定することを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。 Further comprising a dividing means for dividing the input image into predetermined regions;
The image processing apparatus according to claim 1, wherein the setting unit sets a layer used for detection of the specific object for each of the divided areas.
前記検出手段が、入力画像を拡大または縮小して生成される解像度の異なる画像集合であるレイヤを用いて、前記入力画像から特定物体を検出する検出工程と、
前記画像特定情報生成手段が、前記特定物体の検出に用いられた画像を特定するための情報を示す画像特定情報を生成する画像特定情報生成工程と、
前記位置特定情報生成手段が、前記画像における前記特定物体の検出位置を特定するための情報を示す位置特定情報を生成する位置特定情報生成工程と、
前記付与手段が、前記画像特定情報および前記位置特定情報に基づいて、前記特定物体の検出結果に対して評価情報を付与する付与工程と、
前記設定手段が、前記評価情報に基づいて、前記特定物体の検出に用いるレイヤを前記入力画像について設定する設定工程と、
を有することを特徴とする画像処理装置の制御方法。 A control method for an image processing apparatus, comprising: a detecting unit; an image specifying information generating unit; a position specifying information generating unit; an assigning unit; and a setting unit.
A detection step in which the detection means detects a specific object from the input image using layers that are image sets having different resolutions generated by enlarging or reducing the input image;
An image specifying information generating step in which the image specifying information generating means generates image specifying information indicating information for specifying an image used for detecting the specific object;
A position specifying information generating step for generating position specifying information indicating information for specifying a detection position of the specific object in the image;
An assigning step in which the assigning unit assigns evaluation information to the detection result of the specific object based on the image specifying information and the position specifying information;
A setting step in which the setting unit sets a layer used for detection of the specific object for the input image based on the evaluation information;
A control method for an image processing apparatus, comprising:
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012053683A JP5924991B2 (en) | 2012-03-09 | 2012-03-09 | Image processing apparatus, image processing apparatus control method, and program |
US13/594,422 US9111346B2 (en) | 2011-09-13 | 2012-08-24 | Image processing apparatus, image processing method, and recording medium |
CN201210339883.XA CN102999900B (en) | 2011-09-13 | 2012-09-13 | Image processing equipment and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012053683A JP5924991B2 (en) | 2012-03-09 | 2012-03-09 | Image processing apparatus, image processing apparatus control method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013186834A true JP2013186834A (en) | 2013-09-19 |
JP2013186834A5 JP2013186834A5 (en) | 2015-04-23 |
JP5924991B2 JP5924991B2 (en) | 2016-05-25 |
Family
ID=49388164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012053683A Expired - Fee Related JP5924991B2 (en) | 2011-09-13 | 2012-03-09 | Image processing apparatus, image processing apparatus control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5924991B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015118664A1 (en) * | 2014-02-07 | 2015-08-13 | 日立マクセル株式会社 | Image transmission device, image reception device, and surveillance camera system, teleconference system, and vehicle-mounted camera system using same |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007257358A (en) * | 2006-03-23 | 2007-10-04 | Sanyo Electric Co Ltd | Object detecting device |
JP2010097437A (en) * | 2008-10-16 | 2010-04-30 | Keyence Corp | Method for deciding image data reduction rate in image processing, positioning method for pattern model in image processing, creation method for pattern model in image processing, image processing apparatus, image processing program and computer-readable recording medium |
-
2012
- 2012-03-09 JP JP2012053683A patent/JP5924991B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007257358A (en) * | 2006-03-23 | 2007-10-04 | Sanyo Electric Co Ltd | Object detecting device |
JP2010097437A (en) * | 2008-10-16 | 2010-04-30 | Keyence Corp | Method for deciding image data reduction rate in image processing, positioning method for pattern model in image processing, creation method for pattern model in image processing, image processing apparatus, image processing program and computer-readable recording medium |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015118664A1 (en) * | 2014-02-07 | 2015-08-13 | 日立マクセル株式会社 | Image transmission device, image reception device, and surveillance camera system, teleconference system, and vehicle-mounted camera system using same |
Also Published As
Publication number | Publication date |
---|---|
JP5924991B2 (en) | 2016-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537112B (en) | Image processing apparatus, image processing system, image processing method, and storage medium | |
JP5959951B2 (en) | Video processing apparatus, video processing method, and program | |
CN109376681B (en) | Multi-person posture estimation method and system | |
JP6872877B2 (en) | Image generation method and equipment | |
US10997465B2 (en) | Information processing device, information processing method, and storage medium | |
US10474918B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP5722381B2 (en) | Video analysis | |
JP6639523B2 (en) | Automatic learning image sorting device, automatic learning image sorting method, and automatic learning image sorting program | |
JP2007280043A (en) | Video monitoring and search system | |
US10181075B2 (en) | Image analyzing apparatus,image analyzing, and storage medium | |
JP6007523B2 (en) | Generating device, generating program, and generating method | |
JP2016134803A (en) | Image processor and image processing method | |
JP2021022315A (en) | Image processing apparatus, image processing method, and program | |
US9111346B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JP2017068705A (en) | Detection program, detection method and detection device | |
JP2008035301A (en) | Mobile body tracing apparatus | |
KR101726692B1 (en) | Apparatus and method for extracting object | |
JP2020107170A (en) | Annotation device, learning model, image sensor, annotation method, and computer program | |
JP2019185556A (en) | Image analysis device, method, and program | |
JP5924991B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP2021144359A (en) | Learning apparatus, estimation apparatus, learning method, and program | |
US10521653B2 (en) | Image processing device, image processing method, and storage medium | |
JP6847690B2 (en) | Bed identification device | |
JP2008130015A (en) | Photographic object identification program and photographic object identification device | |
CN112329508A (en) | Gesture recognition method, device, equipment and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150304 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151218 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160419 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5924991 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |