JP2012128693A - Video processing device, video processing method and program - Google Patents

Video processing device, video processing method and program Download PDF

Info

Publication number
JP2012128693A
JP2012128693A JP2010279890A JP2010279890A JP2012128693A JP 2012128693 A JP2012128693 A JP 2012128693A JP 2010279890 A JP2010279890 A JP 2010279890A JP 2010279890 A JP2010279890 A JP 2010279890A JP 2012128693 A JP2012128693 A JP 2012128693A
Authority
JP
Japan
Prior art keywords
detection
objects
moving direction
determining
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010279890A
Other languages
Japanese (ja)
Other versions
JP5832089B2 (en
Inventor
Atsushi Kawano
敦史 川野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010279890A priority Critical patent/JP5832089B2/en
Priority to US13/312,785 priority patent/US9104909B2/en
Publication of JP2012128693A publication Critical patent/JP2012128693A/en
Priority to US14/796,893 priority patent/US20150317514A1/en
Application granted granted Critical
Publication of JP5832089B2 publication Critical patent/JP5832089B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently detect a specified object from a video image.SOLUTION: A video processing device includes a sensing unit for sensing an object from a video image, a determination unit for determining the direction of movement in which the object sensed by the sensing unit moves, and a detecting unit which, if the sensing unit senses plural objects, performs detection as to whether the plural objects are specified objects, in an order according to the direction of movement of the plural objects determined by the determination unit.

Description

本発明は、映像から目的の物体を検出する映像処理装置、映像処理方法およびプログラムに関する。   The present invention relates to a video processing apparatus, a video processing method, and a program for detecting a target object from a video.

従来、映像から顔や人体など特定の対象を検出する場合、パターンマッチング処理により対象の検出を行っていた。たとえば、特許文献1では、画像の大きさを変更しながら照合パターンを画像全域に用いて複数の局所パターンを抽出し、それぞれの局所特徴量を算出する。そして、局所特徴量に重み付けを行った結果の総和から人体であるかを判定する。また、特許文献2では、画面を区間に分割し、区間に設定された優先度に従って処理を行うことで効率的に物体検出を行う。また、目的の対象が検出された区間および隣接区間の優先度を高く設定する。   Conventionally, when a specific target such as a face or a human body is detected from an image, the target is detected by pattern matching processing. For example, in Patent Document 1, a plurality of local patterns are extracted using a matching pattern over the entire image while changing the size of the image, and each local feature is calculated. And it is determined whether it is a human body from the sum total of the result of having weighted the local feature-value. Moreover, in patent document 2, an object is efficiently detected by dividing | segmenting a screen into an area and performing a process according to the priority set to the area. Also, the priority of the section in which the target object is detected and the adjacent sections are set high.

特開2009−211311号公報JP 2009-211311 A 特開2008−234169号公報JP 2008-234169 A

しかしながら、照合パターンを画面全域に用いて人体を検出する場合、画面の大きさに応じて処理負荷は大きくなる。また、例えば監視カメラの映像では被写体はあらゆる方向へと移動し、被写体の顔や人体としての特徴が検出しやすい方向に映るとは限らない。特定の照合パターンによる人体の検出では、被写体の映る角度や大きさに応じて検出精度が変化する。また、画面を区間に分割し過去の検出経験に基づいて優先度を設定し、人体の検出処理を行っても、被写体は移動するため、効率的に物体検出結果を得られるとは限らない。一方で、監視カメラではリアルタイム処理実現のため処理の軽量化が求められる。   However, when a human body is detected using the collation pattern over the entire screen, the processing load increases depending on the size of the screen. Further, for example, in the video of the surveillance camera, the subject moves in all directions, and the subject's face and human body characteristics are not always reflected in a direction that is easy to detect. In detecting a human body using a specific matching pattern, the detection accuracy changes according to the angle and size of the subject. Further, even if the screen is divided into sections, priorities are set based on past detection experiences, and human body detection processing is performed, the subject moves, so that an object detection result cannot be obtained efficiently. On the other hand, the monitoring camera is required to reduce the weight of the processing in order to realize real-time processing.

本発明は上述した問題を解決するためになされたものであり、被写体の角度や大きさによらず効率的に対象の検出を可能とする映像処理装置および映像処理方法を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to provide a video processing apparatus and a video processing method that can efficiently detect a target regardless of the angle and size of the subject. To do.

上記目的を達成するために、本発明は、映像から物体を検知する検知手段と、前記検知手段が検知した物体が移動する移動方向を判定する判定手段と、前記検知手段が複数の物体を検知した場合、前記判定手段が判定した前記複数の物体の移動方向に応じた順序で前記複数の物体が特定の物体であるかの検出を行う検出手段とを有することを特徴とする。   In order to achieve the above object, the present invention provides a detection unit that detects an object from an image, a determination unit that determines a moving direction of an object detected by the detection unit, and the detection unit detects a plurality of objects. In this case, the apparatus includes a detecting unit that detects whether or not the plurality of objects are specific objects in an order corresponding to the moving direction of the plurality of objects determined by the determining unit.

本発明によれば、映像中の物体のうち特定の物体が検出される可能性が高い物体について検出を実施することができる。従って、映像から特定の物体を検出する検出処理の効率が向上する。   ADVANTAGE OF THE INVENTION According to this invention, it can detect about the object with high possibility that a specific object will be detected among the objects in an image | video. Therefore, the efficiency of the detection process for detecting a specific object from the video is improved.

実施例1に係る映像処理装置の構成例を示す図。1 is a diagram illustrating a configuration example of a video processing apparatus according to Embodiment 1. FIG. 映像における物体の移動を説明するための図。The figure for demonstrating the movement of the object in an image | video. 映像における物体の移動方向角を説明するための図。The figure for demonstrating the moving direction angle | corner of the object in an image | video. 優先度テーブルを示す図。The figure which shows a priority table. 実施例に係る映像処理装置の動作を説明するためのフローチャート図。FIG. 6 is a flowchart for explaining the operation of the video processing apparatus according to the embodiment.

以下、添付の図面を参照して、本発明をその好適な実施例に基づいて詳細に説明する。なお、以下の実施例において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。   Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

<実施例1>
本実施例の映像処理装置の構成について図1を用いて説明する。図1に示した各構成要素は、物理的に独立なハードウェアとして構成してもよいし、同等の機能を有するソフトウェアの1つ以上のインスタンスとして構成してもよい。
<Example 1>
The configuration of the video processing apparatus of this embodiment will be described with reference to FIG. Each component shown in FIG. 1 may be configured as physically independent hardware, or may be configured as one or more instances of software having equivalent functions.

取得部101は、処理対象のカメラが撮像した画像を時系列順に取得する。取得部101はサーバや外部メモリなどに保存された画像を取得することとしてもよい。   The acquisition unit 101 acquires images captured by the processing target camera in chronological order. The acquisition unit 101 may acquire an image stored in a server or an external memory.

検知部102は、取得部101が取得した画像から物体を検知する。検知部102は複数の物体を検知することが可能である。検知部102が検知する物体の情報は、当該物体の画面上における位置と当該物体に外接する矩形と当該物体のサイズとを含む。物体の検知方法として例えば背景差分法を用いることができる。検出方法は背景差分法に限られず、上述の情報を取得できる方法であればよい。   The detection unit 102 detects an object from the image acquired by the acquisition unit 101. The detection unit 102 can detect a plurality of objects. The object information detected by the detection unit 102 includes the position of the object on the screen, a rectangle circumscribing the object, and the size of the object. For example, a background subtraction method can be used as an object detection method. The detection method is not limited to the background subtraction method, and any method that can acquire the above-described information may be used.

追尾部103は、取得部101が取得した過去の画像から検知部102が検知した物体と、取得部101が取得した現在の画像から検知部102が検知した物体とを対応付ける。対応付けは、現在の画像から検知した物体に、過去の画像から検知した物体に付与したオブジェクトIDを付与することによって行うことができる。また、新規に出現した物体には、新規にオブジェクトIDを付与する。   The tracking unit 103 associates the object detected by the detection unit 102 from the past image acquired by the acquisition unit 101 and the object detected by the detection unit 102 from the current image acquired by the acquisition unit 101. The association can be performed by assigning an object ID assigned to an object detected from a past image to an object detected from the current image. Also, a new object ID is assigned to a newly appearing object.

優先度決定部104は、検知部102が検知した物体の大きさと追尾部103の追尾結果とに基づいて、人体検出処理を実施する領域の優先度を決定する。優先度決定部104による優先度の決定について図2及び図3を用いて説明する。図2は、nフレーム目での物体の移動方向を示す例である。オブジェクトID12の物体は、(n−1)フレーム目の位置201からnフレーム目の位置202に移動したため、オブジェクトID12の移動は位置ベクトル203として表現できる。また、オブジェクトID6の物体は、(n−1)フレーム目の位置204からnフレーム目の位置205に移動したため、オブジェクトID6の移動は位置ベクトル206として表現できる。また本実施例では、2フレーム間での位置ベクトルから移動方向角を決定することとしたが、複数フレーム間の位置ベクトルの内積から移動方向角を決定してもよい。また、検知部102において動きベクトルにより物体を検知する場合、動きベクトルから物体の移動方向を決定してもよい。このようにして優先度決定部104は、検知部102が検知した物体が移動する移動方向を判定する。   The priority determination unit 104 determines the priority of the area where the human body detection process is performed based on the size of the object detected by the detection unit 102 and the tracking result of the tracking unit 103. The priority determination by the priority determination unit 104 will be described with reference to FIGS. FIG. 2 is an example showing the moving direction of the object in the nth frame. Since the object with the object ID 12 has moved from the position 201 of the (n−1) th frame to the position 202 of the nth frame, the movement of the object ID 12 can be expressed as a position vector 203. Further, since the object with the object ID 6 has moved from the position 204 of the (n−1) th frame to the position 205 of the nth frame, the movement of the object ID 6 can be expressed as a position vector 206. In this embodiment, the moving direction angle is determined from the position vector between two frames. However, the moving direction angle may be determined from the inner product of the position vectors between a plurality of frames. When the detection unit 102 detects an object based on a motion vector, the moving direction of the object may be determined from the motion vector. In this way, the priority determination unit 104 determines the moving direction in which the object detected by the detection unit 102 moves.

図3は、物体の移動方向角を示す例である。本実施例では、右方向をx軸正の向き、下方向をy軸正の向きとする。位置ベクトル301の移動方向角302は、y軸正の向きを0°として設定する。図3に示して例では、移動方向角302はαである。優先度決定部104は、移動方向角302に応じて、下記の式1から式4のいずれかに従い評価値を決定する。そして、優先度決定部104は、評価値が小さい方から順に優先度を高く設定する。移動方向角αが0°以上90°未満の場合は式1を、90°以上180°未満の場合は式2を、180°以上270°未満の場合は式3を、270°以上360°未満の場合は式4を使用する。同一の評価値の場合、オブジェクトIDが小さい方から順に優先度を高く設定する。
(式1) Val dir=α
(式2) Val dir=|α−180|
(式3) Val dir=α−180
(式4) Val dir=|α−360|
FIG. 3 is an example showing the moving direction angle of the object. In this embodiment, the right direction is the positive x-axis direction, and the downward direction is the positive y-axis direction. The movement direction angle 302 of the position vector 301 is set so that the positive y-axis direction is 0 °. In the example shown in FIG. 3, the moving direction angle 302 is α. The priority determination unit 104 determines an evaluation value according to any one of the following formulas 1 to 4 according to the moving direction angle 302. And the priority determination part 104 sets a high priority in an order from the one where an evaluation value is small. When the moving direction angle α is 0 ° or more and less than 90 °, Equation 1 is obtained. When the moving direction angle α is 90 ° or more and less than 180 °, Equation 2 is obtained. When 180 ° or more and less than 270 °, Equation 3 is obtained. In the case of (4), Formula 4 is used. In the case of the same evaluation value, the priority is set in order from the smallest object ID.
(Formula 1) Val dir = α
(Formula 2) Val dir = | α−180 |
(Formula 3) Val dir = α−180
(Formula 4) Val dir = | α-360 |

このようにして優先度決定部104は、画面上下方向に移動する物体の優先度を画面左右方向に移動する物体の優先度より高く設定する。優先度の設定方法は上記に限られない。評価値が大きい方から順に優先度を高く設定すれば、画面左右方向に移動する物体の優先度を画面上下方向に移動する物体の優先度より高く設定することができる。上記の式1乃至式4を用いずに、移動方向角302に応じて優先度を設定することとしてもよい。こうして、優先度決定部104は、検知部102が複数の物体を検知した場合、判定した複数の物体の移動方向に応じて該物体についての優先度を決定する。   In this way, the priority determination unit 104 sets the priority of the object moving in the vertical direction of the screen higher than the priority of the object moving in the horizontal direction of the screen. The priority setting method is not limited to the above. If the priority is set higher in order from the larger evaluation value, the priority of the object moving in the horizontal direction of the screen can be set higher than the priority of the object moving in the vertical direction of the screen. The priority may be set according to the moving direction angle 302 without using the above formulas 1 to 4. Thus, when the detection unit 102 detects a plurality of objects, the priority determination unit 104 determines the priority for the objects according to the determined moving directions of the plurality of objects.

次に優先度決定部104は、優先度の高い方から順番に検出された物体の大きさの判定を行う。物体の大きさが所定の閾値より小さい場合、優先度決定部104は、後述の検出処理を実施しないことを示すスキップフラグを設定する。物体の大きさの閾値は、ユーザ等からの指示に従いあらかじめ設定された値である。優先度およびスキップフラグを設定した結果を示す例を図4に示す。図4に示した情報は不図示の記憶領域に保持される。スキップフラグは、本実施例においては検知部102の検知した物体の大きさに基づき設定しているが、前述のものに限定されるものではない。スキップフラグの設定は、移動方向角、物体の高さ、物体の幅、物体の面積変化量、物体の高さと幅の比率である物体形状のアスペクト比、物体の移動速度など、物体を分別できる物体の属性に基づいて設定されるものであれば何でもよい。このようにして、優先度決定部104は、検知部102が複数の物体を検知した場合、物体の特徴量が所定の条件を満たすかを優先度の高い順に判断するために、物体の優先度を決定する。このようにしてスキップフラグを設定した物体については検出処理を実施しないようにすることにより、検知部102が検知した複数の物体から所望の物体を検出するための検出確率を向上させることができる。また、検知部102が検知した複数の物体から所望の物体を検出するための処理量を軽減することができる。ただし本発明において、スキップフラグを用いた検出処理は必須の工程ではない。検知部102が検知した物体についての優先度を決定した後、スキップフラグを設定せずに後述の検出処理を行ってもよい。   Next, the priority determination unit 104 determines the size of the objects detected in order from the higher priority. When the size of the object is smaller than the predetermined threshold, the priority determination unit 104 sets a skip flag indicating that the detection process described later is not performed. The threshold value of the object size is a value set in advance in accordance with an instruction from the user or the like. An example showing the result of setting the priority and the skip flag is shown in FIG. The information shown in FIG. 4 is held in a storage area (not shown). In the present embodiment, the skip flag is set based on the size of the object detected by the detection unit 102, but is not limited to the above. The skip flag can be set to separate objects such as the moving direction angle, object height, object width, object area change, object shape aspect ratio, which is the ratio of object height to width, and object moving speed. Anything can be used as long as it is set based on the attribute of the object. In this way, when the detection unit 102 detects a plurality of objects, the priority determination unit 104 determines whether the feature amount of the object satisfies a predetermined condition in order from the highest priority. To decide. By not performing detection processing on an object for which a skip flag has been set in this way, the detection probability for detecting a desired object from a plurality of objects detected by the detection unit 102 can be improved. In addition, the processing amount for detecting a desired object from a plurality of objects detected by the detection unit 102 can be reduced. However, in the present invention, the detection process using the skip flag is not an essential process. After determining the priority of the object detected by the detection unit 102, a detection process described later may be performed without setting the skip flag.

検出部105は、検知部102が検知した物体の領域にパターンマッチング処理を実施することで人体を検出する。検出方法はパターンマッチング処理を用いる方法に限られない。本実施例において検出部105は、優先度決定部104が決定した優先度およびスキップフラグが設定されておらず優先度が高い物体から順番に人体の検出を行う。このようにして検出部105は、検知部102が検知した物体が特定の物体であるかについての検出を行うか否かを優先度決定部104で設定されたスキップフラグに基づいて決定する。スキップフラグの設定を行わない場合には、検出部105は、優先度が高い物体から順番に人体の検出を行う。このようにして、検出部105は、検知部102が複数の物体を検知した場合、優先度決定部104が決定した優先度に応じた順序で複数の物体が特定の物体であるかの検出を行う。この優先度は、物体の移動方向に応じて決定される。例えば、検出部105が撮像画像中の人体を検出する場合、撮影しているカメラに近づいてくる物体を、その他の方向に移動している物体より優先して、人体かどうか判断する。カメラから離れていく物体も、近づいてくる物体と同じ優先度を与えてもよい。カメラに近づいてくるかどうかは、映像中の移動方向、すなわち、映像中の縦方向を基準とした角度で判断する。また、優先度を決定せずに、角度から、検出する順序を直接決定することもできる。例えば、パターンマッチングに用いるパターンとして特定の人の顔画像を用いる場合、上述のようにカメラに近づいてくる物体を優先することで、顔がカメラ方向を向いた物体を他の方向を向いた物体よりも優先してパターンマッチングを行うことができる。このように、物体の特徴がより現れている画像を優先して検出を行うことで、所望の物体を検出する精度を高めることができる。また、所望の物体が検出される確率が高い物体から優先して検出処理を行うので効率的に検出処理を行うことができる。本実施例においては検出対象を人体としているが、検出対象は人体に限定されない。検出対象としては、顔、自動車、動物等、物体等、特定の対象物であればよい。更に、複数種類の特定物体を検出する検出部を設けて、同時に複数の検出処理を実施してもよい。また、物体の大きさ、アスペクト比など、スキップフラグの設定に用いた物体の属性に応じて、複数の特定物体検出処理のうち所定の処理のみを選択し検出処理を実施してもよい。例えば、検出部105として人体検出部と車検出部を持つとする。ユーザは、画面上に現れる車両の最小サイズを閾値として予め設定する。そして、検知部102が検出した物体の大きさが車両最小サイズより小さい場合、検出部は車検出部での処理は行わず、人体検出部での処理のみ実施する。一方で、物体の大きさが閾値より大きい場合、車検出部での処理を実施する。また、物体の大きさが閾値より大きい場合には、複数の人が集団で行動し一つの物体として検出された可能性もあるため、人体検出部での処理も実施する。このようにして、検出部105は、複数の特定の物体のうちいずれの物体を検出するかを検知部102が検知した物体の特徴量に応じて選択して検出を行う。これにより、複数の検出対象を効率的に検出することができる。   The detection unit 105 detects a human body by performing a pattern matching process on the object region detected by the detection unit 102. The detection method is not limited to the method using pattern matching processing. In the present embodiment, the detection unit 105 detects a human body in order from an object having a higher priority and the priority determined by the priority determination unit 104 and the skip flag are not set. In this way, the detection unit 105 determines whether to detect whether the object detected by the detection unit 102 is a specific object, based on the skip flag set by the priority determination unit 104. When the skip flag is not set, the detection unit 105 detects the human body in order from the object with the highest priority. In this way, when the detection unit 102 detects a plurality of objects, the detection unit 105 detects whether the plurality of objects are specific objects in the order according to the priority determined by the priority determination unit 104. Do. This priority is determined according to the moving direction of the object. For example, when the detection unit 105 detects a human body in a captured image, the object approaching the camera being photographed is prioritized over the object moving in the other direction to determine whether it is a human body. An object that moves away from the camera may be given the same priority as an approaching object. Whether or not the camera approaches the camera is determined by an angle based on the moving direction in the video, that is, the vertical direction in the video. Further, the order of detection can be directly determined from the angle without determining the priority. For example, when a face image of a specific person is used as a pattern used for pattern matching, priority is given to an object approaching the camera as described above, so that an object whose face faces the camera direction is directed to another direction Pattern matching can be performed with higher priority than the above. In this way, by performing the detection with priority on the image in which the feature of the object appears, the accuracy of detecting the desired object can be increased. In addition, detection processing can be performed efficiently because detection processing is performed in preference to an object with a high probability that a desired object is detected. In this embodiment, the detection target is a human body, but the detection target is not limited to the human body. The detection target may be a specific target such as a face, a car, an animal, or the like. Furthermore, a detection unit that detects a plurality of types of specific objects may be provided, and a plurality of detection processes may be performed simultaneously. Further, depending on the attribute of the object used for setting the skip flag, such as the size of the object and the aspect ratio, only a predetermined process among a plurality of specific object detection processes may be selected and the detection process may be performed. For example, it is assumed that the detection unit 105 includes a human body detection unit and a vehicle detection unit. The user presets the minimum size of the vehicle appearing on the screen as a threshold value. When the size of the object detected by the detection unit 102 is smaller than the minimum vehicle size, the detection unit does not perform the process in the vehicle detection unit, but performs only the process in the human body detection unit. On the other hand, when the size of the object is larger than the threshold value, processing in the car detection unit is performed. Further, when the size of the object is larger than the threshold value, there is a possibility that a plurality of people act as a group and are detected as one object, so the processing in the human body detection unit is also performed. In this manner, the detection unit 105 performs detection by selecting which of a plurality of specific objects is detected according to the feature amount of the object detected by the detection unit 102. Thereby, a plurality of detection objects can be detected efficiently.

打切部106は、検出部105による人体検出処理の打切りを処理経過時間に従って決定する。打切りを決定するための経過時間閾値は、ユーザ等からの指示に従いあらかじめ設定された値である。検出処理打切りの決定は、処理を開始してからの経過時間に基づいて行われるものに限定されない。検出処理打切りの決定は、検出部105が検出した人体の数、検出部105が人体検出処理を実行した回数などから決定してもよい。出力部107は、検知部102の検知結果、追尾部103の追尾状況、および検出部105の検出結果を外部に出力する。   The abort unit 106 determines the abort of the human body detection process by the detection unit 105 according to the processing elapsed time. The elapsed time threshold value for determining the discontinuation is a value set in advance in accordance with an instruction from the user or the like. The decision to abort the detection process is not limited to that performed based on the elapsed time from the start of the process. The detection process abortion may be determined from the number of human bodies detected by the detection unit 105, the number of times the detection unit 105 has executed human body detection processing, and the like. The output unit 107 outputs the detection result of the detection unit 102, the tracking status of the tracking unit 103, and the detection result of the detection unit 105 to the outside.

本実施例に係る映像処理装置の動作を図5のフローチャートに示す。映像処理装置がプロセッサ及びメモリを内蔵する形態では、図5の処理フローは、図5に示される手順をこのプロセッサに実行させるためのプログラムを示す。この映像処理装置が内蔵するプロセッサは、コンピュータであり、映像処理装置が内蔵するメモリから読み出したプログラムを実行する。映像処理装置が内蔵するメモリは、このプロセッサが読み出すことができるようにこのプログラムを記録した記録媒体である。   The operation of the video processing apparatus according to this embodiment is shown in the flowchart of FIG. When the video processing apparatus includes a processor and a memory, the processing flow in FIG. 5 shows a program for causing the processor to execute the procedure shown in FIG. The processor built in the video processing apparatus is a computer, and executes a program read from a memory built in the video processing apparatus. The memory built in the video processing apparatus is a recording medium on which the program is recorded so that the processor can read it.

f1において、取得部101は画像の取得を継続するか終了するかを決定する(f1)。ステップf1の決定は、不図示の入力部から入力されたユーザの指示に基づいて行うことができる。あるいは、所望の物体を検出した時点で画像の取得を終了することとしてもよい。決定方法はこれらに限られず、特に限定しない。検知処理を継続する場合、取得部101が外部から画像を取得する(f2)。次に、取得部101が取得した画像について検知部102が検知処理を行う(f3)。続いて、検知処理結果の判定を行う(f4)。物体を検出していない場合(f4でnoの場合)、f1に戻る。物体を検知した場合(f4でyesの場合)、追尾部103が物体の追尾処理を行う(f5)。そして、優先度決定部104が検出処理を実施する物体の優先度を決定する(f6)。次に、打切部106の決定に従い検出処理を継続するか終了するかを決定する(f7)。例えば打切部106は、検知部102が画面内に複数の物体を検知した場合、1つ目の物体について検出処理を行った後、2つ目の物体について検出処理を行うか否かについて決定する。打切り部106は、検出部105が検出した人体の数、検出部105が人体検出処理を実行した回数などによって検出処理を継続するか否かを決定することができる。あるいは打切部106は、ステップf7の決定を不図示の入力部から入力されたユーザの指示に基づいて行うことができる。あるいは、所望の物体を検出した時点で検出処理を終了することとしてもよい。決定方法はこれらに限られず、特に限定しない。検出処理を継続する場合(f7でyesの場合)、決定された優先度に従い、優先度が高い物体領域から順番に検出部105において人体検出処理を行う。検出処理を打切る場合(f8でnoの場合)、f1に戻る。   In f1, the acquisition unit 101 determines whether to continue or end the image acquisition (f1). The determination of step f1 can be made based on a user instruction input from an input unit (not shown). Alternatively, the image acquisition may be terminated when a desired object is detected. The determination method is not limited to these, and is not particularly limited. When the detection process is continued, the acquisition unit 101 acquires an image from the outside (f2). Next, the detection unit 102 performs detection processing on the image acquired by the acquisition unit 101 (f3). Subsequently, the detection processing result is determined (f4). If no object is detected (if f4 is no), the process returns to f1. When an object is detected (if f4 is yes), the tracking unit 103 performs object tracking processing (f5). And the priority determination part 104 determines the priority of the object which performs a detection process (f6). Next, it is determined whether to continue or end the detection process according to the determination of the truncation unit 106 (f7). For example, when the detection unit 102 detects a plurality of objects in the screen, the truncation unit 106 determines whether to perform the detection process for the second object after performing the detection process for the first object. . The abort unit 106 can determine whether or not to continue the detection process according to the number of human bodies detected by the detection unit 105, the number of times the detection unit 105 executes the human body detection process, and the like. Alternatively, the truncation unit 106 can make the determination in step f7 based on a user instruction input from an input unit (not shown). Alternatively, the detection process may be terminated when a desired object is detected. The determination method is not limited to these, and is not particularly limited. When the detection process is continued (if yes in f7), the human body detection process is performed in the detection unit 105 in order from the object area with the highest priority according to the determined priority. When the detection process is terminated (if f8 is no), the process returns to f1.

以上の構成により、映像中の物体のうち特定の物体が検出される可能性が高い物体について検出を実施することができる。従って、映像から特定の物体を検出する検出処理の効率が向上する。   With the above configuration, it is possible to detect an object that is highly likely to detect a specific object among objects in the video. Therefore, the efficiency of the detection process for detecting a specific object from the video is improved.

<その他の実施例>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other examples>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

102 検知部
104 優先度決定部
105 検出部
102 detection unit 104 priority determination unit 105 detection unit

Claims (8)

映像から物体を検知する検知手段と、
前記検知手段が検知した物体が移動する移動方向を判定する判定手段と、
前記検知手段が複数の物体を検知した場合、前記判定手段が判定した前記複数の物体の移動方向に応じた順序で前記複数の物体が特定の物体であるかの検出を行う検出手段とを有することを特徴とする映像処理装置。
Detection means for detecting an object from the image;
Determining means for determining a moving direction in which the object detected by the detecting means moves;
And detecting means for detecting whether the plurality of objects are specific objects in an order corresponding to the moving direction of the plurality of objects determined by the determining means when the detecting means detects a plurality of objects. A video processing apparatus characterized by that.
前記検出手段は、複数の特定の物体のうちいずれの物体を検出するかを前記検知手段が検知した物体の特徴量に応じて選択して前記検出を行うことを特徴とする請求項1に記載の映像処理装置。   2. The detection unit according to claim 1, wherein the detection unit performs the detection by selecting which one of a plurality of specific objects is detected according to a feature amount of the object detected by the detection unit. Video processing equipment. 映像から物体を検知する検知手段と、
前記検知手段が検知した物体が移動する移動方向を判定する判定手段と、
前記検知手段が複数の物体を検知した場合、前記判定手段が判定した前記複数の物体の移動方向に応じた順序で前記複数の物体の特徴量が所定の条件を満たすかを判断する判断手段と、
前記検知手段が検知した物体が特定の物体であるかについての検出を行うか否かを前記判断手段の判断結果に基づいて決定する検出手段とを有することを特徴とする映像処理装置。
Detection means for detecting an object from the image;
Determining means for determining a moving direction in which the object detected by the detecting means moves;
A determination unit configured to determine whether or not feature quantities of the plurality of objects satisfy a predetermined condition in an order according to a moving direction of the plurality of objects determined by the determination unit when the detection unit detects a plurality of objects; ,
An image processing apparatus comprising: a detection unit that determines whether or not to detect whether the object detected by the detection unit is a specific object, based on a determination result of the determination unit.
前記特徴量は、前記物体の大きさ、前記物体の移動速度、前記物体の高さと幅の比率、前記物体の面積変化量、前記物体の移動方向のうちの少なくとも1つであることを特徴とする請求項3に記載の映像処理装置。   The feature amount is at least one of the size of the object, the moving speed of the object, the ratio of the height and width of the object, the amount of change in the area of the object, and the moving direction of the object. The video processing apparatus according to claim 3. 検知手段が、映像から物体を検知する検知ステップと、
判定手段が、前記検知ステップにおいて検知した物体が移動する移動方向を判定する判定ステップと、
検出手段が、前記検知ステップにおいて複数の物体を検知した場合、前記判定ステップにおいて判定した前記複数の物体の移動方向に応じた順序で前記複数の物体が特定の物体であるかの検出を行う検出ステップとを有することを特徴とする映像処理方法。
A detection step in which the detection means detects an object from the video;
A determining step for determining a moving direction in which the object detected in the detecting step moves;
When the detection unit detects a plurality of objects in the detection step, detection is performed to detect whether the plurality of objects are specific objects in an order corresponding to the moving direction of the plurality of objects determined in the determination step. And a video processing method.
検知手段が、映像から物体を検知する検知ステップと、
判定手段が、前記検知ステップにおいて検知した物体が移動する移動方向を判定する判定ステップと、
検出手段が、前記検知ステップにおいて複数の物体を検知した場合、前記判定ステップにおいて判定した前記複数の物体の移動方向に応じた順序で前記複数の物体が特定の物体であるかについて検出を行うか否かを決定する検出ステップとを有することを特徴とする映像処理方法。
A detection step in which the detection means detects an object from the video;
A determining step for determining a moving direction in which the object detected in the detecting step moves;
When the detection means detects a plurality of objects in the detection step, whether to detect whether the plurality of objects are specific objects in an order according to the moving direction of the plurality of objects determined in the determination step And a detection step for determining whether or not.
コンピュータに、
映像から物体を検知する検知手順と、
前記検知手順において検知した物体が移動する移動方向を判定する判定手順と、
前記検知手順において複数の物体を検知した場合、前記判定手順において判定した前記複数の物体の移動方向に応じた順序で前記複数の物体が特定の物体であるかの検出を行う検出手順と実行させるためのプログラム。
On the computer,
A detection procedure for detecting an object from the image;
A determination procedure for determining a moving direction in which the object detected in the detection procedure moves;
When a plurality of objects are detected in the detection procedure, a detection procedure for detecting whether the plurality of objects are specific objects is executed in an order corresponding to the moving direction of the plurality of objects determined in the determination procedure. Program for.
コンピュータに、
映像から物体を検知する検知手順と、
前記検知手順において検知した物体が移動する移動方向を判定する判定手順と、
前記検知手順において複数の物体を検知した場合、前記判定手順において判定した前記複数の物体の移動方向に応じた順序で前記複数の物体の特徴量が所定の条件を満たすかを判断する判断手順と、
前記検知手順において検知した物体が特定の物体であるかについて検出を行うか否かを前記判断手順における判断結果に基づいて決定する検出手順とを実行させるためのプログラム。
On the computer,
A detection procedure for detecting an object from the image;
A determination procedure for determining a moving direction in which the object detected in the detection procedure moves;
A determination procedure for determining whether or not feature quantities of the plurality of objects satisfy a predetermined condition in an order corresponding to a moving direction of the plurality of objects determined in the determination procedure when a plurality of objects are detected in the detection procedure; ,
A program for executing a detection procedure for determining whether or not to detect whether an object detected in the detection procedure is a specific object based on a determination result in the determination procedure.
JP2010279890A 2010-12-15 2010-12-15 Video processing apparatus, video processing method, and program Active JP5832089B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010279890A JP5832089B2 (en) 2010-12-15 2010-12-15 Video processing apparatus, video processing method, and program
US13/312,785 US9104909B2 (en) 2010-12-15 2011-12-06 Image processing apparatus and method of processing image
US14/796,893 US20150317514A1 (en) 2010-12-15 2015-07-10 Image processing apparatus and method of processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010279890A JP5832089B2 (en) 2010-12-15 2010-12-15 Video processing apparatus, video processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015212118A Division JP6120931B2 (en) 2015-10-28 2015-10-28 Video processing apparatus, video processing method, and program

Publications (2)

Publication Number Publication Date
JP2012128693A true JP2012128693A (en) 2012-07-05
JP5832089B2 JP5832089B2 (en) 2015-12-16

Family

ID=46645622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010279890A Active JP5832089B2 (en) 2010-12-15 2010-12-15 Video processing apparatus, video processing method, and program

Country Status (1)

Country Link
JP (1) JP5832089B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014122879A1 (en) * 2013-02-05 2014-08-14 日本電気株式会社 Analysis processing system
JP2015002547A (en) * 2013-06-18 2015-01-05 富士通株式会社 Image processing apparatus, program, and image processing method
KR20160092338A (en) * 2015-01-27 2016-08-04 한화테크윈 주식회사 Method for detecting motion, camera and surveillance system adopting the method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006033224A (en) * 2004-07-14 2006-02-02 Matsushita Electric Ind Co Ltd Device and method for tracking object
JP2007251257A (en) * 2006-03-13 2007-09-27 Fujitsu Ten Ltd Image recognition device, vehicle control device, image recognition method, and vehicle control method
JP2008071172A (en) * 2006-09-14 2008-03-27 Toshiba Corp Face authentication system, face authentication method, and access control device
JP2008165393A (en) * 2006-12-27 2008-07-17 Toyota Motor Corp On-vehicle obstacle detection device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006033224A (en) * 2004-07-14 2006-02-02 Matsushita Electric Ind Co Ltd Device and method for tracking object
JP2007251257A (en) * 2006-03-13 2007-09-27 Fujitsu Ten Ltd Image recognition device, vehicle control device, image recognition method, and vehicle control method
JP2008071172A (en) * 2006-09-14 2008-03-27 Toshiba Corp Face authentication system, face authentication method, and access control device
JP2008165393A (en) * 2006-12-27 2008-07-17 Toyota Motor Corp On-vehicle obstacle detection device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014122879A1 (en) * 2013-02-05 2014-08-14 日本電気株式会社 Analysis processing system
US9767347B2 (en) 2013-02-05 2017-09-19 Nec Corporation Analysis processing system
JP2015002547A (en) * 2013-06-18 2015-01-05 富士通株式会社 Image processing apparatus, program, and image processing method
KR20160092338A (en) * 2015-01-27 2016-08-04 한화테크윈 주식회사 Method for detecting motion, camera and surveillance system adopting the method
KR102391852B1 (en) * 2015-01-27 2022-04-28 한화테크윈 주식회사 Method for detecting motion, camera and surveillance system adopting the method

Also Published As

Publication number Publication date
JP5832089B2 (en) 2015-12-16

Similar Documents

Publication Publication Date Title
JP5454570B2 (en) Tracking target determination device, tracking target determination method, and tracking target determination program
CN106951871B (en) Motion trajectory identification method and device of operation body and electronic equipment
KR102399017B1 (en) Method of generating image and apparatus thereof
JP6555906B2 (en) Information processing apparatus, information processing method, and program
JP5925068B2 (en) Video processing apparatus, video processing method, and program
JP6141079B2 (en) Image processing system, image processing apparatus, control method therefor, and program
JP6024658B2 (en) Object detection apparatus, object detection method, and program
JP7192582B2 (en) Object tracking device and object tracking method
JP6233624B2 (en) Information processing system, information processing method, and program
EP2309454B1 (en) Apparatus and method for detecting motion
US20120020523A1 (en) Information creation device for estimating object position and information creation method and program for estimating object position
US9104909B2 (en) Image processing apparatus and method of processing image
JP6414066B2 (en) Image processing system, image processing method, and program
US20150146006A1 (en) Display control apparatus and display control method
JP5279517B2 (en) Object detection apparatus and object detection method
JP7255173B2 (en) Human detection device and human detection method
JP2016206995A (en) Image processing apparatus, image processing method, and program
JP5832089B2 (en) Video processing apparatus, video processing method, and program
CN109643437B (en) Image processing apparatus, stereo camera apparatus, and image processing method
US20110090340A1 (en) Image processing apparatus and image processing method
US10521653B2 (en) Image processing device, image processing method, and storage medium
JP6120931B2 (en) Video processing apparatus, video processing method, and program
JP5713655B2 (en) Video processing apparatus, video processing method, and program
JP2015049702A (en) Object recognition device, object recognition method, and program
JP2012226403A (en) Image area tracking device, image area tracking method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151027

R151 Written notification of patent or utility model registration

Ref document number: 5832089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151