JP6607630B2 - Moving object extraction apparatus, method and program - Google Patents

Moving object extraction apparatus, method and program Download PDF

Info

Publication number
JP6607630B2
JP6607630B2 JP2015131527A JP2015131527A JP6607630B2 JP 6607630 B2 JP6607630 B2 JP 6607630B2 JP 2015131527 A JP2015131527 A JP 2015131527A JP 2015131527 A JP2015131527 A JP 2015131527A JP 6607630 B2 JP6607630 B2 JP 6607630B2
Authority
JP
Japan
Prior art keywords
moving object
information
moving
registered
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015131527A
Other languages
Japanese (ja)
Other versions
JP2017016333A (en
Inventor
栄 徐
智史 上野
浩嗣 三功
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2015131527A priority Critical patent/JP6607630B2/en
Publication of JP2017016333A publication Critical patent/JP2017016333A/en
Application granted granted Critical
Publication of JP6607630B2 publication Critical patent/JP6607630B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、移動物体抽出装置、方法およびプログラムに関し、特に、カメラにより撮影された動画像中に複数の移動物体が存在し、移動物体間に重なりが生じた場合でも、各移動物体を個々に正確に抽出できる移動物体抽出装置、方法およびプログラムに関する。   The present invention relates to a moving object extraction apparatus, method, and program, and in particular, even when a plurality of moving objects exist in a moving image captured by a camera and an overlap occurs between the moving objects, each moving object is individually detected. The present invention relates to a moving object extraction apparatus, method, and program that can be accurately extracted.

カメラにより撮影された動画像を用いて移動物体を監視したり、追跡したり、移動物体の動作を識別したりすることは、様々な分野で行われている。そのためには、種々の状況の動画像からでも移動物体を正確に抽出することが望まれる。   Monitoring and tracking of a moving object using a moving image photographed by a camera and identifying the movement of the moving object are performed in various fields. For this purpose, it is desirable to accurately extract a moving object even from moving images in various situations.

動画像から移動物体を抽出するための方法には、大別して、以下の3つの方法が存在する。   The methods for extracting a moving object from a moving image are roughly divided into the following three methods.

(1)背景差分に基づく方法
フレーム間の差分を求めることにより前景としての移動物体と背景を分離する方法であり、例えば、特許文献1に、背景画像推定に基づく物体抽出技術が記載されている。
(1) Method based on background difference A method for separating a moving object as a foreground and a background by obtaining a difference between frames. For example, Patent Document 1 describes an object extraction technique based on background image estimation. .

(2)動ベクトルの分類に基づく方法
動ベクトル検出技術を利用して、動画像から移動物体の方向や速度などを算出し、それらの情報を分析し、各移動物体に対する動ベクトルを分類し、各移動物体を抽出する方法であり、例えば、特許文献2に、この技術が記載されている。
(2) Method based on motion vector classification Using motion vector detection technology, calculate the direction and speed of moving objects from moving images, analyze the information, classify the motion vectors for each moving object, This is a method of extracting each moving object. For example, Patent Literature 2 describes this technique.

(3)動きの境界部分検出に基づく方法
動ベクトル検出技術をベースして、各移動物体に対する動きの境界部分を検出し、前景としての各移動物体の領域を推定する方法であり、例えば、非特許文献1に、この技術が記載されている。
(3) Method based on motion boundary detection This is a method for detecting the motion boundary for each moving object and estimating the area of each moving object as a foreground based on motion vector detection technology. Patent Document 1 describes this technique.

特開2011−13978号公報JP 2011-13978 A 特開2010−211578号公報JP 2010-211578 A

Papazoglou, A., & Ferrari, V. Fast object segmentation in unconstrained video. IEEE International Conference on Computer Vision (ICCV), pp. 1777-1784, 2013.Papazoglou, A., & Ferrari, V. Fast object segmentation in unconstrained video.IEEE International Conference on Computer Vision (ICCV), pp. 1777-1784, 2013.

特許文献1−2および非特許文献1に記載されている従来技術では、種々の状況でカメラにより撮影された動画像から移動物体を正確に抽出することが困難である。   In the prior art described in Patent Document 1-2 and Non-Patent Document 1, it is difficult to accurately extract a moving object from a moving image captured by a camera in various situations.

例えば、特許文献1に記載されている背景差分に基づく方法は、カメラが固定されている場合、あるいは移動してもその移動が徐々である場合にしか適用できないという課題がある。また、複数の移動物体間に重なりが生じた場合、各移動物体を別々に抽出することが難しいという課題もある。   For example, the method based on the background difference described in Patent Document 1 has a problem that it can be applied only when the camera is fixed or when the movement is slow even if it moves. In addition, when there is an overlap between a plurality of moving objects, there is a problem that it is difficult to extract each moving object separately.

特許文献2に記載されている動ベクトルの分類に基づく方法では、同一の移動物体についての動ベクトルが全ての部分で均一であることが要求されるので、人物や動物のように、各部位で動ベクトルが異なり、その形状も変形する移動物体を抽出することが難しいという課題がある。また、複数の移動物体間に重なりが生じた場合、各移動物体を別々に抽出することが難しいという課題もある。   In the method based on the classification of motion vectors described in Patent Document 2, the motion vector for the same moving object is required to be uniform in all parts. There is a problem that it is difficult to extract a moving object with different motion vectors and deformed shapes. In addition, when there is an overlap between a plurality of moving objects, there is a problem that it is difficult to extract each moving object separately.

非特許文献1に記載されている動きの境界部分検出に基づく方法は、カメラが移動する場合にも移動物体の動きが部分的に異なる場合にも適用できるが、複数の移動物体間に重なりが生じた場合、各移動物体を別々に抽出することが難しいという課題がある。   The method based on the boundary detection of motion described in Non-Patent Document 1 can be applied both when the camera moves and when the motion of the moving object is partially different, but there is an overlap between a plurality of moving objects. When this occurs, there is a problem that it is difficult to extract each moving object separately.

本発明の目的は、上記課題を解決し、移動物体の各部位の動きが異なる場合でも、複数の移動物体間に重なりが生じた場合でも、各移動物体を別々に正確に抽出できる移動物体抽出装置、方法およびプログラムを提供することにある。   The object of the present invention is to solve the above-mentioned problem, and even when the movement of each part of the moving object is different or when there is an overlap between a plurality of moving objects, the moving object extraction that can accurately extract each moving object separately To provide an apparatus, a method, and a program.

上記課題を解決するため、本発明は、動画像から移動物体を抽出する移動物体抽出装置であって、動画像における移動物体領域を検出する移動物体検出部と、前記移動物体領域および該移動物体領域において異なる動きをする各部位についての情報を移動物体領域情報として算出する移動物体情報算出部と、前記移動物体情報算出部により算出された移動物体領域についての情報を既登録の全ての移動物体の情報と個別に比較して前記移動物体領域が複数の移動物体に対応するかどうかを判定し、対応しないと判定された場合には、移動物体領域情報を当該移動物体についての情報として当該移動物体に対して新規登録あるいは当該移動物体に対して既登録されている情報を更新し、対応すると判定された場合には、前記移動物体情報算出手段により算出された各部位についての情報を当該複数の移動物体に対して既登録の情報と各部位ごとに比較して該移動物体領域情報を個々の移動物体の領域情報に分離してから当該移動物体に対して既登録されている情報を更新する移動体情報管理部を備えたことを特徴としている。 To solve the above problems, the present invention is a mobile object extraction unit for extracting a moving object from the moving image, the moving object detection unit for detecting a moving object region in a moving picture, the moving object region and the moving object A moving object information calculation unit that calculates information about each part that moves differently in the region as moving object region information, and information on the moving object region calculated by the moving object information calculation unit for all registered moving objects It is determined whether or not the moving object region corresponds to a plurality of moving objects, and if it is determined that they do not correspond, the moving object region information is used as information about the moving object. update the information that is already registered for the new registration or the moving object relative to the object, when it is determined the corresponding a, the moving object information calculation hand The mobile information about each part calculated from separated into the plurality of moving objects registered information and area information of each moving object a moving object area information by comparing for each site with respect to the A moving body information management unit that updates information already registered for an object is provided.

ここで、前記移動物体検出部が、 少なくとも2枚のフレーム画像から動きベクトルおよび該動くベクトルにおける特徴点群を検出し、検出された動ベクトルに従って前記特徴点群を分類し、分類された特徴点群から非凸型形状を抽出して移動物体領域の輪郭を生成し、生成された輪郭から移動物体領域の大凡の領域を推定し、推定された移動物体領域の大凡の領域を前景とし、画像全体を前景と背景に分割して移動物体領域を抽出することが好ましい。   Here, the moving object detection unit detects a motion vector and a feature point group in the moving vector from at least two frame images, classifies the feature point group according to the detected motion vector, and classifies the feature points A non-convex shape is extracted from the group to generate the contour of the moving object region, the approximate region of the moving object region is estimated from the generated contour, the approximate region of the estimated moving object region is used as the foreground, and the image It is preferable to extract the moving object region by dividing the whole into a foreground and a background.

また、前記移動物体情報算出部が、移動物体領域の幾何中心を移動物体領域の位置として算出し、移動物体領域のピクセル数を移動物体領域のサイズとして算出し、移動物体領域の各部位の動きベクトルの速度と方向により各部位を分類して、分類された各部位の幾何中心を各部位の位置として算出し、分類された各部位の動きベクトルから各部位の移動速度と移動方向を算出することも好ましい。   Further, the moving object information calculation unit calculates the geometric center of the moving object region as the position of the moving object region, calculates the number of pixels of the moving object region as the size of the moving object region, and moves each part of the moving object region. Each part is classified according to the speed and direction of the vector, the geometric center of each classified part is calculated as the position of each part, and the moving speed and moving direction of each part are calculated from the motion vector of each classified part. It is also preferable.

また、前記移動体情報管理部が、個々の移動物体に対してIDを付与して個々の移動物体についての情報を管理することも好ましい。   In addition, it is preferable that the moving body information management unit assigns an ID to each moving object and manages information about each moving object.

さらに、前記移動体情報管理部が、前記移動物体領域情報が複数の移動物体に対応するかどうかを、当該移動物体領域と既登録されている個々の移動物体の領域のカバー関係により判定することも好ましい。   Further, the moving body information management unit determines whether or not the moving object area information corresponds to a plurality of moving objects based on a cover relationship between the moving object area and the area of each registered moving object. Is also preferable.

なお、本発明は、移動物体抽出装置としてだけでなく、各部での処理を順次実行する移動物体抽出方法として、あるいは、コンピュータを移動物体抽出装置の各手段として機能させるプログラムとしても実現できる。   Note that the present invention can be realized not only as a moving object extraction apparatus, but also as a moving object extraction method that sequentially executes processing in each unit, or as a program that causes a computer to function as each unit of the moving object extraction apparatus.

本発明によれば、移動物体の各部位の動きが異なる場合や複数の移動物体間に重なりが生じた場合など、種々の状況でも各移動物体を別々に正確に抽出できる   According to the present invention, each moving object can be accurately and separately extracted even in various situations such as when the movement of each part of the moving object is different or when there is an overlap between a plurality of moving objects.

本発明に係る移動体抽出装置の一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the mobile body extraction apparatus which concerns on this invention. カメラで撮影された時系列動画像の例を示す説明図である。It is explanatory drawing which shows the example of the time-sequential moving image image | photographed with the camera. 移動物体検出部における処理を示す説明図である。It is explanatory drawing which shows the process in a moving object detection part. 移動物体の各部位における動きベクトルを分類した結果の一例を示す説明図である。It is explanatory drawing which shows an example of the result of having classified the motion vector in each site | part of a moving object. 移動物体IDおよび情報管理部における処理を示すフローチャートである。It is a flowchart which shows the process in a moving object ID and an information management part. 移動物体IDおよび情報管理部における処理の説明図である。It is explanatory drawing of the process in a moving object ID and an information management part. 遮蔽移動物体の分離の説明図である。It is explanatory drawing of isolation | separation of a shielding moving object.

以下、図面を参照して本発明を説明する。   The present invention will be described below with reference to the drawings.

本発明は、カメラにより撮影された時系列動画像から移動物体を抽出するものである。以下では、移動物体が人物であるとして説明する。   The present invention extracts a moving object from a time-series moving image taken by a camera. In the following description, it is assumed that the moving object is a person.

図1は、本発明に係る移動物体抽出装置の一実施形態を示すブロック図である。   FIG. 1 is a block diagram showing an embodiment of a moving object extraction apparatus according to the present invention.

この移動物体抽出装置10は、移動物体検出部11、移動物体情報算出部12、移動物体IDおよび情報管理部13を備え、1台のカメラにより撮影された時系列動画像から移動物体としての人物を抽出し、各移動物体のIDおよび情報を管理する。   The moving object extraction device 10 includes a moving object detection unit 11, a moving object information calculation unit 12, a moving object ID and an information management unit 13, and a person as a moving object from a time-series moving image captured by one camera. To manage the ID and information of each moving object.

移動物体IDおよび情報管理部13は、移動物体更新部15および移動物体登録部16を備え、移動物体更新部15は、遮蔽移動物体分離部14を備える。   The moving object ID and information management unit 13 includes a moving object update unit 15 and a moving object registration unit 16, and the moving object update unit 15 includes a shielding moving object separation unit 14.

なお、移動物体抽出装置10の各部は、1つあるいは複数のプロセッサを用いてソフトウエアにより実現することができ、また、ハードウエアにより実現することもできる。   Note that each unit of the moving object extraction apparatus 10 can be realized by software using one or a plurality of processors, and can also be realized by hardware.

移動物体検出部11は、例えば、動きベクトル検出手法、点群密度に基づくクラスタリングアルゴリズム、非凸型形状の抽出手法、および画像全体を前景と背景に分割するアルゴリズムを併用して、移動物体領域を検出する。ここでの具体的処理は、後で詳細に説明するが、上記技術を併用することにより、移動物体領域を正確に検出できる。なお、複数の移動物体(人物)間に重なり(以下、遮蔽と称する)が生じた場合、ここでは、それらを含む領域が1つの移動物体領域として抽出される。   The moving object detection unit 11 uses, for example, a motion vector detection method, a clustering algorithm based on point cloud density, a non-convex shape extraction method, and an algorithm that divides the entire image into a foreground and a background, To detect. The specific processing here will be described in detail later, but the moving object region can be accurately detected by using the above technique together. When an overlap (hereinafter referred to as “shielding”) occurs between a plurality of moving objects (persons), an area including them is extracted as one moving object area.

移動物体情報算出部12は、移動物体検出部11により検出された移動物体領域および該移動物体領域において異なる動きをする各部位についての情報を算出する。   The moving object information calculation unit 12 calculates information about the moving object region detected by the moving object detection unit 11 and each part that moves differently in the moving object region.

移動物体IDおよび情報管理部13は、移動物体情報算出部12により算出された情報を既登録の情報と比較して、検出された移動物体が未登録であるとしてその領域情報を新規登録するか、検出された移動物体が既登録であるとして既登録の情報を更新するか、検出された移動物体が、遮蔽が生じている複数の移動物体を含むとして各移動物体に分離してから既登録の情報を更新するかを判断する。   The moving object ID and information management unit 13 compares the information calculated by the moving object information calculation unit 12 with the already registered information, and determines whether the detected moving object is unregistered and newly registers the area information. Update the registered information assuming that the detected moving object is already registered, or register the detected moving object after separating it into each moving object as including a plurality of moving objects that are occluded Determine whether to update the information.

なお、既登録とは、現フレームより以前のフレームで既に同一の移動物体が検出されて、その移動物体の情報が移動物体IDおよび情報管理部13内蔵あるいは外部のデータベース(図示せず)に既に登録されていることを意味し、以前での新規登録だけでなく更新も含まれる。   Registered means that the same moving object is already detected in a frame before the current frame, and the information of the moving object is already stored in the moving object ID and information management unit 13 or in an external database (not shown). This means that it is registered, and includes not only new registrations but also updates.

ここで、検出された移動物体が未登録であると判断された場合、その移動物体を新規移動物体とし、移動物体登録部16は、それに新規IDを付与し、その情報を新規登録する。   Here, when it is determined that the detected moving object is unregistered, the moving object is set as a new moving object, and the moving object registration unit 16 assigns a new ID thereto and newly registers the information.

また、検出された移動物体が既登録であると判断された場合には、以前のIDを引き継ぎ、新たに算出された情報により既登録の情報を更新する。   Further, when it is determined that the detected moving object is already registered, the previous ID is taken over and the already registered information is updated with the newly calculated information.

また、検出された移動物体が、遮蔽が生じている複数の移動物体を含むと判断された場合、遮蔽移動物体分離部14が、その情報を個々の移動物体の情報に分離し、分離された情報により、また、必要な情報を算出してから、対応する既登録の情報を更新する。なお、この場合、移動体IDは、以前のIDを引き継ぐ。なお、遮蔽が生じている複数の移動物体が検出されるのは、後述するように、それより以前に個々の移動物体が検出されてから後であるので、ここでは、情報を更新するようにしている。   In addition, when it is determined that the detected moving object includes a plurality of moving objects in which shielding is occurring, the shielding moving object separation unit 14 separates the information into information on individual moving objects and separates them. Based on the information, after calculating the necessary information, the corresponding registered information is updated. In this case, the mobile unit ID takes over the previous ID. As will be described later, since a plurality of moving objects with occlusion are detected after an individual moving object is detected before that, the information is updated here. ing.

以下、図1の各部における処理を詳細に説明する。   Hereinafter, the processing in each part of FIG. 1 will be described in detail.

図2は、カメラで撮影された時系列動画像の例であり、移動する2人の人物a,bをカメラで撮影したときの時系列動画像を示す。ここで、時刻t1は、2人の人物a,bが画面中に存在し、人物a,b間に遮蔽が生じていない任意時刻であり、時刻t2は、人物a,b間に遮蔽が生じる直前の時刻である。これらの画像では、人物a,bは、別々に抽出される。時刻t2+1は、遮蔽が生じた瞬間の時刻であり、この画像では、人物a,bは、1つの領域として抽出される。時系列動画像では、まず、1人の人物aが出現し、その後、他の人物bが出現して人物aに近づいて両者の間に遮蔽が生じる時系列動画像は、一般的なものであり、ここでは、そのような時系列動画像を対象としている。   FIG. 2 is an example of a time-series moving image captured by a camera, and shows a time-series moving image when two moving persons a and b are captured by a camera. Here, time t1 is an arbitrary time in which two persons a and b exist in the screen and no shielding occurs between the persons a and b, and a time t2 includes shielding between the persons a and b. It is the time immediately before. In these images, persons a and b are extracted separately. The time t2 + 1 is the moment when the shielding occurs, and the persons a and b are extracted as one area in this image. In a time-series moving image, first, a person a appears, and then another person b appears, approaches the person a, and a shielding occurs between them. Yes, here, such time-series moving images are targeted.

移動物体検出部11は、まず、時系列動画像における少なくとも2枚のフレーム画像から特徴点(点群)の動きベクトルを検出する。ここでは、2枚のフレーム画像は、時系列動画像から選択した連続している2枚の画像である。また、特徴点は、動きベクトルを検出したフレーム画像上のピクセルである。この動きベクトルは、例えば、「Farneback, Gunnar. "Two-frame motion estimation based on polynomial expansion." In Image Analysis. Springer Berlin Heidelberg, pp. 363-370, 2003.」(文献1)に記載されている、画像の各ピクセルおよび各ピクセルの近傍領域の輝度値をベースとするオプティカルフロー法や、「Sundaram, Narayanan, Thomas Brox, and Kurt Keutzer. "Dense point trajectories by GPU-accelerated large displacement optical flow." Computer Vision-ECCV 2010. Springer Berlin Heidelberg, pp. 438-451, 2010.」(文献2)に記載されている高密度点群に基づく動きベクトル検出の手法を用いて検出できるが、その他の手法で検出してもよい。   The moving object detection unit 11 first detects a motion vector of a feature point (point group) from at least two frame images in a time-series moving image. Here, the two frame images are two consecutive images selected from the time-series moving images. The feature point is a pixel on the frame image where the motion vector is detected. This motion vector is described in, for example, “Farneback, Gunnar.“ Two-frame motion estimation based on polynomial expansion. ”In Image Analysis. Springer Berlin Heidelberg, pp. 363-370, 2003.” (Reference 1). The optical flow method based on the luminance value of each pixel of the image and the neighboring area of each pixel, and "Sundaram, Narayanan, Thomas Brox, and Kurt Keutzer." Dense point trajectories by GPU-accelerated large displacement optical flow. "Computer Vision-ECCV 2010. Springer Berlin Heidelberg, pp. 438-451, 2010. ”(Reference 2) can be detected using the motion vector detection method based on the high-density point cloud, but it can be detected by other methods. May be.

図3(a)は、図2の時刻t1の画像から検出された移動点群を示している。ここでは、人物aの領域の点群Pa、人物bの領域の点群Pb、背景の僅かな領域の点群BG1、BG2とBG3が移動点群として検出されている。   FIG. 3A shows a moving point group detected from the image at time t1 in FIG. Here, a point group Pa in the area of the person a, a point group Pb in the area of the person b, and point groups BG1, BG2, and BG3 in the area with a slight background are detected as moving point groups.

これらの点群の動きベクトルから各点群の変位を推定でき、この変位が小さい点群は、背景に対する点群と識別でき、その以外は、前景としての移動物体に対する点群と識別できる。   The displacement of each point group can be estimated from the motion vectors of these point groups. A point group having a small displacement can be identified as a point group for the background, and other points can be identified as a point group for a moving object as the foreground.

そこで、移動物体検出部11は、次に、検出された点群を分類(クラスタリング)する。この分類には、例えば、「Ester, Martin, et al. "A density-based algorithm for discovering clusters in large spatial databases with noise." Kdd, vol. 96, no. 34, 1996.」(文献3)に記載されている点群密度に基づくクラスタリングアルゴリズムを用いることができるが、その他の手法を用いてもよい。   Therefore, the moving object detection unit 11 then classifies (clusters) the detected point group. For example, “Ester, Martin, et al.“ A density-based algorithm for discovering clusters in large spatial databases with noise. ”Kdd, vol. 96, no. 34, 1996.” (reference 3) A clustering algorithm based on the described point cloud density can be used, but other methods may be used.

図3(b)は、図3(a)の点群を分類した結果を示す。ここで、点群Paは人物aに対応し、点群Pbは人物bに対応し、点群BG1、BG2とBG3は背景の僅かな領域に対応する。このように、カメラにより撮影された画像おける背景の僅かな領域に対する点群BG1、BG2とBG3が検出されることがあるが、その点群BG1、BG2とBG3の点の数は少ないので、点群密度に基づくクラスタリングアルゴリズム(文献3)で点群を分類し、さらに、例えば、分類された点群の点の数が予め設定した閾値以下の場合、背景に対する点群と識別できる。   FIG. 3 (b) shows the result of classifying the point group of FIG. 3 (a). Here, the point group Pa corresponds to the person a, the point group Pb corresponds to the person b, and the point groups BG1, BG2, and BG3 correspond to a slight area of the background. As described above, the point groups BG1, BG2 and BG3 may be detected for a small area of the background in the image photographed by the camera, but the number of points in the point groups BG1, BG2 and BG3 is small. A point cloud is classified by a clustering algorithm based on the group density (Reference 3). Further, for example, when the number of points of the classified point group is equal to or less than a preset threshold value, the point cloud can be identified as a background.

移動物体検出部11は、さらに、検出された点群から移動物体領域の輪郭を生成する。この輪郭の生成は、例えば「F. Bernardini and C. Bajaj. "Sampling and reconstructing manifolds using alpha-shapes." In Technical Report CSD-TR-97-013, Dept. Comput. Sci., Purdue Univ., West Lafayette, 1997.」(文献4)に記載されている手法を用いて、検出された点群から非凸型形状を抽出することで実現できるが、その他の手法を用いてもよい。図3(c)は、図3(b)の点群から上記文献4の手法で抽出された輪郭を示す。   The moving object detection unit 11 further generates a contour of the moving object region from the detected point group. For example, “F. Bernardini and C. Bajaj.“ Sampling and reconstructing manifolds using alpha-shapes. ”In Technical Report CSD-TR-97-013, Dept. Comput. Sci., Purdue Univ., West This can be realized by extracting a non-convex shape from the detected point group using the method described in “Lafayette, 1997.” (Reference 4), but other methods may be used. FIG. 3C shows a contour extracted from the point group shown in FIG.

移動物体検出部11は、さらに、フレーム画像上のピクセルと、上記のようにして作成された輪郭の関係から大凡の移動物体領域を推定する。例えば、「Hormann, Kai, and Alexander Agathos. "The point in polygon problem for arbitrary polygons." Computational Geometry, vol. 20(3), pp. 131-144, 2001.」(文献5)を利用し、フレーム画像上のピクセルと作成された輪郭の関係からポリゴン上のポイント問題として計算することにより、図3(d)のような大凡の移動物体領域を推定できるが、その他の手法を用いてもよい。   The moving object detection unit 11 further estimates an approximate moving object region from the relationship between the pixels on the frame image and the contour created as described above. For example, “Hormann, Kai, and Alexander Agathos.“ The point in polygon problem for arbitrary polygons. ”Computational Geometry, vol. 20 (3), pp. 131-144, 2001.” (reference 5) By calculating as a point problem on the polygon from the relationship between the pixel on the image and the created contour, an approximate moving object region as shown in FIG. 3 (d) can be estimated, but other methods may be used.

移動物体検出部11は、さらに、上記のようにして推定された大凡の移動物体領域を前景として使って、画像全体を前景と背景に分割するアルゴリズムで、図3(e)のような移動物体領域を正確に抽出する。画像全体を前景と背景に分割するアルゴリズムとしては、例えば、「Rother, Carsten, Vladimir Kolmogorov, and Andrew Blake. "Grabcut: Interactive foreground extraction using iterated graph cuts." ACM Transactions on Graphics (TOG), vol. 23(3), pp. 309-314, 2004.」(文献6)に記載されている「Grabcut方法」が知られており、これを用いることができるが、その他の手法を用いてもよい。   The moving object detection unit 11 further uses an approximate moving object region estimated as described above as a foreground, and divides the entire image into a foreground and a background, as shown in FIG. 3 (e). Extract regions accurately. For example, "Rother, Carsten, Vladimir Kolmogorov, and Andrew Blake." Grabcut: Interactive foreground extraction using iterated graph cuts. "ACM Transactions on Graphics (TOG), vol. 23 (3), pp. 309-314, 2004. ”(Reference 6) is known and can be used, but other methods may also be used.

移動物体情報算出部12は、移動物体検出部11により検出された移動物体領域の位置とサイズ、動きが異なる各部位の位置およびその移動速度と移動方向を含む移動物体情報を算出する。   The moving object information calculation unit 12 calculates moving object information including the position and size of the moving object region detected by the moving object detection unit 11, the position of each part with different movement, and the moving speed and moving direction thereof.

移動物体領域の位置は、移動物体検出部11により検出された移動物体領域の輪郭を抽出し、抽出された輪郭におけるポリゴンの中心点を算出することにより求めることができる。例えば、「Bourke, Paul. "Calculating the area and centroid of a polygon." URL. paulbourke.net/geometry/polygonmesh/, 1988.」(文献7)に記載されている手法を用いてポリゴンの中心点を算出し、この中心点を移動物体領域の位置とする。その他の手法で移動物体領域の位置を算出してもよい。   The position of the moving object area can be obtained by extracting the outline of the moving object area detected by the moving object detecting unit 11 and calculating the center point of the polygon in the extracted outline. For example, using the technique described in “Bourke, Paul.“ Calculating the area and centroid of a polygon. ”URL. Paulbourke.net/geometry/polygonmesh/, 1988.” (Reference 7) The center point is calculated as the position of the moving object region. The position of the moving object region may be calculated by other methods.

また、移動物体領域のサイズは、移動物体検出部11により検出された移動物体領域の全てのピクセルの数を計算することにより算出できる。   The size of the moving object region can be calculated by calculating the number of all pixels in the moving object region detected by the moving object detection unit 11.

移動物体領域の各部位の移動速度vと移動方向d(Δx,Δy)は、移動物体検出部11により検出された動きベクトルから推定できる。例えば、上記文献1に記載されているオプティカルフロー法で、時刻t-1のフレーム画像で検出した特徴点pt-1(xt-1,yt-1)と時刻tのフレーム画像で検出した特徴点pt(xt,yt)を一つの軌跡のペアとすると、移動速度vtと移動方向dt(Δxt,Δyt)は、下記式(1),(2),(3)に従って算出できる。   The moving speed v and moving direction d (Δx, Δy) of each part of the moving object region can be estimated from the motion vector detected by the moving object detection unit 11. For example, the feature point pt-1 (xt-1, yt-1) detected in the frame image at time t-1 and the feature point detected in the frame image at time t by the optical flow method described in the above-mentioned document 1 When pt (xt, yt) is a pair of trajectories, the moving speed vt and the moving direction dt (Δxt, Δyt) can be calculated according to the following equations (1), (2), (3).

上記式(1),(2),(3)により算出された特徴点pt-1とptに対する動きベクトルの移動速度vtと移動方向dt(Δxt,Δyt)を合わせて新たな特徴量wt(xt,yt,vt,Δxt,Δyt)とする。そして、全ての動きベクトルに対して新たな特徴量wtが計算し、それを分類する。この分類は、「Kailing, Karin, Hans-Peter Kriegel, and Peer Kroger. "Density-connected subspace clustering for high-dimensional data." Proc. SDM, vol. 4, 2004.」(文献8)に記載されているSUBCLUという高次元ベクトルクラスタリング方法で行えばよい。図4は、移動物体の各部位における動きベクトルを分類して結果の一例を示す。   The new feature quantity wt (xt , yt, vt, Δxt, Δyt). Then, a new feature amount wt is calculated for all the motion vectors and classified. This classification is described in “Kailing, Karin, Hans-Peter Kriegel, and Peer Kroger.“ Density-connected subspace clustering for high-dimensional data. ”Proc. SDM, vol. 4, 2004. (Reference 8). This can be done by a high-dimensional vector clustering method called SUBCLU. FIG. 4 shows an example of a result obtained by classifying motion vectors in each part of a moving object.

このようにして分類された新たな特徴量を分類グループごとに平均化することにより、各分類グループに対する各部位の移動速度と移動方向を推定できる。また、各部位の位置は、各分類グループに対する全ての特徴点におけるポリゴンの中心として推定できる。   By averaging the new feature quantities classified in this way for each classification group, it is possible to estimate the moving speed and moving direction of each part with respect to each classification group. Further, the position of each part can be estimated as the center of the polygon at all the feature points for each classification group.

次に、移動物体IDおよび情報管理部13における処理について説明する。図5は、ここでの処理を示すフローチャートである。   Next, processing in the moving object ID and information management unit 13 will be described. FIG. 5 is a flowchart showing the processing here.

移動物体IDおよび情報管理部13は、移動物体情報算出部12により算出された移動物体領域の情報と既登録の情報を比較することにより、検出された移動物体領域が新規の移動物体に対するものか、既登録の移動物体に対するものか、複数の移動物体間に遮蔽が生じて検出された移動物体に対するものかを判断し、新規の移動物体に対するものと判断された場合には、その移動物体領域の情報を当該移動物体に情報として新規IDとともに新規登録し、既登録の移動物体に対するものと判断された場合には、以前のIDを引き継いで、既登録の情報を新たに算出された情報に更新し、複数の移動物体間に遮蔽が生じて検出された移動物体に対するものと判断された場合には、それを個々の移動物体の情報に分離してから、以前のIDを引き継いで、既登録の情報を新たな情報に更新する。なお、複数の移動物体間に遮蔽が生じるのは、図3に示されているように、それより以前に個々の移動物体が検出されてから後であるので、ここでは、情報を更新するようにしている。   The moving object ID and information management unit 13 compares the information on the moving object area calculated by the moving object information calculation unit 12 with the registered information to determine whether the detected moving object area is for a new moving object. It is judged whether it is for a registered moving object or a moving object that is detected due to shielding between a plurality of moving objects, and if it is judged for a new moving object, the moving object region Information is newly registered with the new ID as information on the moving object, and if it is determined that it is for a registered moving object, the previous ID is taken over and the previously registered information is changed to newly calculated information. If it is determined that it is for a detected moving object due to shielding between multiple moving objects, it is separated into individual moving object information, and then the previous ID is taken over. Registration Information is updated to the new information. Note that, as shown in FIG. 3, the shielding occurs between a plurality of moving objects after an individual moving object is detected before that, so that information is updated here. I have to.

例えば、移動物体a、bの情報が既登録であり、移動物体検出部11により移動物体Aが検出されたとすると、図5のS51では、移動物体Aの情報を既登録の全ての情報(移動物体a、bの情報)と個別に比較し、下記式(4)により領域カバー率を算出し、それが閾値T1以下か否かを判定する。なお、ここでは、各移動物体領域の位置に従って位置合わせした上で比較する。   For example, if the information on the moving objects a and b is already registered, and the moving object A is detected by the moving object detection unit 11, in S51 of FIG. Compared with the information of the objects a and b), the area coverage is calculated by the following equation (4), and it is determined whether or not it is equal to or less than the threshold value T1. Here, the comparison is performed after alignment according to the position of each moving object region.

S51で、既登録の全ての移動物体a,bの領域に対して上記式(4)により算出された移動物体Aの領域のカバー率が、予め設定された閾値T1以下と判定された場合、S52で、移動物体Aに対して新規IDを付与し、S53で、移動物体Aおよびその各部位の情報を、移動物体IDおよび情報管理部13の移動物体登録部16により新規登録する。図6(a)は、この場合の移動物体Aと既登録移動物体aの関係を示している。このように、移動物体Aの領域がカバーする既登録移動物体aの領域が、閾値T1以下の場合、移動物体Aは新規移動物体として、新規IDを付与するとともに、移動物体Aおよびその各部位の情報を新規登録する。   In S51, when it is determined that the coverage of the area of the moving object A calculated by the above equation (4) for all the areas of the already registered moving objects a and b is equal to or less than a preset threshold value T1, In S52, a new ID is assigned to the moving object A, and in S53, the moving object A and information on each part thereof are newly registered by the moving object ID and the moving object registration unit 16 of the information management unit 13. FIG. 6A shows the relationship between the moving object A and the registered moving object a in this case. As described above, when the area of the registered moving object a covered by the area of the moving object A is equal to or less than the threshold T1, the moving object A is given a new ID as a new moving object, and the moving object A and each part thereof Register new information.

S51で、領域カバー率が閾値TIを超えると判定された場合、移動物体Aの領域がカバーする既登録移動物体を1つの参照移動物体として選択する。そして、S54で、これにより選択された参照移動物体が既登録の移動物体を1つだけを含むか複数含むかを判定し、1つだけを含むと判定された場合には、参照移動物体として選択された既登録の移動物体の情報を、移動物体Aの情報により更新する。なお、IDは、既登録の移動物体のIDを引き継ぐ。図6(b)は、移動物体Aの領域がカバーする既登録移動物体が1つだけの場合の、移動物体Aと既登録移動物体aの関係を示している。   If it is determined in S51 that the area coverage ratio exceeds the threshold TI, the registered moving object covered by the area of the moving object A is selected as one reference moving object. In S54, it is determined whether the selected reference moving object includes only one registered moving object or a plurality of registered moving objects. If it is determined that the reference moving object includes only one registered moving object, The information on the selected registered moving object is updated with the information on the moving object A. Note that the ID takes over the ID of the registered moving object. FIG. 6B shows the relationship between the moving object A and the registered moving object a when the area of the moving object A covers only one registered moving object.

S54で、選択された参照移動物体が、既登録の移動物体を複数含む判定された場合には、移動物体Aは、複数の移動物体間で遮蔽が生じて検出された移動物体であるので、S56に進み、移動物体分離部14で遮蔽移動体分離を行う。なお、参照移動物体が、既登録の移動物体を複数含むかどうかは、参照移動物体が含む移動物体IDから分かる。図6(c)は、移動物体Aの領域がカバーする既登録の移動物体が2つの場合の、移動物体Aと既登録移動物体a,bの関係を示している。   If it is determined in S54 that the selected reference moving object includes a plurality of registered moving objects, the moving object A is a moving object that is detected by shielding between the plurality of moving objects. Proceeding to S56, the moving object separation unit 14 performs the shield moving object separation. Whether or not the reference moving object includes a plurality of registered moving objects can be determined from the moving object ID included in the reference moving object. FIG. 6C shows the relationship between the moving object A and the registered moving objects a and b when there are two registered moving objects covered by the area of the moving object A.

S56では、移動物体情報算出部12により算出された移動物体Aの各部位の情報、すなわち、各部位の位置およびその移動速度と移動方向と、選択された参照移動物体の複数の既登録の移動物体の各部位の情報を比較して、マッチング処理する。このマッチング処理では、移動物体Aの部位の1つを選択して、参照移動物体が含む全ての既登録移動物体の各部位と比較し、Diff=(位置の差+移動速度の差+移動方向の差)を計算し、これにより計算されたDiffが最も小さい値となる既登録の移動物体の部位を、移動物体Aにおいて選択された1つの部位に対応する部位とする。同様に、移動物体Aの他の部位を1つずつ選択し、各部位に対応する既登録の移動物体の部位を探し出す。   In S56, information on each part of the moving object A calculated by the moving object information calculation unit 12, that is, the position of each part, its moving speed and moving direction, and a plurality of registered movements of the selected reference moving object The information of each part of the object is compared and matching processing is performed. In this matching process, one part of the moving object A is selected and compared with each part of all registered moving objects included in the reference moving object, and Diff = (position difference + movement speed difference + movement direction) The registered moving object part where the calculated Diff is the smallest value is set as a part corresponding to one part selected in the moving object A. Similarly, the other parts of the moving object A are selected one by one, and the part of the registered moving object corresponding to each part is searched.

以上のようにして、移動物体Aの各部位を複数の既登録移動物体に対応させることができるので、対応する既登録移動物体に従って移動物体Aを各移動物体に分離することができる。   As described above, each part of the moving object A can correspond to a plurality of registered moving objects, so that the moving object A can be separated into each moving object according to the corresponding registered moving objects.

図7は、遮蔽移動物体の分離の説明図である。   FIG. 7 is an explanatory diagram of the separation of the occluding moving object.

ここでは、移動物体Aが2つの既登録移動物体a,bをカバーし、その領域カバー率が閾値T1以上の場合を例とし、移動物体Aの18個の部位A1-A18の位置およびその移動速度と移動方向が算出されたとしている。また、既登録移動物体aの9個の部位a1-a9の位置およびその移動速度と移動方向が算出されて、その移動物体IDとともに既登録され、既登録移動物体bの9個の部位b1-b9の位置およびその移動速度と移動方向が算出されて、その移動物体IDとともに既登録されているとしている。   Here, as an example, the moving object A covers two registered moving objects a and b, and the area coverage is equal to or greater than the threshold T1, and the positions of the 18 parts A1-A18 of the moving object A and their movements It is assumed that the speed and direction of movement are calculated. Further, the positions of the nine parts a1-a9 of the registered moving object a and the moving speed and moving direction thereof are calculated, registered together with the moving object ID, and nine parts b1- of the registered moving object b. It is assumed that the position of b9 and its moving speed and moving direction are calculated and already registered together with the moving object ID.

順番は任意であるが、まず、移動物体Aの部位A1と既登録移動物体a,bの全ての部位a1-a9,b1-b9との間で上記Diffを計算し、部位A1に対応する部位a1を探し出す。同様に、移動物体Aの部位A2-A18に対応する部位a2-a9,b1-b9を探し出す。そして、既登録移動物体aの各部位a1-a9に対応する移動物体Aの各部位A1-A9を1つの移動物体として分離して、該移動物体に既登録移動物体aと同じ移動物体IDを付与し、また、既登録移動物体bの各部位b1-b9に対応する移動物体Aの各部位A10-A18を1つの移動物体として分離して、該移動物体に既登録移動物体bと同じ移動物体IDを付与する。なお、分離された移動物体の位置およびサイズは、分離後に算出すればよい。   The order is arbitrary, but first, the above Diff is calculated between the part A1 of the moving object A and all the parts a1-a9, b1-b9 of the registered moving objects a, b, and the part corresponding to the part A1 Find a1. Similarly, the parts a2-a9, b1-b9 corresponding to the parts A2-A18 of the moving object A are searched for. Then, each part A1-A9 of the moving object A corresponding to each part a1-a9 of the registered moving object a is separated as one moving object, and the same moving object ID as that of the registered moving object a is assigned to the moving object. And each part A10-A18 of the moving object A corresponding to each part b1-b9 of the registered moving object b is separated as one moving object, and the same movement as the registered moving object b is performed on the moving object Give the object ID. Note that the position and size of the separated moving object may be calculated after the separation.

以降は、S55に進んで、S54で1つの既登録移動物体と判定された場合と同様に、以前のIDを引き継ぐとともに、既登録移動物体a,bの情報を、移動物体Aが分離された移動物体の情報により更新する。   After that, the process proceeds to S55, and the previous ID is taken over and the information on the registered moving objects a and b is separated from the moving object A as in the case where it is determined as one registered moving object in S54. Update with moving object information.

以上実施形態について説明したが、本発明は、上記実施形態に限定されるものではない。例えば、以上では、移動物体を人物として説明したが、移動物体は、人物以外の動物、車などでもよく、それらが混在していても構わない。   Although the embodiment has been described above, the present invention is not limited to the above embodiment. For example, in the above description, the moving object is described as a person. However, the moving object may be an animal other than a person, a car, or the like, or a mixture of them.

また、本発明は、移動物体抽出装置としてだけでなく、各部での処理を順次実行する移動物体抽出方法としても、コンピュータを移動物体抽出装置の各手段として機能させるプログラムとしても実現できる。   Further, the present invention can be realized not only as a moving object extraction apparatus, but also as a moving object extraction method that sequentially executes processing in each unit, or as a program that causes a computer to function as each unit of the moving object extraction apparatus.

10・・・移動物体抽出装置、11・・・移動物体検出部、12・・・移動物体情報算出部、
13・・・移動物体IDおよび情報管理部、14・・・遮蔽移動物体分離部、15・・・移動物体更新部、16・・・移動物体登録部
10 ... moving object extraction device, 11 ... moving object detection unit, 12 ... moving object information calculation unit,
13 ... Moving object ID and information management unit, 14 ... Shield moving object separation unit, 15 ... Moving object update unit, 16 ... Moving object registration unit

Claims (7)

動画像から移動物体を抽出する移動物体抽出装置であって、
動画像における移動物体領域を検出する移動物体検出部と、
前記移動物体領域および該移動物体領域において異なる動きをする各部位についての情報を算出する移動物体情報算出部と、
前記移動物体情報算出部により算出された移動物体領域についての情報を既登録の全ての移動物体の情報と個別に比較して前記移動物体領域が1つだけの移動物体に対応するか複数の移動物体に対応するかどうかを判定し、1つだけの移動物体に対応すると判定された場合には、前記移動物体情報算出部により算出された情報を当該移動物体の情報として新規登録し、あるいは当該移動物体に対して既登録の情報を更新し、複数の移動物体に対応すると判定された場合には、前記移動物体情報算出部により算出された各部位についての情報を当該複数の移動物体に対して既登録の情報と各部位ごとに比較して前記移動物体情報算出部により算出された情報を個々の移動物体の情報に分離してから当該移動物体に対して既登録の情報を更新する移動体情報管理部を備えたことを特徴とする移動物体抽出装置。
A moving object extraction device for extracting a moving object from a moving image,
A moving object detection unit for detecting a moving object region in a moving image;
A moving object information calculating unit that calculates information about the moving object region and each part that moves differently in the moving object region;
The information on the moving object area calculated by the moving object information calculation unit is individually compared with the information on all registered moving objects, and the moving object area corresponds to only one moving object or a plurality of movements. If it is determined whether or not the object corresponds to only one moving object, the information calculated by the moving object information calculation unit is newly registered as information on the moving object, or When the registered information is updated for the moving object and it is determined that the moving object corresponds to a plurality of moving objects, the information about each part calculated by the moving object information calculation unit is obtained for the plurality of moving objects. update registered to the mobile object from the separated information calculated by the moving object information calculation section compared for each site and the registered information in the information of each moving object Te Moving object extraction apparatus comprising the moving body information management unit.
前記移動物体検出部は、
少なくとも2枚のフレーム画像から動きベクトルおよび該動くベクトルにおける特徴点群を検出し、
検出された動ベクトルに従って前記特徴点群を分類し、
分類された特徴点群から非凸型形状を抽出して移動物体領域の輪郭を生成し、
生成された輪郭から移動物体領域の大凡の領域を推定し、
推定された移動物体領域の大凡の領域を前景とし、画像全体を前景と背景に分割して移動物体領域を抽出することを特徴とする請求項1に記載の移動物体抽出装置。
The moving object detector is
Detecting a motion vector and a feature point group in the moving vector from at least two frame images;
Classifying the feature point group according to the detected motion vector;
Extract the non-convex shape from the classified feature point group to generate the contour of the moving object region,
Estimate the approximate area of the moving object area from the generated contour,
The moving object extraction apparatus according to claim 1, wherein an approximate area of the estimated moving object area is used as a foreground, and the entire image is divided into a foreground and a background to extract the moving object area.
前記移動物体情報算出部は、
移動物体領域の幾何中心を移動物体領域の位置として算出し、
移動物体領域のピクセル数を移動物体領域のサイズとして算出し、
移動物体領域の各部位の動きベクトルの速度と方向により各部位を分類して、分類された各部位の幾何中心を各部位の位置として算出し、
分類された各部位の動きベクトルから各部位の移動速度と移動方向を算出することを特徴とする請求項1または2に記載の移動物体抽出装置。
The moving object information calculation unit
Calculate the geometric center of the moving object area as the position of the moving object area,
Calculate the number of pixels in the moving object area as the size of the moving object area,
Classify each part according to the speed and direction of the motion vector of each part of the moving object region, calculate the geometric center of each classified part as the position of each part,
The moving object extraction device according to claim 1 or 2, wherein a moving speed and a moving direction of each part are calculated from the motion vectors of the classified parts.
前記移動体情報管理部は、
各移動物体に対してIDを付与して、その情報を管理することを特徴とする請求項1ないし3のいずれか1つに記載の移動物体抽出装置。
The mobile information management unit
4. The moving object extraction apparatus according to claim 1, wherein an ID is assigned to each moving object and information thereof is managed.
前記移動体情報管理部は、
前記移動物体領域が1つだけの移動物体に対応するか複数の移動物体に対応するかどうかを、当該移動物体領域と既登録の移動物体の領域の重なりから判定することを特徴とする請求項1ないし4のいずれか1つに記載の移動物体抽出装置。
The mobile information management unit
The determination as to whether or not the moving object region corresponds to only one moving object or a plurality of moving objects from the overlap of the moving object region and the registered moving object region. 5. The moving object extraction device according to any one of 1 to 4.
動画像から移動物体を抽出する移動物体抽出方法であって、
動画像における移動物体領域を検出するステップと、
前記移動物体領域および該移動物体領域において異なる動きをする各部位についての情報を算出するステップと、
前記情報を算出するステップで算出された移動物体領域についての情報を既登録の全ての移動物体の情報と個別に比較して前記移動物体領域が1つだけの移動物体に対応するか複数の移動物体に対応するかどうかを判定し、1つだけの移動物体に対応すると判定された場合には、前記情報を算出するステップで算出された情報を当該移動物体の情報として新規登録し、あるいは当該移動物体に対して既登録の情報を更新し、複数の移動物体に対応すると判定された場合には、前記情報を算出するステップで算出された各部位についての情報を当該複数の移動物体に対して既登録の情報と各部位ごとに比較して前記情報を算出するステップで算出された情報を個々の移動物体の情報に分離してから当該移動物体に対して既登録の情報を更新するステップを有することを特徴とする移動物体抽出方法。
A moving object extraction method for extracting a moving object from a moving image,
Detecting a moving object region in the moving image;
Calculating information about the moving object region and each part that moves differently in the moving object region;
The information about the moving object area calculated in the step of calculating the information is individually compared with the information of all registered moving objects, so that the moving object area corresponds to only one moving object or a plurality of movements. If it is determined whether or not it corresponds to only one moving object, the information calculated in the step of calculating the information is newly registered as information on the moving object, or When it is determined that the registered information is updated with respect to the moving object and it corresponds to a plurality of moving objects, the information about each part calculated in the step of calculating the information is obtained for the plurality of moving objects. update registered to the mobile object from the separated information calculated in the step of calculating the information compared for each site and the registered information in the information of each moving object Te Moving object extraction method characterized by having a step.
動画像から移動物体を抽出するためのプログラムであって、コンピュータを、
動画像における移動物体領域を検出する移動物体検出手段と、
前記移動物体領域および該移動物体領域において異なる動きをする各部位についての情報を算出する移動物体情報算出手段と、
前記移動物体情報算出部により算出された移動物体領域についての情報を既登録の全ての移動物体の情報と個別に比較して前記移動物体領域が1つだけの移動物体に対応するか複数の移動物体に対応するかどうかを判定し、1つだけの移動物体に対応すると判定された場合には、前記移動物体情報算出手段により算出された情報を当該移動物体の情報として新規登録し、あるいは当該移動物体に対して既登録の情報を更新し、複数の移動物体に対応すると判定された場合には、前記移動物体情報算出手段により算出された各部位についての情報を当該複数の移動物体に対して既登録の情報と各部位ごとに比較して前記移動物体情報算出部により算出された情報を個々の移動物体の情報に分離してから当該移動物体に対して既登録の情報を更新する移動体情報管理手段として機能させるプログラム。
A program for extracting a moving object from a moving image, comprising:
Moving object detection means for detecting a moving object region in a moving image;
Moving object information calculating means for calculating information about the moving object region and each part that moves differently in the moving object region;
The information on the moving object area calculated by the moving object information calculation unit is individually compared with the information on all registered moving objects, and the moving object area corresponds to only one moving object or a plurality of movements. If it is determined whether or not the object corresponds to only one moving object, the information calculated by the moving object information calculation unit is newly registered as information on the moving object, or If the registered information is updated for the moving object and it is determined that it corresponds to a plurality of moving objects, the information about each part calculated by the moving object information calculating unit is given to the plurality of moving objects. update registered to the mobile object from the separated information calculated by the moving object information calculation section compared for each site and the registered information in the information of each moving object Te Program to function as the mobile object information management means that.
JP2015131527A 2015-06-30 2015-06-30 Moving object extraction apparatus, method and program Active JP6607630B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015131527A JP6607630B2 (en) 2015-06-30 2015-06-30 Moving object extraction apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015131527A JP6607630B2 (en) 2015-06-30 2015-06-30 Moving object extraction apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2017016333A JP2017016333A (en) 2017-01-19
JP6607630B2 true JP6607630B2 (en) 2019-11-20

Family

ID=57828226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015131527A Active JP6607630B2 (en) 2015-06-30 2015-06-30 Moving object extraction apparatus, method and program

Country Status (1)

Country Link
JP (1) JP6607630B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6947508B2 (en) * 2017-01-31 2021-10-13 株式会社日立製作所 Moving object detection device, moving object detection system, and moving object detection method
CN109284707B (en) * 2018-09-12 2021-07-20 首都师范大学 Moving target detection method and device
US10930012B2 (en) * 2019-05-21 2021-02-23 International Business Machines Corporation Progressive 3D point cloud segmentation into object and background from tracking sessions
JP7407677B2 (en) * 2020-08-25 2024-01-04 三菱電機ビルソリューションズ株式会社 Lost child detection device, lost child detection method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101014975B (en) * 2004-09-15 2011-09-28 松下电器产业株式会社 Object detector
JP4490794B2 (en) * 2004-11-18 2010-06-30 日本電信電話株式会社 Moving body contour extraction method and apparatus, and moving body contour extraction program
JP2010021598A (en) * 2008-07-08 2010-01-28 Victor Co Of Japan Ltd Image capturing apparatus and method
JP5106302B2 (en) * 2008-07-31 2012-12-26 セコム株式会社 Moving object tracking device
JP5580686B2 (en) * 2010-08-04 2014-08-27 セコム株式会社 Reporting device
JP5944781B2 (en) * 2012-07-31 2016-07-05 株式会社デンソーアイティーラボラトリ Mobile object recognition system, mobile object recognition program, and mobile object recognition method

Also Published As

Publication number Publication date
JP2017016333A (en) 2017-01-19

Similar Documents

Publication Publication Date Title
EP1859411B1 (en) Tracking objects in a video sequence
EP1859410B1 (en) Method of tracking objects in a video sequence
Benedek et al. Lidar-based gait analysis and activity recognition in a 4d surveillance system
Ojha et al. Image processing techniques for object tracking in video surveillance-A survey
Gabriel et al. The state of the art in multiple object tracking under occlusion in video sequences
Varas et al. Region-based particle filter for video object segmentation
JP2016095849A (en) Method and device for dividing foreground image, program, and recording medium
KR101360349B1 (en) Method and apparatus for object tracking based on feature of object
JP6607630B2 (en) Moving object extraction apparatus, method and program
CN110781733B (en) Image duplicate removal method, storage medium, network equipment and intelligent monitoring system
Angelo A novel approach on object detection and tracking using adaptive background subtraction method
KR101492059B1 (en) Real Time Object Tracking Method and System using the Mean-shift Algorithm
Lacabex et al. Lightweight tracking-by-detection system for multiple pedestrian targets
Li et al. Abnormal crowd behavior detection using topological methods
Nalepa et al. Real-time people counting from depth images
Ali et al. A General Framework for Multi-Human Tracking using Kalman Filter and Fast Mean Shift Algorithms.
Hassan et al. Temporal Superpixels based Human Action Localization
Peng et al. Multi-camera pedestrian detection with multi-view bayesian network model.
Yigit et al. Particle filter based conjoint individual-group tracker (CIGT)
Takayama et al. Tracking People in Dense Crowds Using Supervoxels
Spampinato et al. Event detection in crowds of people by integrating chaos and lagrangian particle dynamics
Li et al. Online adaptive learning for multi-camera people counting
Afonso et al. Predictive multiple motion fields for trajectory completion: Application to surveillance systems
Hima Video objects detection using spatial and temporal segmentation
Morris et al. Edge Flow

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160824

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191018

R150 Certificate of patent or registration of utility model

Ref document number: 6607630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150